Skip to main content
 首页 » 操作系统

Linux进程调度之实时调度器_学习笔记

2022年07月19日28me-sa

一、学习笔记

说明:

Kernel版本:4.14


1. 概述

在Linux内核中,实时进程总是比普通进程的优先级要高,实时进程的调度是由Real Time Scheduler(RT调度器)来管理,而普通进程由CFS调度器来管理。实时进程支持的调度策略为:SCHED_FIFOSCHED_RR

前边的系列文章都是针对CFS调度器来分析的,包括了CPU负载、组调度、Bandwidth控制等,本文的RT调度器也会从这些角度来分析,如果看过之前的系列文章,那么这篇文章理解起来就会更容易点了。

2. 数据结构

有必要把关键的结构体罗列一下了:

(1) struct rq:运行队列,每个CPU都对应一个;
(2) struct rt_rq:实时运行队列,用于管理实时任务的调度实体;
(3) struct sched_rt_entity:实时调度实体,用于参与调度,功能与struct sched_entity类似;
(4) struct task_group:组调度结构体;
(5) struct rt_bandwidth:带宽控制结构体;

老规矩,先上张图,捋捋这些结构之间的关系吧:

(1) 从图中的结构组织关系看,与CFS调度器基本一致,区别在与CFS调度器是通过红黑树来组织调度实体,而RT调度器使用的是优先级队列来组织实时调度实体;
(2) rt_rq运行队列,维护了100个优先级的队列(链表),优先级0-99,从高到底;
(3) 调度器管理的对象是调度实体,任务task_struct和任务组task_group都是通过内嵌调度实体的数据结构,来最终参与调度管理的;
(4) task_group任务组调度,自身为每个CPU维护rt_rq,用于存放自己的子任务或者子任务组,子任务组又能往下级联,因此可以构造成树;

上述结构体中,struct rq和struct task_group,在前文中都分析过。下边针对RT运行队列相关的关键结构体,简单注释下吧:

struct sched_rt_entity { 
    struct list_head run_list; /*用于加入到优先级队列中*/ 
    unsigned long    timeout;  /*设置的时间超时*/ 
    unsigned long    watchdog_stamp; /*用于记录jiffies值*/ 
    unsigned int     time_slice; /*RR task类型分配的时间片,在 __sched_fork()中默认初始化为(100 * HZ / 1000).*/ 
    unsigned short   on_rq; /*入队成功置为1*/ 
    unsigned short   on_list; 
    /* rt进程的组调度有关,通过其back域组成单链表 */ 
    struct sched_rt_entity *back; /*临时用于从上往下连接RT调度实体时使用*/ 
#ifdef CONFIG_RT_GROUP_SCHED 
    struct sched_rt_entity *parent; /*指向父RT调度实体*/ 
    struct rt_rq *rt_rq; /*RT调度实体所属的实时运行队列,被调度*/ 
    struct rt_rq *my_q;  /*只有组调度才为非NULL*/ 
#endif 
} __randomize_layout; 
 
 
struct rt_rq { 
    struct rt_prio_array active; //优先级队列,100个优先级的链表,并定义了位图,用于快速查询 
    unsigned int rt_nr_running;  //在RT运行队列中所有活动的任务数 
    unsigned int rr_nr_running; 
#if defined CONFIG_SMP || defined CONFIG_RT_GROUP_SCHED 
    struct { 
        int curr; /* highest queued rt task prio */ //当前RT任务的最高优先级 
#ifdef CONFIG_SMP 
        int next; /* next highest */ //下一个要运行的RT任务的优先级,如果两个任务都有最高优先级,则curr == next 
#endif 
    } highest_prio; 
#endif 
 
#ifdef CONFIG_SMP 
    unsigned long rt_nr_migratory; //任务没有绑定在某个CPU上时,这个值会增减,用于任务迁移 
    unsigned long rt_nr_total;     //用于overload检查 
    int overloaded; //RT运行队列过载,则将任务推送到其他CPU ############# 
    struct plist_head pushable_tasks; //优先级列表,用于推送过载任务 
#endif /* CONFIG_SMP */ 
 
    int rt_queued; //表示RT运行队列已经加入rq队列 
 
    int rt_throttled; //用于限流操作 
    u64 rt_time;      //累加的运行时,超出了本地rt_runtime时,则进行限制  ########## 
    u64 rt_runtime;   //分配给本地池的运行时 
    /* Nests inside the rq lock: */ 
    raw_spinlock_t rt_runtime_lock; 
 
#ifdef CONFIG_RT_GROUP_SCHED 
    unsigned long rt_nr_boosted; //用于优先级翻转问题解决 
    struct rq *rq;         //指向运行队列 
    struct task_group *tg; //指向任务组 
#endif 
}; 
 
 
struct rt_bandwidth { 
    /* nests inside the rq lock: */ 
    raw_spinlock_t rt_runtime_lock; 
    ktime_t rt_period;   //时间周期 
    u64        rt_runtime;  //一个时间周期内的运行时间,超过则限流,默认值为0.95ms ########### 
    struct hrtimer  rt_period_timer; //时间周期定时器 
    unsigned int    rt_period_active; 
};

3. 流程分析

3.1 运行时统计数据
运行时的统计数据更新,是在 update_curr_rt 函数中完成的:

update_curr_rt 函数功能,主要包括两部分:
(1) 运行时间的统计更新处理;
(2) 如果运行时间超出了分配时间,进行时间均衡处理,并且判断是否需要进行限流,进行了限流则需要将RT队列出队,并重新进行调度;

为了更直观的理解,下边还是来两张图片说明一下:

sched_rt_avg_update 更新示意如下:

(1) rq->age_stamp:在CPU启动后运行队列首次运行时设置起始时间,后续周期性进行更新;
(2) rt_avg:累计的RT平均运行时间,每0.5秒减半处理,用于计算CFS负载减去RT在CFS负载平衡中使用的时间百分比;

3.2 组调度

RT调度器与CFS调度器的组调度基本类似,看一下RT调度器组调度的组织关系图吧:

(1) 系统为每个CPU都分配了RT运行队列,以及RT调度实体,任务组通过它包含的RT调度实体来参与调度;
(2) 任务组task_group的RT队列,用于存放归属于该组的任务或子任务组,从而形成级联的结构;

看一下实际的组织示意图:

注:图中Task5和Task4指向指反了。

3.3 带宽控制

请先参考(四)Linux进程调度-组调度及带宽控制。

RT调度器在带宽控制中,调度时间周期设置的为1s,运行时间设置为0.95s: 

/* period over which we measure -rt task CPU usage in us. default: 1s */ 
unsigned int sysctl_sched_rt_period = 1000000; 
 
/* part of the period that we allow rt tasks to run in us. default: 0.95s */ 
int sysctl_sched_rt_runtime = 950000;

这两个值可以在用户态通过 /sys/fs/cgroup/cpu/rt_runtime_us 和 /sys/fs/cgroup/cpu/rt_period_us 来进行设置。

看看函数调用流程:

(1) init_rt_bandwidth 函数在创建分配RT任务组的时候调用,完成的工作是将 rt_bandwidth 结构体的相关字段进行初始化:设置好时间周期rt_period和运行时间限制 rt_runtime,都设置成默认值;
(2) 可以从用户态通过操作 /sys/fs/cgroup/cpu 下对应的节点进行设置 rt_period 和 rt_runtime,最终调用的函数是 tg_set_rt_bandwidth,在该函数中会从下往上的遍历任务组进行设置时间周期和限制的运行时间;
(3) 在 enqueue_rt_entity 将RT调度实体入列时,最终触发 start_rt_bandwidth 函数执行,当高精度定时器到期时调用 do_sched_rt_period_timer 函数;
(4) do_sched_rt_period_timer 函数,会去判断该RT运行队列的累计运行时间rt_time与设置的限制运行时间 rt_runtime 之间的大小关系,以确定是否限流的操作。在这个函数中,如果已经进行了限流操作,会调用 balance_time 来在多个CPU之间进行时间均衡处理,简单点说,就是从其他CPU的rt_rq队列中匀出一部分时间增加到当前CPU的rt_rq队列中,也就是将当前rt_rt运行队列的限制运行时间rt_runtime增加一部分,其他CPU的rt_rq运行队列限制运行时间减少一部分。

来一张效果示意图:

3.4 调度器函数分析

来一张前文的图:

看一下RT调度器实例的代码:

const struct sched_class rt_sched_class = { 
    .next            = &fair_sched_class, 
    .enqueue_task        = enqueue_task_rt, 
    .dequeue_task        = dequeue_task_rt, 
    .yield_task        = yield_task_rt, 
 
    .check_preempt_curr    = check_preempt_curr_rt, 
 
    .pick_next_task        = pick_next_task_rt, 
    .put_prev_task        = put_prev_task_rt, 
 
#ifdef CONFIG_SMP 
    .select_task_rq        = select_task_rq_rt, 
 
    .set_cpus_allowed       = set_cpus_allowed_common, 
    .rq_online              = rq_online_rt, 
    .rq_offline             = rq_offline_rt, 
    .task_woken        = task_woken_rt, 
    .switched_from        = switched_from_rt, 
#endif 
 
    .set_curr_task          = set_curr_task_rt, 
    .task_tick        = task_tick_rt, 
 
    .get_rr_interval    = get_rr_interval_rt, 
 
    .prio_changed        = prio_changed_rt, 
    .switched_to        = switched_to_rt, 
 
    .update_curr        = update_curr_rt, 
};

3.4.1 pick_next_task_rt

pick_next_task_rt函数是调度器用于选择下一个执行任务。流程如下:

(1) 与CFS调度器不同,RT调度器会在多个CPU组成的domain中,对任务进行pull/push处理,也就是说,如果当前CPU的运行队列中任务优先级都不高,那么会考虑去其他CPU运行队列中找一个更高优先级的任务来执行,以确保按照优先级处理,此外当前CPU也会把任务推送到其他更低优先级的CPU运行队列上。
(2) _pick_next_task_rt的处理逻辑比较简单,如果实时调度实体是task,则直接查找优先级队列的位图中,找到优先级最高的任务,而如果实时调度实体是task_group,则还需要继续往下进行遍历查找;

关于任务的pull/push,linux提供了struct plist,基于优先级的双链表,其中任务的组织关系如下图:

pull_rt_task的大概示意图如下:

当前CPU上的优先级任务不高,从另一个CPU的pushable_tasks链表中找优先级更高的任务来执行;

3.4.2 enqueue_task_rt/dequeue_task_rt

当RT任务进行出队入队时,通过enqueue_task_rt/dequeue_task_rt两个接口来完成,调用流程如下:

(1) enqueue_task_rt和dequeue_task_rt都会调用dequeue_rt_stack接口,当请求的rt_se对应的是任务组时,会从顶部到请求的rt_se将调度实体出列;
(2) 任务添加到rt运行队列时,如果存在多个任务可以分配给多个CPU,设置overload,用于任务的迁移;

参考:

(六)Linux进程调度-实时调度器


本文参考链接:https://www.cnblogs.com/hellokitty2/p/14359896.html