87
75

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

【読解入門】Linuxカーネル (スケジューラ編その4-1)

Last updated at Posted at 2019-04-03

・idleクラスは、大した処理をしていないので説明は割愛します。
・deadlineクラスは、後日「スケジューラ編その3-4」として投稿する予定です。
・本稿で読解の対象にしているLinuxカーネルの版数は5.1-rc2です。

###初めに
本稿ではいよいよスケジューラコア部のコードを読解していきます。私自身のモチベーションも上がります!
sched_module.jpg

このコア部の説明をどのように進めるべきか考えた結果、他のコンポーネントから呼び出されるAPI(処理)を軸に説明していく進め方が良いのではないかと思ったので、この方法で読解していきます。

###コア部のAPI
皆さん、ドライバ開発で共通部を利用する際にカーネルAPIをどのように調査されていますか。
私の場合、早い段階で関連する機能部のEXPORT_SYMBOLで定義されたAPIを調べて、それぞれのAPIの概要を掴みます。そして、そのAPIを使用している他のドライバの例を見て認識が間違っていないことを確認します。そうすることで、全体のイメージ(自分で実装する部分と用意されている実装を利用する部分の区別)が湧いてきます。

少し話が逸れましたが、スケジューラコア部(kernel/sched/core.c)でEXPORT_SYMBOLでgrepすると下記が出力されます。

EXPORT_SYMBOL_GPL(set_cpus_allowed_ptr); //SMP用なので省略
EXPORT_SYMBOL_GPL(kick_process);
EXPORT_SYMBOL(wake_up_process);
EXPORT_SYMBOL_GPL(preempt_notifier_inc);
EXPORT_SYMBOL_GPL(preempt_notifier_dec);
EXPORT_SYMBOL_GPL(preempt_notifier_register);
EXPORT_SYMBOL_GPL(preempt_notifier_unregister);
EXPORT_SYMBOL(single_task_running);
EXPORT_SYMBOL(preempt_count_add);
EXPORT_SYMBOL(preempt_count_sub);
EXPORT_SYMBOL(schedule);
EXPORT_SYMBOL(preempt_schedule);
EXPORT_SYMBOL_GPL(preempt_schedule_notrace);
EXPORT_SYMBOL(default_wake_function);
EXPORT_SYMBOL(set_user_nice);
EXPORT_SYMBOL_GPL(sched_setscheduler);
EXPORT_SYMBOL_GPL(sched_setattr);
EXPORT_SYMBOL_GPL(sched_setscheduler_nocheck);
EXPORT_SYMBOL(_cond_resched);
EXPORT_SYMBOL(__cond_resched_lock);
EXPORT_SYMBOL(yield);
EXPORT_SYMBOL_GPL(yield_to);
EXPORT_SYMBOL(io_schedule_timeout);
EXPORT_SYMBOL(io_schedule);
EXPORT_SYMBOL_GPL(sched_show_task);
EXPORT_SYMBOL(__might_sleep);
EXPORT_SYMBOL(___might_sleep);
EXPORT_SYMBOL_GPL(__cant_sleep);

まずはこれらを機能ごとにグルーピングしましょう。
・スケジューリング要求
 schedule
 preempt_schedule
 preempt_schedule_notrace
 _cond_resched
 __cond_resched_lock

・プロセスの起床要求
 kick_process *
 wake_up_process
 default_wake_function

・CPUの明渡し
 yield
 yield_to
 __might_sleep *
 ___might_sleep *
 __cant_sleep *

・スケジューリングポリシーや優先度の設定
 set_user_nice
 sched_setscheduler
 sched_setattr
 sched_setscheduler_nocheck

・プリエンプションの制御
 preempt_notifier_inc
 preempt_notifier_dec
 preempt_notifier_register
 preempt_notifier_unregister
 preempt_count_add
 preempt_count_sub

・その他
 single_task_running
 io_schedule_timeout
 io_schedule

いかがでしょうか。
これで大雑把ですが分類できましたね。
なお、*をつけた処理はSMP向けであったり、大した処理をしていないため割愛させていただきます。ご興味のある方はコードを見てください。

それではこの項目ごとに処理を見ていきましょう。

本記事では、
・スケジューリング要求
・プロセスの起床要求
・CPUの明渡し

次の記事では
・スケジューリングポリシーや優先度の設定
・プリエンプションの制御
・その他
を述べたいと思います。

なお、事象を待ち合わせるための機能としてwaitキューがありますが、これは別途「waitキュー編」として記載することにします。

###スケジューリング要求
####schedule関数

kernel/sched/core.c
asmlinkage __visible void __sched schedule(void)
{
1        struct task_struct *tsk = current;

2        sched_submit_work(tsk);
3        do {
4                preempt_disable();
5                __schedule(false);
6                sched_preempt_enable_no_resched();
7        } while (need_resched());
}

1行目:taskにcurrentプロセスを設定します。
2行目:currentプロセスのブロックIO要求が発行されるされるまで待ちます。
4行目:プリエンプション(プロセススイッチ)を禁止します。
途中、話が逸れてしまいますが、Linuxでプリエンプションの制御(禁止と許可)をどのように行っているか整理しましょう。
Linuxの各プロセスには必ず対応するtask_struct構造体が存在します。
そのtask_struct構造体にthread_info構造体のメンバthread_infoが存在します。
このthread_info構造体にint型のpreempt_countメンバがあり、この変数でプリエンプションの禁止/許可を制御します。
preemption_count.jpg

preempt_countメンバの構成は下記のコメントが判りやすいです。

include/linux/preempt.h
/*
 * We put the hardirq and softirq counter into the preemption
 * counter. The bitmask has the following meaning:
 *
 * - bits 0-7 are the preemption count (max preemption depth: 256)
 * - bits 8-15 are the softirq count (max # of softirqs: 256)
 *
 * The hardirq count could in theory be the same as the number of
 * interrupts in the system, but we run all interrupt handlers with
 * interrupts disabled, so we cannot have nesting interrupts. Though
 * there are a few palaeontologic drivers which reenable interrupts in
 * the handler, so we need more than one bit here.
 *
 *         PREEMPT_MASK:        0x000000ff
 *         SOFTIRQ_MASK:        0x0000ff00
 *         HARDIRQ_MASK:        0x000f0000
 *             NMI_MASK:        0x00100000
 * PREEMPT_NEED_RESCHED:        0x80000000

preempt_count2.jpg
プリエンプションについては0-7bit目を使用し、0の時はプリエンプション許可、0以外の時はプリエンプション禁止になります。
この規則で制御するために3行目のpreempt_disable( )は、preempt_countをインクリメントします。
余談ですが、softirq (遅延割込み)、hardirq (ハードウェア割込み)、リスケジューリング フラグもこのpreempt_countの各ビットを用いて設定します。上記コメントから判る通り、リスケジューリング フラグは最上位ビット、ハードウェア割込み回数は16-19bit目、遅延割込みは8-15bit目までを使用します。(ハードウェア/遅延)割込み関連は割込み処理の入り口でインクリメントし、出口でデクリメントします。従って、0か否かを見ることでその時に割込み処理を行っているかどうかの判定に使用できます。リスケジューリング フラグはこれまでに何度か出てきましたね。再スケジュールが必要な場合にこのbitをセットします。

5行目:本関数のポイントで、実際にコンテキストスイッチするシーケンスの入り口です。詳しく見る前に6、7行目を説明します。
6行目:プリエンプションを許可します(リスケジューリング フラグはセットしない)。
7行目:currentプロセスのリスケジューリング フラグがセットされている場合、3行目に戻ります。
それでは、5行目を見ていきましょう。

kernel/sched/core.c
static void __sched notrace __schedule(bool preempt)
{
         struct task_struct *prev, *next;
         unsigned long *switch_count;
         struct rq_flags rf;
         struct rq *rq;
         int cpu;

 1        cpu = smp_processor_id();
 2        rq = cpu_rq(cpu);
 3        prev = rq->curr;

 4        schedule_debug(prev);

 5        if (sched_feat(HRTICK))
 6                hrtick_clear(rq);

 7        local_irq_disable();
 8        rcu_note_context_switch(preempt);

        /*
         * Make sure that signal_pending_state()->signal_pending() below
         * can't be reordered with __set_current_state(TASK_INTERRUPTIBLE)
         * done by the caller to avoid the race with signal_wake_up().
         *
         * The membarrier system call requires a full memory barrier
         * after coming from user-space, before storing to rq->curr.
         */
 9        rq_lock(rq, &rf);
10        smp_mb__after_spinlock();

        /* Promote REQ to ACT */
11        rq->clock_update_flags <<= 1;
12        update_rq_clock(rq);

13        switch_count = &prev->nivcsw;
14        if (!preempt && prev->state) {
15                if (signal_pending_state(prev->state, prev)) {
16                        prev->state = TASK_RUNNING;
17                } else {
18                        deactivate_task(rq, prev, DEQUEUE_SLEEP | DEQUEUE_NOCLOCK);
19                        prev->on_rq = 0;

20                        if (prev->in_iowait) {
21                                atomic_inc(&rq->nr_iowait);
22                                delayacct_blkio_start();
23                        }

                        /*
                         * If a worker went to sleep, notify and ask workqueue
                         * whether it wants to wake up a task to maintain
                         * concurrency.
                         */
24                        if (prev->flags & PF_WQ_WORKER) {
25                                struct task_struct *to_wakeup;

26                                to_wakeup = wq_worker_sleeping(prev);
27                                if (to_wakeup)
28                                        try_to_wake_up_local(to_wakeup, &rf);
29                        }
30                }
31                switch_count = &prev->nvcsw;
32        }

33        next = pick_next_task(rq, prev, &rf);
34        clear_tsk_need_resched(prev);
35        clear_preempt_need_resched();

36        if (likely(prev != next)) {
37                rq->nr_switches++;
38                rq->curr = next;
                /*
                 * The membarrier system call requires each architecture
                 * to have a full memory barrier after updating
                 * rq->curr, before returning to user-space.
                 *
                 * Here are the schemes providing that barrier on the
                 * various architectures:
                 * - mm ? switch_mm() : mmdrop() for x86, s390, sparc, PowerPC.
                 *   switch_mm() rely on membarrier_arch_switch_mm() on PowerPC.
                 * - finish_lock_switch() for weakly-ordered
                 *   architectures where spin_unlock is a full barrier,
                 * - switch_to() for arm64 (weakly-ordered, spin_unlock
                 *   is a RELEASE barrier),
                 */
39                ++*switch_count;

40                trace_sched_switch(preempt, prev, next);

                /* Also unlocks the rq: */
41                rq = context_switch(rq, prev, next, &rf);
42        } else {
43                rq->clock_update_flags &= ~(RQCF_ACT_SKIP|RQCF_REQ_SKIP);
44                rq_unlock_irq(rq, &rf);
45        }

46        balance_callback(rq);
}

1、2行目:currentプロセスのランキューを設定します。
     smp_processor_id( )はcurrentプロセスが動作しているCPU番号を返します。
3行目:currentプロセスをprevプロセスに変更します。
7行目:割込みを禁止します。
15、16行目:現在実行しているプロセス(prev)に保留しているシグナルが存在する場合、ステータスを実行可能状態にします。
18行目:保留しているシグナルが存在しない場合、deactivate_task( )→dequeue_task( )経由で実行キューから外します。
33行目:次に実行するプロセスを求めます。

kernel/sched/core.c
static inline struct task_struct *
pick_next_task(struct rq *rq, struct task_struct *prev, struct rq_flags *rf)
{
        const struct sched_class *class;
        struct task_struct *p;

1        if (likely((prev->sched_class == &idle_sched_class ||
2                    prev->sched_class == &fair_sched_class) &&
3                   rq->nr_running == rq->cfs.h_nr_running)) {

4                p = fair_sched_class.pick_next_task(rq, prev, rf);
5                if (unlikely(p == RETRY_TASK))
6                        goto again;

                /* Assumes fair_sched_class->next == idle_sched_class */
7                if (unlikely(!p))
8                        p = idle_sched_class.pick_next_task(rq, prev, rf);

9                return p;
10        }

11again:
12        for_each_class(class) {
13                p = class->pick_next_task(rq, prev, rf);
14                if (p) {
15                        if (unlikely(p == RETRY_TASK))
16                                goto again;
17                        return p;
18                }
19        }

        /* The idle class should always have a runnable task: */
20        BUG();
21}

1~10行目:これまで動作していたプロセスが一般クラスかもしくはIDLEクラスの場合、処理します。現在のrqの実行可能プロセス数がcfsのプロセス数と同じであることが判定条件です。
4行目:一般クラスのpick_next_taskメンバを呼び出して、一般クラス向けのアルゴリズムで次のプロセスを求めます。その結果がRETRY_TASKの場合は11行目にとびますが、Uni-Processorシステムの場合、RETRY_TASKを返すことがないため、復帰値のプロセスが次に実行するプロセスになります。
7、8行目:一般クラスのpick_next_taskメンバの復帰値で次に実行するプロセスが存在しなかった場合、その次の優先度であるIDLEクラスのpick_next_taskメンバを実行します。
9行目:上記で求めたプロセスを__schedule関数に復帰値として返します。
12~19行目:優先度の高いクラスから順にpick_next_taskメンバを実行します。そして、求められたプロセスを__schedule関数に返します。
20行目:通常この部分に到達することはないので、もし到達した場合はBUGメッセージを出力します。

__schedule関数に戻ります。
34行目:動作していたプロセスのリスケジューリング フラグをクリアします。
35行目:空関数です。
36行目:これまで実行していたプロセスとpick_next_task(前々回、前回で出てきましたね)で求めた次に実行するプロセスが異なる場合かどうかの判定処理です。
37行目:コンテキストスイッチ数(統計情報)をインクリメントします。
38行目:rqのcurrに次に実行するプロセスを設定します。
41行目:コンテキストスイッチの核です。

kernel/sched/core.c
static __always_inline struct rq *
context_switch(struct rq *rq, struct task_struct *prev,
               struct task_struct *next, struct rq_flags *rf)
{
        struct mm_struct *mm, *oldmm;

1        prepare_task_switch(rq, prev, next);

2        mm = next->mm;
3        oldmm = prev->active_mm;
        /*
         * For paravirt, this is coupled with an exit in switch_to to
         * combine the page table reload and the switch backend into
         * one hypercall.
         */
4        arch_start_context_switch(prev);

        /*
         * If mm is non-NULL, we pass through switch_mm(). If mm is
         * NULL, we will pass through mmdrop() in finish_task_switch().
         * Both of these contain the full memory barrier required by
         * membarrier after storing to rq->curr, before returning to
         * user-space.
         */
5        if (!mm) {
6                next->active_mm = oldmm;
7                mmgrab(oldmm);
8                enter_lazy_tlb(oldmm, next);
9        } else
10                switch_mm_irqs_off(oldmm, mm, next);

11        if (!prev->mm) {
12                prev->active_mm = NULL;
13                rq->prev_mm = oldmm;
14        }

15        rq->clock_update_flags &= ~(RQCF_ACT_SKIP|RQCF_REQ_SKIP);

16        prepare_lock_switch(rq, next, rf);

         /* Here we just switch the register state and the stack. */
17        switch_to(prev, next, prev);
18        barrier();

19        return finish_task_switch(prev);
}

2~14行目でmm_struct構造体の切り替えを行います。
2、3行目でmmとoldmmを設定し、主要な処理としては10行目のプロセス空間の切り替えです。関数全体は貼り付けませんが、処理シーケンスとしては
switch_mm_irqs_off( )→check_and_switch_context( )→cpu_switch_mm ( )
でプロセス空間を切り替えます。
17行目のswitch_toはアーキ依存部になります。Armを例に見てみましょう。

arch/arm/include/asm/switch_to.h
#define switch_to(prev,next,last)                                       \
do {                                                                    \
        __complete_pending_tlbi();                                      \
        last = __switch_to(prev,task_thread_info(prev), task_thread_info(next));        \
} while (0)

__swtch_toを見ます。

arch/arm/kerne/entry-armv.S
ENTRY(__switch_to)
 UNWIND(.fnstart        )
 UNWIND(.cantunwind     )
 1        add     ip, r1, #TI_CPU_SAVE
 2 ARM(   stmia   ip!, {r4 - sl, fp, sp, lr} )    @ Store most regs on stack
 3        ldr     r4, [r2, #TI_TP_VALUE]
 4        ldr     r5, [r2, #TI_TP_VALUE + 4]
 5        switch_tls r1, r4, r5, r3, r7
 6        mov     r5, r0
 7        add     r4, r2, #TI_CPU_SAVE
 8        ldr     r0, =thread_notify_head
 9        mov     r1, #THREAD_NOTIFY_SWITCH
10        bl      atomic_notifier_call_chain
11        mov     r0, r5
12 ARM(   ldmia   r4, {r4 - sl, fp, sp, pc}  )    @ Load all regs saved previously
 UNWIND(.fnend          )
ENDPROC(__switch_to)

極力簡素化したコードが上のコードです。

上記のTI_xxxは、以下のthread_info構造体のメンバを指しています。
例えば、1行目の#TI_CPU_SAVEはarch/arm/kernel/asm-offset.cで
DEFINE(TI_CPU_SAVE, offsetof(struct thread_info, cpu_context));
のように定義されており、thread_info構造体のcpu_contextを指していることが判ります。
以下にthread_info構造体を示します。

arch/arm/include/asm/thread_info.h
struct thread_info {
        unsigned long           flags;          /* low level flags */
        int                     preempt_count;  /* 0 => preemptable, <0 => bug */
        mm_segment_t            addr_limit;     /* address limit */
        struct task_struct      *task;          /* main task structure */
        __u32                   cpu;            /* cpu */
        __u32                   cpu_domain;     /* cpu domain */
        struct cpu_context_save cpu_context;    /* cpu context */
        __u32                   syscall;        /* syscall number */
        __u8                    used_cp[16];    /* thread used copro */

        unsigned long           tp_value[2];    /* TLS registers */
        union fp_state          fpstate __attribute__((aligned(8)));
        union vfp_state         vfpstate;
};

__switch_to関数を、極力シンプルに述べると、1、2行目でこれまで動作していたプロセスのレジスタ群をスタックへ退避し、7、12行目で新たに実行するプロセスのレジスタ群を復元しています。従って、厳密に言うと12行目から次プロセスの実行になります。
また、これまで動作していたprevプロセスは、次回動作する時はこの12行目から実行を再開することになります。
ここで、スタックへの退避・復元をするのであれば、thread_info構造体のcpu_contextなどのメンバは何のためにあるのか?と思われる方もいらっしゃると思います。スタックへの退避には間違いないのですが、各プロセスのthread_info構造体とカーネルスタック(8KBの場合)は以下のような関係にあります。
thread_info.jpg

8KBアラインでカーネルスタックは割り当てられますので、カーネルスタックアドレスを0x1FFFでマスクすることでカーネルスタックの先頭 = thread_info構造体をポイントできます。

なお、__schedule関数は、プロセススイッチ(コンテキストスイッチ)する時は必ず実行されることを覚えておくと良いと思います。(= コンテキストスイッチ時には必ず__schedule関数を呼び出す)

####preempt_schedule関数
下記にコードを示します。

kernel/sched/core.c
asmlinkage __visible void __sched notrace preempt_schedule(void)
{
        /*
         * If there is a non-zero preempt_count or interrupts are disabled,
         * we do not want to preempt the current task. Just return..
         */
1        if (likely(!preemptible()))
2                return;

3        preempt_schedule_common();
}

1行目は、「preempt_countが0(許可状態)かつ割込み禁止でない」の反転です。つまり、プリエンプション禁止、または割込み禁止の場合、2行目で復帰します。
3行目の関数を以下に示します。

kernel/sched/core.c
static void __sched notrace preempt_schedule_common(void)
{
        do {
                __schedule(true);

                /*
                 * Check again in case we missed a preemption opportunity
                 * between schedule and now.
                 */
        } while (need_resched());
}

トレーサー用コード、デバッグ用コードは削除すると、ものすごくシンプルですね。
前述した__schedule( )を呼び出し、その__schedule( )から復帰したプロセスにリスケジューリング フラグがセットされていれば再度スケジューリングし、セットされていなければ、そのまま抜ける処理になっています。

####preempt_schedule_notrace関数
本関数はトレーサから呼び出されるコードのため、ここでは割愛します。
本関数を呼び出している箇所は存在しません。
処理はpreempt_schedule( )とほぼ同じです。

####_cond_resched関数

リスケジューリング フラグがセットされており、かつプリエンプション可能な場合に前述のpreempt_schedule_common( )を呼び出します。
プリエンプションを試みた場合は1を返し、そうでない場合は0を返します。(プリエンプションをするか否かの判定でcurrentプロセスの方が優先度が高い場合はプリエンプションしません。このケースを考慮して「試みた場合」と記載しています)
本関数は、スケジューリングが可能かつ必要な場合、スケジューリングする関数と言えます。

kernel/sched/core.c
int __sched _cond_resched(void)
{
        if (should_resched(0)) {
                preempt_schedule_common();
                return 1;
        }
        rcu_all_qs();
        return 0;
}

####__cond_resched_lock関数
本関数は、スケジューリングがペンディングされているとき(1行目)、引数のlockを一度アンロックし(5行目)、スケジューラを呼び出した後(7行目)にアンロックしたlockをロックし直して(11行目)復帰する関数です。

kernel/sched/core.c
int __cond_resched_lock(spinlock_t *lock)
{
 1        int resched = should_resched(PREEMPT_LOCK_OFFSET);
 2        int ret = 0;

 3        lockdep_assert_held(lock);

 4        if (spin_needbreak(lock) || resched) {
 5                spin_unlock(lock);
 6                if (resched)
 7                        preempt_schedule_common();
 8                else
 9                        cpu_relax();
10                ret = 1;
11                spin_lock(lock);
12        }
13        return ret;
}

###プロセスの起床要求
####wake_up_process関数
本関数は引数で指定したプロセスの起床要求を行います。
関数が深いので、ポイントを絞って追っていきます。

kernel/sched/core.c
int wake_up_process(struct task_struct *p)
{
        return try_to_wake_up(p, TASK_NORMAL, 0);
}

try_to_wake_up( )を見てみます。

kernel/sched/core.c
static int
try_to_wake_up(struct task_struct *p, unsigned int state, int wake_flags)
{
        unsigned long flags;
        int cpu, success = 0;

1        raw_spin_lock_irqsave(&p->pi_lock, flags);
2        smp_mb__after_spinlock();
3        if (!(p->state & state))
4                goto out;

5        trace_sched_waking(p);

6        success = 1;
7        cpu = task_cpu(p);

8        smp_rmb();
9        if (p->on_rq && ttwu_remote(p, wake_flags))
10                goto stat;

11       if (p->in_iowait) {
12                delayacct_blkio_end(p);
13                atomic_dec(&task_rq(p)->nr_iowait);
14        }

15        ttwu_queue(p, cpu, wake_flags);
16 stat:
17        ttwu_stat(p, cpu, wake_flags);
18 out:
19        raw_spin_unlock_irqrestore(&p->pi_lock, flags);

20        return success;
21}

本関数のポイントは15行目のttwu_queue( )です。

kernel/sched/core.c
static void ttwu_queue(struct task_struct *p, int cpu, int wake_flags)
{
        struct rq *rq = cpu_rq(cpu);
        struct rq_flags rf;

        rq_lock(rq, &rf);
        update_rq_clock(rq);
        ttwu_do_activate(rq, p, wake_flags, &rf);
        rq_unlock(rq, &rf);
}

ttwu_do_activate( )を追いましょう。

kernel/sched/core.c
static void
ttwu_do_activate(struct rq *rq, struct task_struct *p, int wake_flags,
                 struct rq_flags *rf)
{
1        int en_flags = ENQUEUE_WAKEUP | ENQUEUE_NOCLOCK;

2        lockdep_assert_held(&rq->lock);

3        ttwu_activate(rq, p, en_flags);
4        ttwu_do_wakeup(rq, p, wake_flags, rf);
}

本関数のポイントは3行目と4行目です。
まずは3行目のttwu_activate( )を示します。

kernel/sched/core.c
static inline void ttwu_activate(struct rq *rq, struct task_struct *p, int en_flags)
{
        activate_task(rq, p, en_flags);
        p->on_rq = TASK_ON_RQ_QUEUED;

        /* If a worker is waking up, notify the workqueue: */
        if (p->flags & PF_WQ_WORKER)
                wq_worker_waking_up(p, cpu_of(rq));
}

activate_task( )を追いましょう。

kernel/sched/core.c
void activate_task(struct rq *rq, struct task_struct *p, int flags)
{
        if (task_contributes_to_load(p))
                rq->nr_uninterruptible--;

        enqueue_task(rq, p, flags);
}

追うべきはenqueue_task( )ですね。

kernel/sched/core.c
static inline void enqueue_task(struct rq *rq, struct task_struct *p, int flags)
{
1        if (!(flags & ENQUEUE_NOCLOCK))
2                update_rq_clock(rq);

3        if (!(flags & ENQUEUE_RESTORE)) {
4                sched_info_queued(rq, p);
5                psi_enqueue(p, flags & ENQUEUE_WAKEUP);
6        }

7        p->sched_class->enqueue_task(rq, p, flags);
}

7行目で対象プロセスのスケジューリングクラスのenqueue_taskメンバを実行し、実行キューに対象プロセスをキューイングしています。enqueue_task( )は、前々回、前回出てきた通りです。

ttwu_do_activate( )に戻ります。
ttwu_do_wakeup関数では、対象プロセスの状態を実行可能状態に設定しています。

kernel/sched/core.c
static void ttwu_do_wakeup(struct rq *rq, struct task_struct *p, int wake_flags,
                           struct rq_flags *rf)
{
        check_preempt_curr(rq, p, wake_flags);
        p->state = TASK_RUNNING;
        trace_sched_wakeup(p);
}

上記から、対象プロセスを実行キューにキューイングした後にstateを実行可能状態に変更しています。

####default_wake_function関数

kernel/sched/core.c
int default_wake_function(wait_queue_entry_t *curr, unsigned mode, int wake_flags,
                          void *key)
{
        return try_to_wake_up(curr->private, mode, wake_flags);
}

try_to_wake_up( )は、wake_up_process( )でも出てきましたね。
前述のため、try_to_wake_up( )の説明は省略します。

###CPUの明渡し
####yield関数
本関数は現在のプロセスが動作しているCPUを一度明渡す処理になります。
実際にコードを見てみましょう。

kernel/sched/core.c
void __sched yield(void)
{
        set_current_state(TASK_RUNNING);
        do_sched_yield();
}

1行目では明渡すプロセスの状態を実行可能状態にしています。
その後、do_sched_yield( )を呼び出します。

kernel/sched/core.c
static void do_sched_yield(void)
{
        struct rq_flags rf;
        struct rq *rq;

1        rq = this_rq_lock_irq(&rf);

2        schedstat_inc(rq->yld_count);
3        current->sched_class->yield_task(rq);

        /*
         * Since we are going to call schedule() anyway, there's
         * no need to preempt or enable interrupts:
         */
4        preempt_disable();
5        rq_unlock(rq, &rf);
6        sched_preempt_enable_no_resched();

7        schedule();
}

3行目でcurrentプロセスのスケジューリングクラスのyield_taskメンバを呼び出しています。yield_taskメンバで実行キュー内でリキューした後に7行目のschedule( )でコンテキストスイッチを行います。
なお、3行目のyield_taskで、適切なプロセスが存在しない場合はcurrentプロセスが引き続き実行されます。

####yield_to関数
本関数は指定のプロセスにCPUを明渡します。

kernel/sched/core.c
int __sched yield_to(struct task_struct *p, bool preempt)
{
        struct task_struct *curr = current;
        struct rq *rq, *p_rq;
        unsigned long flags;
        int yielded = 0;

        local_irq_save(flags);
        rq = this_rq();

again:
        p_rq = task_rq(p);
        /*
         * If we're the only runnable task on the rq and target rq also
         * has only one task, there's absolutely no point in yielding.
         */
        if (rq->nr_running == 1 && p_rq->nr_running == 1) {
                yielded = -ESRCH;
                goto out_irq;
        }

        double_rq_lock(rq, p_rq);
        if (task_rq(p) != p_rq) {
                double_rq_unlock(rq, p_rq);
                goto again;
        }

        if (!curr->sched_class->yield_to_task)
                goto out_unlock;

        if (curr->sched_class != p->sched_class)
                goto out_unlock;

        if (task_running(p_rq, p) || p->state)
                goto out_unlock;

a)      yielded = curr->sched_class->yield_to_task(rq, p, preempt);
        if (yielded) {
                schedstat_inc(rq->yld_count);
                /*
                 * Make p's CPU reschedule; pick_next_entity takes care of
                 * fairness.
                 */
                if (preempt && rq != p_rq)
                      resched_curr(p_rq);
        }

out_unlock:
        double_rq_unlock(rq, p_rq);
out_irq:
        local_irq_restore(flags);

        if (yielded > 0)
b)                schedule();

        return yielded;
}

ポイントを絞ります。
a)でcurrentプロセスのスケジューリングクラスのyield_to_taskメンバを実行します。
その後、b)で対象プロセスにスイッチします。

###スケジューリングするタイミングについて
これまでリスケジューリング フラグをセットするという言葉が何回か出てきましたが、フラグをセットした後、いつスケジューリングされるのでしょうか。
 実際にLinuxが動作しているシステムにおいて、スケジューリングする契機は私が把握している範囲では下記です。
*他のタイミングをご存知の方は教えてください。

(1) 自発的にCPUを明渡すとき(yield( )呼び出しやプロセスの状態をTASK_UNINTERRUPTIBLEやTASK_INTERRUPTIBLEに設定する)
(2) プリエンプションを禁止から許可にした時
(3) システムコール処理の出口
(4) 割込み処理の出口

ここでは、(4)の呼び出し方を見てみましょう。

arch/arm/kernel/entry-armv.S
__irq_svc:
1        svc_entry
2        irq_handler

3        ldr     r8, [tsk, #TI_PREEMPT]          @ get preempt count
4        ldr     r0, [tsk, #TI_FLAGS]            @ get flags
5        teq     r8, #0                          @ if preempt count != 0
6        movne   r0, #0                          @ force flags to 0
7        tst     r0, #_TIF_NEED_RESCHED
8        blne    svc_preempt

9        svc_exit r5, irq = 1                    @ return from exception
10 UNWIND(.fnend          )
11 ENDPROC(__irq_svc)

        .ltorg

#ifdef CONFIG_PREEMPT
12 svc_preempt:
13        mov     r8, lr
14 1:     bl      preempt_schedule_irq            @ irq en/disable is done inside
15        ldr     r0, [tsk, #TI_FLAGS]            @ get new tasks TI_FLAGS
16        tst     r0, #_TIF_NEED_RESCHED
17        reteq   r8                              @ go again
18        b       1b

1行目:割込み入り口処理
2行目:割込み処理
3行目:thread_info構造体のpreempt_countをr8にロード
4行目:thread_info構造体のflagsをr0にロード
5行目:r8(preempt_count)が0か否かを判定
6行目:r8が0でなければflagsのロード先r0に0を設定
7行目:リスケジューリング フラグがセットされているか否かを判定
8行目:セットされていれば12行目に分岐
13行目:リンクレジスタの値をr8に設定
14行目:preempt_schedule_irqを実行
15行目:新たに実行しようとしているプロセスのthread_info構造体のflagsをr0にロード
16行目:リスケジューリング フラグがセットされているか否かを判定
17行目:フラグがセットされていないため、リンクレジスタの指すアドレスに復帰
18行目:フラグがセットされている為、再度preempt_schedule_irq( )を実行

参考までにpreempt_schedule_irq( )を以下に示します。
a) でスケジューリングしています。

asmlinkage __visible void __sched preempt_schedule_irq(void)
{
        enum ctx_state prev_state;

        /* Catch callers which need to be fixed */
        BUG_ON(preempt_count() || !irqs_disabled());

        prev_state = exception_enter();

        do {
                preempt_disable();
                local_irq_enable();
a)              __schedule(true);
                local_irq_disable();
                sched_preempt_enable_no_resched();
        } while (need_resched());

        exception_exit(prev_state);
}

このように、割込み出口では毎回リスケジューリング フラグ(TIF_NEED_RESCHED)を判定しています。
一番確実で定周期の粒度の割込みはtick割込み(1ms or 3.3ms or 4ms or 10ms)ですので、フラグをセットすると、遅くても次にtick割込みのタイミングでスケジューリングします。

ついでに(3)のシステムコール出口からのスケジューラ呼び出しまでをサッと見てみましょう。

arch/arm/kernel/entry-common.S
ret_fast_syscall:
__ret_fast_syscall:
 UNWIND(.fnstart        )
 UNWIND(.cantunwind     )
        str     r0, [sp, #S_R0 + S_OFF]!        @ save returned r0
#if IS_ENABLED(CONFIG_DEBUG_RSEQ)
        /* do_rseq_syscall needs interrupts enabled. */
        mov     r0, sp                          @ 'regs'
        bl      do_rseq_syscall
#endif
        disable_irq_notrace                     @ disable interrupts
        ldr     r2, [tsk, #TI_ADDR_LIMIT]
        cmp     r2, #TASK_SIZE
        blne    addr_limit_check_failed
        ldr     r1, [tsk, #TI_FLAGS]            @ re-check for syscall tracing
        tst     r1, #_TIF_SYSCALL_WORK | _TIF_WORK_MASK
        beq     no_work_pending
 UNWIND(.fnend          )
ENDPROC(ret_fast_syscall)

        /* Slower path - fall through to work_pending */
#endif

        tst     r1, #_TIF_SYSCALL_WORK
        bne     __sys_trace_return_nosave
slow_work_pending:
        mov     r0, sp                          @ 'regs'
        mov     r2, why                         @ 'syscall'
x)      bl      do_work_pending
        cmp     r0, #0
        beq     no_work_pending
        movlt   scno, #(__NR_restart_syscall - __NR_SYSCALL_BASE)
        ldmia   sp, {r0 - r6}                   @ have to reload r0 - r6
        b       local_restart                   @ ... and off we go
ENDPROC(ret_fast_syscall)

x) でdo_work_pending( )を呼び出しています。
下記do_work_pending( )のz) でschedule( )を呼び出してスケジューリングします。

arch/arm/kernel/signal.c
asmlinkage int
do_work_pending(struct pt_regs *regs, unsigned int thread_flags, int syscall)
{
        /*
         * The assembly code enters us with IRQs off, but it hasn't
         * informed the tracing code of that for efficiency reasons.
         * Update the trace code with the current status.
         */
        trace_hardirqs_off();
        do {
                if (likely(thread_flags & _TIF_NEED_RESCHED)) {
z)                      schedule();
                } else {
                        if (unlikely(!user_mode(regs)))
                                return 0;
                        local_irq_enable();
                        if (thread_flags & _TIF_SIGPENDING) {
                                int restart = do_signal(regs, syscall);
                                if (unlikely(restart)) {
                                        /*
                                         * Restart without handlers.
                                         * Deal with it without leaving
                                         * the kernel space.
                                         */
                                        return restart;
                                }
                                syscall = 0;
                        } else if (thread_flags & _TIF_UPROBE) {
                                uprobe_notify_resume(regs);
                        } else {
                                clear_thread_flag(TIF_NOTIFY_RESUME);
                                tracehook_notify_resume(regs);
                                rseq_handle_notify_resume(NULL, regs);
                        }
                }
                local_irq_disable();
                thread_flags = current_thread_info()->flags;
        } while (thread_flags & _TIF_WORK_MASK);
        return 0;
}

いかがでしたでしょうか。
前回、前々回で述べた各クラスのsched_class構造体とコア部の繋がり方がご理解できたでしょうか。
端折ったり、駆け足の部分もありましたので、判り辛かった点もあったかと思います。ご質問やご指摘があればご遠慮なくコメントください。

初回:【読解入門】Linuxカーネル (概要編)
前回:【読解入門】Linuxカーネル (スケジューラ編その3-3)

87
75
2

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
87
75

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?