基于mykernel 2.0编写一个操作系统内核
一、明配置mykernel 2.0,熟悉Linux内核的编译;
实验环境:VMware+虚拟机Ubuntu 18.04.1 LTS amd64
配置命令:
1 wget https://raw.github.com/mengning/mykernel/master/mykernel-2.0_for_linux-5.4.34.patch # 连接已挂,手动下载即可 2 sudo apt install axel 3 axel -n 20 https://mirrors.edge.kernel.org/pub/linux/kernel/v5.x/linux-5.4.34.tar.xz 4 xz -d linux-5.4.34.tar.xz # 先解压 5 tar -xvf linux-5.4.34.tar # 再解压 6 cd linux-5.4.34 7 patch -p1 < ../mykernel-2.0_for_linux-5.4.34.patch 8 sudo apt install build-essential libncurses-dev bison flex libssl-dev libelf-dev 9 make defconfig # Default configuration is based on 'x86_64_defconfig' 10 make -j$(nproc) # 编译的时间比较久 11 sudo apt install qemu # install QEMU
执行命令qemu-system-x86_64 -kernel arch/x86/boot/bzImage运行
从qemu窗口中您可以看到my_start_kernel在执行,同时my_timer_handler时钟中断处理程序可以执行。
 
进入mykernel目录您可以看到qemu窗口输出的内容的代码mymain.c和myinterrupt.c。
当前有一个CPU执行C代码的环境,同时具有中断处理程序的环境,我们通过Linux内核代码模拟了一个具有时钟中断和C代码执行环境的硬件平台。

 
mymain.c
 
myinterrupt.c
二、基于mykernel 2.0编写一个操作系统内核并进行分析
(1) mypcb.h文件注释分析
#define MAX_TASK_NUM 4 #define KERNEL_STACK_SIZE 1024*2 /* CPU-specific state of this task */ // 存储当前进程中正在执行线程的ip和sp struct Thread { unsigned long ip; unsigned long sp; }; // PCB 模拟进程控制块 typedef struct PCB{ int pid; // 进程号 volatile long state; /* -1 unrunnable阻塞态, 0 runnable可运行态, >0 stopped暂停态 */ unsigned long stack[KERNEL_STACK_SIZE]; // 进程使用的堆栈 /* CPU-specific state of this task */ struct Thread thread; // 当前正在执行的线程信息 unsigned long task_entry; // 存储进程入口函数地址(本实验中为my_process函数) struct PCB *next; // 指向下一个PCB }tPCB; void my_schedule(void); // 函数的声明 my_schedule,它的实现在my_interrupt.c中,在mymain.c中的各个进程函数会根据一个全局变量的状态来决定是否调用它,从而实现主动调度。
(2)修改mymain.c中的my_start_kernel函数,并在其中实现了my_process函数,作为进程的代码模拟一个个进程,时间片轮转调度。
#include <linux/types.h> #include <linux/string.h> #include <linux/ctype.h> #include <linux/tty.h> #include <linux/vmalloc.h> #include "mypcb.h" tPCB task[MAX_TASK_NUM]; tPCB * my_current_task = NULL; volatile int my_need_sched = 0; void my_process(void); void __init my_start_kernel(void) { int pid = 0; int i; /* Initialize process 0*/ task[pid].pid = pid; task[pid].state = 0;/* -1 unrunnable, 0 runnable, >0 stopped */ task[pid].task_entry = task[pid].thread.ip = (unsigned long)my_process; task[pid].thread.sp = (unsigned long)&task[pid].stack[KERNEL_STACK_SIZE-1]; task[pid].next = &task[pid]; /*fork more process */ for(i=1;i<MAX_TASK_NUM;i++) { memcpy(&task[i],&task[0],sizeof(tPCB)); task[i].pid = i; task[i].thread.sp = (unsigned long)(&task[i].stack[KERNEL_STACK_SIZE-1]); task[i].next = task[i-1].next; task[i-1].next = &task[i]; } /* start process 0 by task[0] */ pid = 0; my_current_task = &task[pid]; asm volatile( "movq %1,%%rsp\n\t" /* set task[pid].thread.sp to rsp */ "pushq %1\n\t" /* push rbp */ "pushq %0\n\t" /* push task[pid].thread.ip */ "ret\n\t" /* pop task[pid].thread.ip to rip */ : : "c" (task[pid].thread.ip),"d" (task[pid].thread.sp) /* input c or d mean %ecx/%edx*/ ); } int i = 0; void my_process(void) { while(1) { i++; if(i%10000000 == 0) { printk(KERN_NOTICE "this is process %d -\n",my_current_task->pid); if(my_need_sched == 1) { my_need_sched = 0; my_schedule(); } printk(KERN_NOTICE "this is process %d +\n",my_current_task->pid); } } }
void __init my_start_kernel(void)函数是mykernel内核代码的⼊⼝,负责初始化内核的各个组成部分。在Linux内核源代码中,实际的内核⼊⼝是init/main.c中的start_kernel(void)函数。
在my_process函数的while循环里面可见,会不断检测全局变量my_need_sched的值,当my_need_sched的值从0变成1的时候,就需要发生进程调度,全局变量my_need_sched重新置为0,执行my_schedule()函数进行进程切换。
(3)myinterrupt.c
#include <linux/types.h> #include <linux/string.h> #include <linux/ctype.h> #include <linux/tty.h> #include <linux/vmalloc.h> #include "mypcb.h" extern tPCB task[MAX_TASK_NUM]; extern tPCB * my_current_task; extern volatile int my_need_sched; volatile int time_count = 0; /* * Called by timer interrupt. * it runs in the name of current running process, * so it use kernel stack of current running process */ void my_timer_handler(void) { if(time_count%1000 == 0 && my_need_sched != 1) { printk(KERN_NOTICE ">>>my_timer_handler here<<<\n"); my_need_sched = 1; } time_count ++ ; return; } void my_schedule(void) { tPCB * next; tPCB * prev; if(my_current_task == NULL || my_current_task->next == NULL) { return; } printk(KERN_NOTICE ">>>my_schedule<<<\n"); /* schedule */ next = my_current_task->next; prev = my_current_task; if(next->state == 0)/* -1 unrunnable, 0 runnable, >0 stopped */ { my_current_task = next; printk(KERN_NOTICE ">>>switch %d to %d<<<\n",prev->pid,next->pid); /* switch to next process */ asm volatile( "pushq %%rbp\n\t" /* save rbp of prev */ "movq %%rsp,%0\n\t" /* save rsp of prev */ "movq %2,%%rsp\n\t" /* restore rsp of next */ "movq $1f,%1\n\t" /* save rip of prev */ "pushq %3\n\t" "ret\n\t" /* restore rip of next */ "1:\t" /* next process start here */ "popq %%rbp\n\t" : "=m" (prev->thread.sp),"=m" (prev->thread.ip) : "m" (next->thread.sp),"m" (next->thread.ip) ); } return; }
my_timer_handler用来记录时间片,实现了进程的周期性调用,每循环1000次,就通知进程去执行调度函数 my_schedule,
最后重新编译运行,可以查看运行效果:

三、简要分析操作系统内核核心功能及运行工作机制
(1)mymain.c关键代码分析如下:
asm volatile(
    "movq %1,%%rsp\n\t"     /* 将进程原堆栈栈顶的地址存⼊RSP寄存器 */
    "pushq %1\n\t"          /* 将当前RBP寄存器值压栈 */
    "pushq %0\n\t"         /* 将当前进程的RIP压栈 */
    "ret\n\t"              /* ret命令正好可以让压栈的进程RIP保存到RIP寄存器中 */
    :
    : "c" (task[pid].thread.ip),"d" (task[pid].thread.sp)   /* input c or d mean %ecx/%edx*/
);
movq %1,%%rsp 将RSP寄存器指向进程0的堆栈栈底,task[pid].thread.sp初始值即为进程0的堆栈栈底。
pushq %1 将当前RBP寄存器的值压栈,因为是空栈,所以RSP与RBP相同。这⾥简化起⻅,直接使⽤进程的堆栈栈顶的值task[pid].thread.sp,相应的RSP寄存器指向的位置也发⽣了变化,RSP = RSP - 8,RSP寄存器指向堆栈底部第⼀个64位的存储单元。
pushq %0 将当前进程的RIP(这⾥是初始化的值my_process(void)函数的位置)⼊栈,相应的RSP寄存器指向的位置也发⽣了变化,RSP = RSP - 8,RSP寄存器指向堆栈底部第⼆个64位的存储单元。
ret 将栈顶位置的task[0].thread.ip,也就是my_process(void)函数的地址放⼊RIP寄存器中,相应的RSP寄存器指向的位置也发⽣了变化,RSP = RSP + 8,RSP寄存器指向堆栈底部第⼀个64位的存储单元。
这样完成了进程0的启动,开始执⾏my_process(void)函数的代码。
(2)myinterrupt.c关键代码分析如下:
asm volatile(    
            "pushq %%rbp\n\t"         /* save rbp of prev */
            "movq %%rsp,%0\n\t"     /* save rsp of prev */
            "movq %2,%%rsp\n\t"     /* restore  rsp of next */
            "movq $1f,%1\n\t"       /* save rip of prev */    
            "pushq %3\n\t" 
            "ret\n\t"                 /* restore  rip of next */
            "1:\t"                  /* next process start here */
            "popq %%rbp\n\t"
            : "=m" (prev->thread.sp),"=m" (prev->thread.ip)
            : "m" (next->thread.sp),"m" (next->thread.ip)
        ); 
pushq %%rbp: 保存prev进程(本例中指进程0)当前RBP寄存器的值到堆栈;
movq %%rsp,%0 :保存prev进程(本例中指进程0)当前RSP寄存器的值到prev->thread.sp,这时RSP寄存器指向进程的栈顶地址,实际上就是将prev进程的栈顶地址保存;
movq %2,%%rsp: 将next进程的栈顶地址next->thread.sp放⼊RSP寄存器,完成了进程0和进程1的堆栈切换。
movq $1f,%1 :保存prev进程当前RIP寄存器值到prev->thread.ip,这⾥$1f是指标号1。
pushq %3 :把即将执⾏的next进程的指令地址next->thread.ip⼊栈,这时的next->thread.ip可能是进程1的起点my_process(void)函数,也可能是$1f(标号1)。第⼀次被执⾏从头开始为进程1的起点my_process(void)函数,其余的情况均为$1f(标号1),因为next进程如果之前运⾏过那么它就⼀定曾经也作为prev进程被进程切换过。
ret :就是将压⼊栈中的next->thread.ip放⼊RIP寄存器,为什么不直接放⼊RIP寄存器呢?因为程序不能直接使⽤RIP寄存器,只能通过call、ret等指令间接改变RIP寄存器。
1: 标号1是⼀个特殊的地址位置,该位置的地址是$1f。
popq %%rbp :将next进程堆栈基地址从堆栈中恢复到RBP寄存器中。
自此,就完成了进程0与进程1的切换,其他两个相邻进程的切换过程也和这个相同。

                    
                
                
            
        
浙公网安备 33010602011771号