OS face questions set

Original link: https://my.oschina.net/u/1186503/blog/1632610

First, the operating system knowledge map

10104822_AyYP.png

Second, the face questions and explain

1. The four characteristics of the operating system

Concurrency: Concurrency refers to two or more events occur at the same time intervals. (Note: Parallel refers to two or more events occur at the same time) from the macro level, the purpose of the process is the introduction of the operating system in order to make the program can be executed concurrently.

Share: processes in the system memory resources may be multiple concurrent execution of common use. Due to the different properties of the resource, so the sharing of resources in two ways: exclusive access and simultaneous access

Virtual: time division multiplexing (e.g. Time-Sharing System) and spatial division multiplexing (such as virtual memory) technology to a physical entity into multiple virtual

(Space Division Multiplexing: Let the same frequency band is reused in a different space, time division multiplexing: the whole is supplied to the transport channel is divided into time information in time slices (the slot) and the slot assignments to each source signal using space division multiplexing: using the memory free space to store and run other subregions multiprogramming, time division multiplexing: run other programs using the processor idle time)

Asynchronous: The system is in the process of execution of stop-go manner, and in an unpredictable rate advance

2. The main functions of the operating system

The role of the operating system is to manage resources (various hardware, computing resources, time, etc.).

Management Processor: Processor allocation are based on the process as a unit, so the processor can also be seen as a process management process management. Including process control, process synchronization, interprocess communication, and process scheduling

Memory management (or memory management): management of storage "space". Memory allocation, memory protection, address mapping, memory expansion

Device Management: manage all peripheral devices, including the completion of IO requests of users, assign IO devices to the user process; IO improve equipment utilization; improve IO speed; ease of use of IO

File Management: manage user files and system files for ease of use while ensuring safety. Including disk storage space management, directory management, file management, and to read and write file sharing and protection

A user interface (or job management): program interface (e.g. API) and a user interface (e.g., GUI)

3. state and the conversion process

Three-state model: ready state, running state, blocking state

Five-state model: the new state, ready state, running state, blocking state, termination state

Ready state -> Run state: after the process in the ready state is scheduled, access to processor resources

运行态->就绪态:处于运行态的进程在时间片用完后,不得不让出处理机

运行态->阻塞态:当进程请求某一资源(如外设)的使用和分配或等待某一事件的发生(如I/O操作的完成)时,它就从运行态转换为阻塞态。运行用户态程序调用操作系统内核态过程。

阻塞态->就绪态:当进程等待的事件到来,如I/O操作结束或中断结束时,中断处理程序必须把相应的状态由阻塞态转换为就绪态

4.进程与线程的区别

进程:是具有一定独立功能的程序关于某个数据集合上的一次运行活动,进程是系统进行资源分配和调度的一个独立单位.

线程:是进程的一个实体,是CPU调度和分派的基本单位,它是比进程更小的能独立运行的基本单位.线程自己基本上不拥有系统资源,只拥有一点在运行中必不可少的资源(如程序计数器,一组寄存器和栈),但是它可与同属一个进程的其他的线程共享进程所拥有的全部资源.

  • 进程有自己的独立地址空间,每启动一个进程,系统就会为它分配地址空间,建立数据表来维护代码段、堆栈段和数据段,这种操作非常昂贵。而线程是共享进程中的数据的,使用相同的地址空间,因此CPU切换一个线程的花费远比进程要小很多,同时创建一个线程的开销也比进程要小很多。

  • 线程之间的通信更方便,同一进程下的线程共享全局变量、静态变量等数据,而进程之间的通信需要以通信的方式(IPC)进行。不过如何处理好同步与互斥是编写多线程程序的难点。

  • 但是多进程程序更健壮,多线程程序只要有一个线程死掉,整个进程也死掉了,而一个进程死掉并不会对另外一个进程造成影响,因为进程有自己独立的地址空间。

    两者的对比:

  • 调度方面:在引入线程的OS中,线程是独立的调度和分派单位,而进程作为资源的拥有单位(相当于把未引入线程的传统OS中的进程的两个属性分开了)。由于线程不拥有资源,因此可以显著的提高并发度以及减少切换开销。

  • 并发性:引入了线程的OS中,进程间可以并发,而且一个进程内部的多个线程之间也是可以并发的,这就使OS具有更好的并发性,有效的提高了系统资源利用率和吞吐量。

  • 拥有资源:无论OS是否支持线程,进程都是基本的资源拥有单位,线程只拥有很少的基本的资源,但是线程可以访问所隶属的进程的资源(进程的代码段,数据段和所拥有的系统资源如fd)

  • 系统开销:创建或者撤销进程的时候,系统要为之创建或回收PCB,系统资源等,切换时也需要保存和恢复CPU环境。而线程的切换只需要保存和恢复少量的寄存器,不涉及存储器管理方面的工作,所以开销较小。此外,统一进程中的多个线程由于共享地址空间,所以通信同步等都比较方便。

5.进程通信

进程通信是指进程之间的信息交换。PV操作是低级通信方式,高级通信方式是指以较高的效率传输大量数据的通信方式。高级通信方法主要有以下三类。

共享存储

消息传递

管道通信

信号、信号量主要用于触发,而不是用于传递数据。

套接字socket

6.进程同步

多进程虽然提高了系统资源利用率和吞吐量,但是由于进程的异步性可能造成系统的混乱。进程同步的任务就是对多个相关进程在执行顺序上进行协调,使并发执行的多个进程之间可以有效的共享资源和相互合作,保证程序执行的可再现性。

同步机制需要遵循的原则:

  1. 空闲让进:当没有进程处于临界区的时候,应该许可其他进程进入临界区的申请
  2. 忙则等待:当前如果有进程处于临界区,如果有其他进程申请进入,则必须等待,保证对临界区的互斥访问
  3. 有限等待:对要求访问临界资源的进程,需要在有限时间内进入临界区,防止出现死等
  4. 让权等待:当进程无法进入临界区的时候,需要释放处理机,边陷入忙等

经典的进程同步问题:生产者-消费者问题;哲学家进餐问题;读者-写者问题

同步的解决方案:管程,信号量。

7.用户态和核心态

Operating system heavy and difficult interview summary

当程序运行在3级特权级上时,就可以称之为运行在用户态,因为这是最低特权级,是普通的用户进程运行的特权级,大部分用户直接面对的程序都是运行在用户态;

反之,当程序运行在级特权级上时,就可以称之为运行在内核态。

虽然用户态下和内核态下工作的程序有很多差别,但最重要的差别就在于特权级的不同,即权力的不同。运行在用户态下的程序不能直接访问操作系统内核数据结构和程序。

当我们在系统中执行一个程序时,大部分时间是运行在用户态下的,在其需要操作系统帮助完成某些它没有权力和能力完成的工作时就会切换到内核态。

用户态切换到内核态的3种方式

1) 系统调用:这是用户态进程主动要求切换到内核态的一种方式,用户态进程通过系统调用申请使用操作系统提供的服务程序完成工作。而系统调用的机制其核心还是使用了操作系统为用户特别开放的一个中断来实现,例如Linux的int 80h中断。

2) 异常:当CPU在执行运行在用户态下的程序时,发生了某些事先不可知的异常,这时会触发由当前运行进程切换到处理此异常的内核相关程序中,也就转到了内核态,比如缺页异常。

3) 外围设备的中断:当外围设备完成用户请求的操作后,会向CPU发出相应的中断信号,这时CPU会暂停执行下一条即将要执行的指令转而去执行与中断信号对应的处理程序,如果先前执行的指令是用户态下的程序,那么这个转换的过程自然也就发生了由用户态到内核态的切换。比如硬盘读写操作完成,系统会切换到硬盘读写的中断处理程序中执行后续操作等。

8.死锁

死锁:是指两个或两个以上的进程在执行过程中,因争夺资源而造成的一种互相等待的现象,
若无外力作用,它们都将无法推进下去。

死锁原因:

  1. 竞争资源:请求同一有限资源的进程数多于可用资源数(资源不足,资源分配不当)
  2. 进程推进顺序不当:进程执行中,请求和释放资源顺序不合理,如资源等待链

死锁产生的必要条件:

  1. 互斥条件:进程对所分配的资源进行排他性的使用
  2. 请求和保持条件:进程被阻塞的时候并不释放锁申请到的资源
  3. 不可剥夺条件:进程对于已经申请到的资源在使用完成之前不可以被剥夺
  4. 循环等待条件:发生死锁的时候存在的一个 进程-资源 环形等待链

死锁处理:

  1. 预防死锁:破坏产生死锁的4个必要条件中的一个或者多个;实现起来比较简单,但是如果限制过于严格会降低系统资源利用率以及吞吐量

  2. 避免死锁:在资源的动态分配中,防止系统进入不安全状态(可能产生死锁的状态)-如银行家算法

  3. 检测死锁:允许系统运行过程中产生死锁,在死锁发生之后,采用一定的算法进行检测,并确定与死锁相关的资源和进程,采取相关方法清除检测到的死锁。实现难度大

  4. 解除死锁:与死锁检测配合,将系统从死锁中解脱出来(撤销进程或者剥夺资源)。对检测到的和死锁相关的进程以及资源,通过撤销或者挂起的方式,释放一些资源并将其分配给处于阻塞状态的进程,使其转变为就绪态。实现难度大

处理死锁的策略

  1. 忽略该问题。例如鸵鸟算法,该算法可以应用在极少发生死锁的的情况下。为什么叫鸵鸟算法呢,因为传说中鸵鸟看到危险就把头埋在地底下,可能鸵鸟觉得看不到危险也就没危险了吧。跟掩耳盗铃有点像。
  2. 检测死锁并且恢复。
  3. 仔细地对资源进行动态分配,以避免死锁。
  4. 通过破除死锁四个必要条件之一,来防止死锁产生。

9.进程调度算法

先来先服务调度算法FCFS:既可以作为作业调度算法也可以作为进程调度算法;按作业或者进程到达的先后顺序依次调度;因此对于长作业比较有利;

短作业优先调度算法SJF:作业调度算法,算法从就绪队列中选择估计时间最短的作业进行处理,直到得出结果或者无法继续执行;缺点:不利于长作业;未考虑作业的重要性;运行时间是预估的,并不靠谱 ;

高相应比算法HRN:响应比=(等待时间+要求服务时间)/要求服务时间;

时间片轮转调度RR:按到达的先后对进程放入队列中,然后给队首进程分配CPU时间片,时间片用完之后计时器发出中断,暂停当前进程并将其放到队列尾部,循环 ;

多级反馈队列调度算法:目前公认较好的调度算法;设置多个就绪队列并为每个队列设置不同的优先级,第一个队列优先级最高,其余依次递减。优先级越高的队列分配的时间片越短,进程到达之后按FCFS放入第一个队列,如果调度执行后没有完成,那么放到第二个队列尾部等待调度,如果第二次调度仍然没有完成,放入第三队列尾部…。只有当前一个队列为空的时候才会去调度下一个队列的进程。

11.基本分页存储管理方式

把主存空间划分为大小相等且固定的块,块相对较小,作为主存的基本单位。每个进程以块为单位进行划分,进程在执行时,以块为单位逐个申请请主存中块空间。

因为程序数据存储在没的页面中,而页面又离散的分布在内存中,因此需要一个页表来记录逻辑地址和实际存储地址之间的映射关系,以实现从页号到物理块号的映射。

由于页表也是存储在内存中,因此和不适用分页管理的存储方式相比,访问分页系统中内存数据需要两次的内存访问(一次是从内存中访问页表,从中找到指定的物理块号,加上页内偏移得到实际物理地址;第二次就是根据第一次得到的物理地址访问内存取出数据)。

Operating system heavy and difficult interview summary

为了减少两次访问内存导致的效率影响,分页管理中引入了快表机制,包含快表机制的内存管理中,当要访问内存数据的时候,首先将页号在快表中查询,如果查找到说明要访问的页表项在快表中,那么直接从快表中读取相应的物理块号;如果没有找到,那么访问内存中的页表,从页表中得到物理地址,同时将页表中的该映射表项添加到快表中(可能存在快表换出算法)。

在某些计算机中如果内存的逻辑地址很大,将会导致程序的页表项会很多,而页表在内存中是连续存放的,所以相应的就需要较大的连续内存空间。为了解决这个问题,可以采用两级页表或者多级页表的方法,其中外层页表一次性调入内存且连续存放,内层页表离散存放。相应的访问内存页表的时候需要一次地址变换,访问逻辑地址对应的物理地址的时候也需要一次地址变换,而且一共需要访问内存3次才可以读取一次数据。

12.基本分段存储管理

分页是为了提高内存利用率,而分段是为满足程序员在编写代码的时候的一些逻辑需求(比如数据共享,数据保护,动态链接等)。

分段内存管理当中,地址是二维的,一维是段号,一维是段内地址;其中每个段的长度是不一样的,而且每个段内部都是从0开始编址的。由于分段管理中,每个段内部是连续内存分配,但是段和段之间是离散分配的,因此也存在一个逻辑地址到物理地址的映射关系,相应的就是段表机制。段表中的每一个表项记录了该段在内存中的起始地址和该段的长度。段表可以放在内存中也可以放在寄存器中。

Operating system heavy and difficult interview summary

访问内存的时候根据段号和段表项的长度计算当前访问段在段表中的位置,然后访问段表,得到该段的物理地址,根据该物理地址以及段内偏移量就可以得到需要访问的内存。由于也是两次内存访问,所以分段管理中同样引入了联想寄存器。

分段分页方式的比较

页是信息的物理单位,是出于系统内存利用率的角度提出的离散分配机制;段是信息的逻辑单位,每个段含有一组意义完整的信息,是出于用户角度提出的内存管理机制

页的大小是固定的,由系统决定;段的大小是不确定的,由用户决定

13.虚拟内存

如果存在一个程序,所需内存空间超过了计算机可以提供的实际内存,那么由于该程序无法装入内存所以也就无法运行。单纯的增加物理内存只能解决一部分问题,但是仍然会出现无法装入单个或者无法同时装入多个程序的问题。但是可以从逻辑的角度扩充内存容量,即可解决上述两种问题。

基于局部性原理,在程序装入时,可以将程序的一部分装入内存,而将其余部分留在外存,就可以启动程序执行。在程序执行过程中,当所访问的信息不在内存时,由操作系统将所需要的部分调入内存,然后继续执行程序。另一方面,操作系统将内存中暂时不使用的内容换出到外存上,从而腾出空间存放将要调入内存的信息。这样,系统好像为用户提供了一个比实际内存大得多的存储器,称为虚拟存储器。

虚拟存储器的特征:

  1. 多次性:一个作业可以分多次被调入内存。多次性是虚拟存储特有的属性
  2. 对换性:作业运行过程中存在换进换出的过程(换出暂时不用的数据换入需要的数据)
  3. 虚拟性:虚拟性体现在其从逻辑上扩充了内存的容量(可以运行实际内存需求比物理内存大的应用程序)。虚拟性是虚拟存储器的最重要特征也是其最终目标。虚拟性建立在多次性和对换性的基础上行,多次性和对换性又建立在离散分配的基础上

14.页面置换算法

最佳置换算法OPT:只具有理论意义的算法,用来评价其他页面置换算法。置换策略是将当前页面中在未来最长时间内不会被访问的页置换出去。

先进先出置换算法FIFO:简单粗暴的一种置换算法,没有考虑页面访问频率信息。每次淘汰最早调入的页面。

最近最久未使用算法LRU:算法赋予每个页面一个访问字段,用来记录上次页面被访问到现在所经历的时间t,每次置换的时候把t值最大的页面置换出去(实现方面可以采用寄存器或者栈的方式实现)。

Clock algorithm clock (also known as non-recently used algorithm NRU): Page Setup visit a bit, and pages that link to a circular queue, when the page is accessed access bit is set to 1. Page replacement time, if the current pointer page views is to 0, the replacement, otherwise it is set to 0, the cycle until it encounters a visit to bit 0 of the page.

Improved Clock Algorithm: Adding a modified bit algorithm on the basis of the Clock, access the final analysis bit and modified bit when replacing comprehensive judgments. Replace priority access and modify bit is bit 0 of the page, followed by the access bit is 0 to page 1 of the modified bit.

Least Recently Used algorithm LFU: setting register records the number of times the page is visited, every permutation when the replacement of the current visits the least.

Belady phenomenon

It stands to reason that the more a process is allocated physical page, the number of page faults that should be less. But there are also missing but increased the number of pages of the phenomenon.

  • phenomenon

            When using FIFO algorithms, the number of physical pages that may arise distribution increases, the number of anomalies missing page but elevated.

  • the reason

             Dynamic characteristics contradiction FIFO replacement algorithm features and processes to access memory

            It is replaced by a page out is not necessarily a process not the recent visit

Reproduced in: https: //my.oschina.net/u/1186503/blog/1632610

Guess you like

Origin blog.csdn.net/choy9999/article/details/100591118