计算机中常涉及到的名词解释和应用程序的执行原理

1:RISC和CISC的区别

RISC:(Reduced Instruction Set Computer)精简指令集

RISC的设计理念是由软件来完成具体任务,CPU本身只提供基本指令集,每条指令设计都比较简单,cpu完成每条指令的代价并不高。要完成复杂度较高的任务,就需要多条指令。因此CPU的设计和工艺变得简单起来,但是编译器设计的复杂性随之增加。RISC CPU的指令集中只有很少的指令,ARM的CPU指令只有30条左右,所以ARM汇编的学习比较简单。相对于CISC的指令,完成相同的工作,代码量就要比CISC大。

CISC:(Complex Instruction Set Computer)复杂指令集

CISC的设计理念是用最少的指令来完成任务,比如只需要一条MUL指令即可完成乘法运算。因此CISC的CPU本身设计复杂,工艺复杂,功耗很高,从而使编译器的设计相对简单,CISC出现较早,Intel至今还采用CISC设计,一般的CISC的CPU指令在300条左右。相对与RISC来说,CISC的每条指令对CPU来说都比较复杂,但是要完成相同的工作,它的代码量就要少一些,但是编译器也就比较轻松。

2:统一编址和独立编制

统一编址:CPU访问内存的方式都是一样的,都是按照地址总线的方式来访问内存。但是访问外设的方式却有两种,一种是和访问内存的方式一样,将外设的每个寄存器都映射到特定的地址上,然后与访问对应的内存其实就是在访问对应的设备寄存器。满足这种条件的编址方式叫做IO与内存统一编址。目前龙芯的mips架构的CPU就是这种统一编址的方式。

独立编址:独立编址和统一编址的差别就在于访问外设的方式是采用第二种方式,即采用特定的指令集来访问特定的外设寄存器。满足这样条件的CPU称之为IO与内存独立编址。如果记得没错,intel架构的CPU就是这种独立编址。

3:哈弗结构和冯诺依曼结构

冯诺依曼结构:早期的CPU都采用这种结构,这种结构的CPU的程序和数据都放在内存中,且彼此不分离。这种结构的最大缺点就是安全性较差,但是处理器设计比较简单。

哈弗结构:这种结构的CPU的程序和数据存放在内存的不同的块中,且彼此完全分离,安全性较高,但是软件处理相对比较复杂,需要统一规划链接地址。目前这种结构的计算机比较多。

4:内存与外存

内存:内存部存储器,用来存放运行的程序和数据。常见的内存有,RAM,DRAM(计算机的内存条)SRAM(嵌入式设备的内存),这里面SRAM属于静态存储器,在使用之前不许要初始化其控制器,上电即可使用。DRAM属于动态存储器,在使用前必须对器内部的控制器进行初始化,正常还要做内存训练。待参数稳定后才可使用。人们常说的内存一般指的就是电脑的内存条。其实内存的概念并不单单指内存条。

外存:外部存储器,常见的硬盘,U盘,SD卡,TF卡 Flash(NandFlash/NorFlash)都是常见的外部存储设备。

NorFlash:特点是容量小,价格高,优点是可以进行总线式访问,接到SROM bank,CPU上电后可以直接进行读取,一般用于启动介质。也就是电脑存放bios的芯片。

NandFlash:特点是容量大,价格低,缺点是不能进行总线式访问,CPU上电后不能直接读取,需要先运行一些必要的初始化程序,然后通过时序接口读写,分为SLC(成本高、容量小,可靠性强)和MLC(成本低、容量大、可靠性差,必须进行坏块检验)两种结构。

PC机:很小容量的BOIS(NorFlash)+很大容量的硬盘(类似于NandFlash)+大容量的DRAM(CPU上电后不能直接读取,需要进行软件初始化之后才能进行读些)

嵌入式设备:因为NorFlash价格较高,所以现在的嵌入式设备不倾向于使用NorFlash,一般是SOC内置SRAM+大容量的DRAM+大容量的Nand。

单片机:因为对内存的需求量不大,为了方便编程一般采用很小容量的NorFlash+很小容量的SRAM

5:CPU密集型和IO密集型

CPU密集型操作:这类操作指的是大量消耗CPU资源的任务,例如计算密集型任务,计算密集型任务的特点是要进行大量的计算,消耗CPU资源,比如计算圆周率、对视频进行高清解码等等,全靠CPU的运算能力。这种计算密集型任务虽然也可以用多任务完成,但是任务越多,花在任务切换的时间就越多,CPU执行任务的效率就越低,所以,要最高效地利用CPU,计算密集型任务同时进行的数量应当等于CPU的核心数。计算密集型任务由于主要消耗CPU资源,因此,代码运行效率至关重要。Python这样的脚本语言运行效率很低,完全不适合计算密集型任务。对于计算密集型任务,最好用C语言编写。

IO密集型操作:这类操作具体指IO密集型任务,例如涉及到网络、磁盘IO等任务都是IO密集型任务,这类任务的特点是CPU消耗很少,任务的大部分时间都在等待IO操作完成(因为IO的速度远远低于CPU和内存的速度)。对于IO密集型任务,任务越多,CPU效率越高,但也有一个限度。常见的大部分任务都是IO密集型任务,比如Web应用等。IO密集型任务执行期间,99%的时间都花在IO上,花在CPU上的时间很少,因此,用运行速度极快的C语言替换用Python这样运行速度极低的脚本语言,完全无法提升运行效率。对于IO密集型任务,最合适的语言就是开发效率最高(代码量最少)的语言,脚本语言是首选,C语言最差。

6:在linux系统中一个C程序编译后的格式和程序中的数据是如何存放的

下面看这样一段代码:

#include <stdio.h>
#include <stdlib.h>
#include <string.h>

int bss_var;
int data_var0 = 1;
int main()
{
    printf("Test location:\n");
    printf("\tAddress of main(Code Segment):%p\n",main);
    printf("_____________________________________\n");

    int stack_var0 = 2;
    printf("Stack location:\n");
    printf("\tInitial end of stack:%p\n",&stack_var0);
    int stack_var1 = 3;
    printf("\tNew end of stack:%p\n",&stack_var1);
    printf("_____________________________________\n");

    printf("Data location:\n");
    printf("\tAddress of data_var(Data Segment):%p\n",&data_var0);
    static int data_var1 = 4;
    printf("\tNew end of data_var(Data Segment):%p\n",&data_var1);
     printf("_____________________________________\n");

    printf("BSS location:\n");
    printf("\tAddress of bss_var:%p\n",&bss_var);
    printf("_____________________________________\n");
     printf("Heap location:\n");
    char *p = (char *)malloc(10);
    printf("\tAddress of head_var:%p\n",p);
    return 0;
}

写好之后,编译代码,gcc addr.c -o addr

然后使用size命令(size addr)会显示如下信息

text       data        bss        dec        hex    filename
   1918        528         24       2470        9a6    addr

上面的信息表明了代码段数据段和Bss段的大小

再用readelf -h 命令(readelf -h addr)会显示如下信息

ELF Header:
  Magic:   7f 45 4c 46 02 01 01 00 00 00 00 00 00 00 00 00
  Class:                             ELF64
  Data:                              2's complement, little endian
  Version:                           1 (current)
  OS/ABI:                            UNIX - System V
  ABI Version:                       0
  Type:                              EXEC (Executable file)
  Machine:                           Advanced Micro Devices X86-64
  Version:                           0x1
  Entry point address:               0x4004a0
  Start of program headers:          64 (bytes into file)
  Start of section headers:          4448 (bytes into file)
  Flags:                             0x0
  Size of this header:               64 (bytes)
  Size of program headers:           56 (bytes)
  Number of program headers:         9
  Size of section headers:           64 (bytes)
  Number of section headers:         30
  Section header string table index: 27

上面显示了elf的内容和格式,前面的四个字节7f 45 4c 46表示的是elf文件02表示64位对象,后面的01表示小端,再后面的01表示elf头的版本号,其余的都是0默认。Entry point address:表示程序的入口地址。其余的信息就不一一做解释了,如果想知道具体的含义去百度elf格式就好了。其实C语言程序在编译的时候生成的elf可执行文件是按照如下方式存放个个段的:

A、正文段也就是代码段。这是由cpu执行的机器指令部分。通常,正文段是可共享的,所以即使是经常执行的程序(如文本编辑程序、C编译程序、shell等)在存储器中也只需要有一个副本,另外,正文段常常是只读的,以防止程序由于意外事故而修改器自身的指令。

B、初始化数据段。通常将此段称为数据段,它包含了程序中需赋初值的全局变量和静态变量。例如,C程序中任何函数之外的说明:int maxcount = 99;(全局变量) static int a= 0;

C、非初始化数据段。通常将此段称为bss段,这一名称来源于早期汇编程序的一个操作,意思是"block started by symbol",在程序开始执行之前,内核将此段初始化为0。函数外的说明:long sum[1000];使此变量存放在非初始化数据段中。

D、栈。自动变量以及每次函数调用时所需保存的信息都存放在此段中。每次函数调用时,其返回地址、以及调用者的环境信息(例如某些机器寄存器)都存放在栈中。然后,新被调用的函数在栈上为其自动和临时变量分配存储空间。通过以这种方式使用栈,C函数可以递归调用。

E、堆。通常在堆中进行动态存储分配。由于历史上形成的惯例,堆位于非初始化数据段顶和栈底之间。

从上图我们看到栈空间是下增长的,堆空间是从下增长的,他们会会碰头呀?一般不会,因为他们之间间隔很大

所以执行上面的代码,其打印出来的个个段的值如下:

Test location:
    Address of main(Code Segment):0x400584
_____________________________________
Stack location:
    Initial end of stack:0x7fff12e42778
    New end of stack:0x7fff12e4277c
_____________________________________
Data location:
    Address of data_var(Data Segment):0x601030
    New end of data_var(Data Segment):0x601034
_____________________________________
BSS location:
    Address of bss_var:0x601048
_____________________________________
Heap location:
    Address of head_var:0x1d30010

这样便非常清晰的看出每种变量存放的地址了吧。

7:linux系统中一个应用程序是如何被执行的

以上面的例子为例,当执行命令./addr之后

内核会创建一个进程来执行这个应用程序。我们知道,linux操作系统每个进程的地址空间都是独立的,其实这里的独立说得是物理空间上得独立。进程可以使用相同的虚拟地址,这不奇怪,因为转换后的物理地址并非相同的。相同的虚拟地址为什么会转化到不同的物理地址空间呢?

在linux操作系统中,每个进程都通过一个task_struct的结构体描叙,每个进程的地址空间都通过一个mm_struct描叙,c语言中的每个段空间都通过vm_area_struct表示,他们关系如下 :

当一个程序被执行时,该程序的内容必须被放到进程的虚拟地址空间(注意,是虚拟地址空间),对于可执行程序的共享库也是如此。可执行程序并非真正读到物理内存中,而只是链接到进程的虚拟内存中(此时都是在进程的虚拟地址空间)。

当一个可执行程序映射到进程虚拟地址空间时,一组vm_area_struct数据结构将被产生。每个vm_area_struct数据结构表示可执行映象的一部分;是可执行代码,或是初始化的数据,以及未初始化的数据等。

linux操作系统是通过sys_exec对可执行文件进行映射以及读取的,有如下几步:

1、创建一组vm_area_struct;

2、圈定一个虚拟用户空间,将其起始结束地址(elf段中已设置好)保存到vm_start和vm_end中;

3、将磁盘file句柄保存在vm_file中;

4、将对应段在磁盘file中的偏移值(elf段中已设置好)保存在vm_pgoff中;

5、将操作该磁盘file的磁盘操作函数保存在vm_ops中;

注意:这里没有对应 的页目录表项创建页表,更不存在设置页表项了。

假设现在程序中有一条指令需要读取上面vm_start--vm_end之间的某内容

例如:mov [0x08000011],%eax,那么将会执行如下序列:

1、cpu依据CR3(current->pgd)找到0x08000011地址对应的pgd[i],由于该pgd[i]内容保持为初始化状态即为0,导致cpu异常。

2、.do_page_fault被调用,在该函数中,为pgd[i]在内存中分配一个页表,并让该表项指向它,如下图所示:

注意:这里i为0x08000011高10位,j为其中间10位,此时pt表项全部为0(pte[j]也为0);

3、为pte[j]分配一个真正的物理内存页面,依据vm_area_struct中的vm_file、vm_pgoff和vm_ops,调用filemap_nopage将磁盘file中vm_pgoff偏移处的内容读入到该物理页面中,如下图所示:

①分配物理内存页面;

②从磁盘文件中将内容读取到物理内存页面中

从上面我们可以知道,在进程创建的过程中,程序内容被映射到进程的虚拟内存空间,为了让一个很大的程序在有限的物理内存空间运行,我们可以把这个程序的开始部分先加载到物理内存空间运行,因为操作系统处理的是进程的虚拟地址,如果在进行虚拟到物理地址的转换工程中,发现物理地址不存在时,这个时候就会发生缺页异常(nopage),接着操作系统就会把磁盘上还没有加载到内存中的数据加载到物理内存中,对应的进程页表进行更新。也许你会问,如果此时物理内存满了,操作系统将如何处理?

如果一个进程想将一个虚拟页装入物理内存,而又没有可使用的空闲物理页,操作系统就必须淘汰物理内存中的其他页来为此页腾出空间。

在linux操作系统中,物理页的描叙如下:

struct mem_map

{

1、本页使用计数,当该页被许多进程共享时计数将大于1

2、age描叙本页的年龄,用来判断该页是否为淘汰或交换的好候选

3、map_nr描叙物理页的页帧号

}

如果从物理内存中被淘汰的页来自于一个映像或数据文件,并且还没有被写过,则该页不必保存,它可以丢掉。如果有进程在需要该页时就可以把它从映像或数据文件中取回内存。然而,如果该页被修改过,操作系统必须保留该页的内容以便晚些时候在被访问。这种页称为"脏(dirty)页",当它被从内存中删除时,将被保存在一个称为交换文件的特殊文件中。相对于处理器和物理内存的速度,访问交换文件要很长时间,操作系统必须在将页写到磁盘以及再次使用时取回内存的问题上花费心机。如果用来决定哪一页被淘汰或交换的算法不够高效的话,就可能出现称为"抖动"的情况。在这种情况下,页面总是被写到磁盘又读回来,操作系统忙于此而不能进行真正的工作。linux使用"最近最少使用(Least Recently Used ,LRU)"页面调度技巧来公平地选择哪个页可以从系统中删除。这种设计系统中每个页都有一个"年龄",年龄随页面被访问而改变。页面被访问越多它越年轻;被访问越少越老。年老的页是用于交换的最佳候选页。

猜你喜欢

转载自blog.csdn.net/Lq19880521/article/details/81144931