控制器
是整个计算机的中枢神经,其功能是对程序规定的控制信息进行解释,根据其要求进行控制,调度程序,数据,地址,协调计算机各部分工作及内存与外设的访问等。
运算器
运算器的功能是对数据进行各种算术逻辑运算,即对数据进行加工处理
存储器
存储程序,数据和各种信号,命令等信息,并在需要时提供这些信息
输入
输入设备和输出设备合称为外部设备,简称外设。输入设备的作用是将程序,原始数据,文字,字符,控制命令或现场采集的数据等信息输入到计算机。常见的输入设备有键盘,鼠标,磁盘等
输出
把计算机的中间结构或最后结构,机内的各种数据符号及文字或各种控制信号等信息输出出来。
冯洛伊曼计算机模型
上面的模型是一个理论的抽象简化模型,它的具体应用就是现代计算机当中的硬件结构设计
CPU内部结构
控制单元
控制单元是整个CPU的控制中心,由指令寄存器IR,指令译码器ID和操作控制权OC等组成,对协调整个电脑有序工作极为重要。它根据用户预先编译好的程序,依次从存储器中取出各条指令,放在寄存器IR中,通过指令译码(分析)确定应该进行什么操作,然后通过操作控制权OC,按确定的时序,向响应的部件发出微操作控制信号。操作控制器OC中主要包括:节拍脉冲发生器,控制矩阵,时钟脉冲发生器,复位电路和启停电路等控制逻辑
运算单元
运算单元是运算器的核心。可以执行算术运算(包括加减乘除等基本运算以及附加运算)和逻辑运算(包括移位,逻辑测试或两个值比较)。相对控制单元而言,运算器接受控制单元的命令而进行动作,即运算单元所进行的全部操作都是由控制单元发出的控制信号来指挥的,所以它是执行部件。
存储单元
存储单元包括CPU片内缓存Cache和寄存器组,是CPU中暂时存放数据的地方,里面保存着哪些等待处理的数据,或以及处理过的数据,CPU访问寄存器所用的时间要比访问内存的时间短。寄存器是CPU内部的元件,寄存器拥有非常高的读写速度,所以在寄存器之间的数据传送非常快。采用寄存器,可以减少CPU访问内存的次数,从而提高CPU的工作速度。寄存器组可以分为专用寄存器和通用寄存器。专用寄存器的作用是固定的,分别寄存相应的数据。而通用寄存器用途广泛并可由程序员规定其用途。
下表列出了CPU关键技术发展历程以及代表系列,每一个关键技术的诞生都是环环相扣的,处理器这些技术发展历程都围绕着如何不然CPU闲下来这一核心目标展开
现代CPU为了提高执行效率,减少CPU与内存的交互(交互影响CPU效率),一般在CPU上集成了多级缓存架构,常见的为三级缓存架构
L1 Cache
分为数据缓存和指令缓存,逻辑核独占
L2 Cache
物理核独占,逻辑核共享
L3 Cache
所有物理核共享
存储器存储空间大小: 内存>L3>L2>L3>寄存器
存储速度快慢排序:寄存器>L1>L2>L3>内存
还有一点值得注意的是:缓存是由最小的存储区块---缓存行(cacheline)组成,缓存行大小通常为64KB
缓存行是什么意思呢?
比如你的L1缓存大小为512KB,而cacheline=64byte,那么L1里面就有有512 * 1024/64个 cacheline
CPU在摩尔定律的指导下以每18个月翻一番的速度在发展,然而内存和硬盘的发展速度远远不及CPU。这就赵成了高性能的内存和缓慢的硬盘。然而CPU的高速运算需要高速的速度。为了解决这个问题,CPU厂商在CPU中内置了少量的高速缓存以解决I/O速度和PCU运算速度之间的不匹配问题。在CPU访问存储设备时,无论存取数据或是存取指令,都趋于聚集在一片连续的区域中,这就被称为局部性原理。
如果一个信息项正在被访问,那么近期它很可能还会被再次访问。比如循环,递归,方法的反复调用等。
如果一个存储器的位置被引用,那么将来它附近的位置也会被引用。比如顺序执行的代码,连续创建的两个对象,数组等。
CPU有4个运行级别,分别为
ring0, ring1, ring2, ring3
Linux与Windows只用到了2个级别:ring0,ring3,操作系统内部程序指令通常运行在ring0级别,操作系统以外的第三方程序运行在ring3级别,第三方程序如果要调用操作系统内部函数功能,由于运行安全级别不够,必须切换CPU运行状态,从ring3切换到ring0,然后执行系统函数,所以为什么JVM创建线程,线程阻塞是重操作了,因为CPU要切换运行状态。
JVM创建线程CPU的工作过程:
操作系统有用户空间和内核空间两个概念,目的是为了做到程序运行安全隔离和稳定,以32位操作系统4G大小的内存空间为例
Linux为内核代码和数据结构预留了几个页框,这些页永远不会被转出到磁盘上。从0x00000000到0xc0000000(PAGE_OFFSET)的线性地址可由用户代码和内核代码进行引用(即用户空间)。从0xc0000000(PAGE_OFFSET)到OXFFFFFFFF的线性地址只能由内核代码进行访问(即内核空间)。内核代码及其数据结构都必须位于这1GB的地址空间中,但是对于此空间而言,更大的消费者是物理地址的虚拟映射。
这意味着在4GB的内存空间中,只有3GB可以用于用户应用程序。进程与线程只能运行在用户方式(usermode)或内核方式(kernel momory)下。用户程序运行在用户方式下,而系统调用运行在内核方式下。在这两种方式下所用的堆栈不一样。用户方式下用的是一般的堆栈(用户空间的堆栈),而内核方式下用的是固定大小的堆栈(内核空间的堆栈,一般为一个内存页的大小),即每个进程和线程其实是两个堆栈,分别运行在用户态和内核态。
由空间划分我们在引深以下,CPU调度的基本单位是线程,也划分为
1. 内核线程模型(KLT) 2. 用户线程模型(ULT)
内核线程(KLT):系统内核管理线程(KLT),内核保存线程的状态和上下文信息,线程阻塞不会引起进程阻塞。在多处理系统上,多线程在多处理器上并行运行。线程的创建,调度和管理由内核完成,效率比ULT要慢,比进程操作快。
用户线程(ULT):用户程序实现,不依赖操作系统核心,应用提供创建,同步,调度和管理线程的函数来控制用户线程。不需要用户态/内核态切换,速度快。内核对ULT无感知,线程阻塞则进程阻塞(包括它的所有线程)
现代操作系统在运行一个程序时,会为其创建一个进程。例如,启动一个Java程序,系统就会创建一个Java进程。进程是OS(操作系统)资源分配的最小单位
线程是OS(操作系统)调度CPU的最小单元,也叫轻量级进程。在一个进程里可以创建多个线程,这些线程都拥有各自的计数器,堆栈和局部变量等属性,并且能访问共享的内存变量。CPU在这些进程上高速切换,让使用者感觉到这些线程在同时执行,即并发的盖帘。相似的概念还有并行。
线程上下文切换过程:
虚拟机指令集架构主要分为两种:
1. 栈指令集架构 2. 寄存器指令集脚骨
1. 设计和实现简单,适用于资源受限的系统 2. 避开了寄存器的分配难题,使用零地址指令方式分配 3. 指令流中的指令大部分是零指定地址,其执行过程依赖于操作栈,指令集更小,编译器容易实现 4. 不需要硬件支持,可移植性更好,更好实现跨平台
1. 典型的应用是x86的二进制指令集,比如传统的PC以及android的Davlik虚拟机 2. 指令集架构则完全依赖硬件,可移植性差 3. 性能优先和执行更高效 4. 花费更少的指令区完成一项操作 5. 在大部分情况下,基于寄存器架构的指令集往往都已一地址,二地址和三地址指令为主,而基于栈式架构的指令集则以零地址为主
Java符合典型的栈指令集架构特征