服务器如何按体系结构分类?AI服务器与普通服务器有何区别?
扫描二维码
随时随地手机看文章
今天,小编将在这篇文章中为大家带来服务器的有关报道,通过阅读这篇文章,大家可以对服务器具备清晰的认识,主要内容如下。
一、服务器如何按体系结构分类
根据体系结构不同,服务器可以分成两大重要的类别:IA架构服务器和RISC架构服务器。
这种分类标准的主要依据是两种服务器采用的处理器体系结构不同。RISC架构服务器采用的CPU是所谓的精简指令集的处理器,精简指令集CPU的主要特点是采用定长指令,使用流水线执行指令,这样一个指令的处理可以分成几个阶段,处理器设置不同的处理单元执行指令的不同阶段,比如指令处理如果分成三个阶段,当第N条指令处在第三个处理阶段时,第N+1条指令将处在第二个处理阶段,第N+2条指令将处在第一个处理阶段。这种指令的流水线处理方式使得CPU有并行处理指令的能力,这使处理器能够在单位时间内处理更多的指令。IA架构的服务器采用的是CISC体系结构,即复杂指令集体系结构,这种体系结构的特点是指令较长,指令的功能较强,单个指令可执行的功能较多,这样我们可以通过增加运算单元,使一个指令所执行的功能能够同时并行执行来提高运算能力。长时间以来两种体系结构一直在相互竞争中成长,都取得了快速的发展。IA架构的服务器采用了开放体系结构,因而有了大量的硬件和软件的支持者,在近年有了长足的发展。
二、AI服务器与普通服务器的区别
通过上面的介绍,想必大家对服务器按体系结构的分类已经具备了初步的认识。在这部分,我们主要来了解一下人工智能AI服务器与普通服务器的区别。
从服务器的硬件架构来看,AI服务器是采用异构形式的服务器,在异构方式上可以根据应用的范围采用不同的组合方式,如CPU+GPU、CPU+TPU、CPU+其他的加速卡等。与普通的服务器相比较,在内存、存储、网络方面没有什么差别,主要在是大数据及云计算、人工智能等方面需要更大的内外存,满足各种数据的收集与整理。
我们都知道普通的服务器是以CPU为算力的提供者,采用的是串行架构,在逻辑计算、浮点型计算等方面很擅长。因为在进行逻辑判断时需要大量的分支跳转处理,使得CPU的结构复杂,而算力的提升主要依靠堆砌更多的核心数来实现。
但是在大数据、云计算、人工智能及物联网等网络技术的应用,充斥在互联网中的数据呈现几何倍数的增长,这对以CPU为主要算力来源的传统服务提出了严重的考验,并且在目前CPU的制程工艺、单个CPU的核心数已经接近极限,但数据的增加却还在持续,因此必须提升服务器的数据处理能力。因此在这种大环境下,AI服务器应运而生。
现在市面上的AI服务器普遍采用CPU+GPU的形式,因为GPU与CPU不同,采用的是并行计算的模式,擅长梳理密集型的数据运算,如图形渲染、机器学习等。在GPU上,NVIDIA具有明显优势,GPU的单卡核心数能达到近千个,如配置16颗NVIDIA Tesla V100 Tensor Core 32GB GPUs的核心数可过10240个,计算性能高达每秒2千万亿次。且经过市场这些年的发展,也都已经证实CPU+GPU的异构服务器在当前环境下确实能有很大的发展空间。
但是不可否认每一个产业从起步到成熟都需要经历很多的风雨,并且在这发展过程中,竞争是一直存在的,并且能推动产业的持续发展。AI服务器可以说是趋势,也可以说是异军崛起,但是AI服务器也还有一条较长的路要走。
以上就是小编这次想要和大家分享的内容,希望大家对本次分享的内容已经具有一定的了解。如果您想要看不同类别的文章,可以在网页顶部选择相应的频道哦。