半导体技术发展遭遇瓶颈,服务器如何加速?
扫描二维码
随时随地手机看文章
物联网被炒得沸沸扬扬,而物联网带来的数据爆增也不容忽视,伴随着数据的成千上万倍地增长,我们会发现数据中心的服务器承载的压力越来越大,用户对CPU的处理能力要求要来越高,服务器加速刻不容缓。
一般要确保数据有冗余的话,每一个大数据架构需要做3个备份,这样所带来的问题是用户需要准备3倍的存储空间,当没办法做在线备份的时候怎么办?有人说可以通过逻辑把硬盘所需要的使用率从3倍降到1.4倍,但是这样CPU的使用率会超过99%,因为CPU要处理逻辑运算。由此可见,这就没有冗余的CPU处理能力去做大数据分析了,我们怎么解决?这就是我们要鼓励第二代分布式计算的原因,我们能通过FPGA加速器进行加速,这样CPU主要是负责通用计算负载,FPGA技术负责大量的重复运算负载,从而把控制分开。
CPU与FPGA怎样跨界融合?它们在服务器加速过程中各自起到什么角色?怎样做到未来服务器的“少,快,好,省”?带着这些问题与非网记者参加了
当半导体技术发展遭遇瓶颈,服务器如何加速?
从计算机系统的发展可以看出,最初的计算机都是单任务计算,随着数据的增加逐步演进到多任务计算,因此系统中有多个CPU POWER,由于多个CPU POWER可以同时访问内存中的数据,所以首要解决的就是数据一致性问题,当一个POWER对一个数据进行操作了之后,另外一个POWER需要拿到正确的数据。在系统里面一般用硬件来保证数据的一致性,这样保证另外一个线程在读取数据的时候能拿到正确的数据,因此当计算机系统从一个单CPU系统进化到多CPU系统的时候,它的性能功耗比下降了很多,怎样提高CPU的性能并降低功耗成为很多用户的困惑。
IBM全球杰出工程师Bruce Wile解释,“随着互联网数据的增长,对于我们的系统来说,我们需要更强的硬件计算能力来处理更多的数据。一个解决的方案就是我们在一个CPU核上面开辟更多个硬件的线程,用这些线程来提高它的处理能力,来增加它对I/O过来的数据进行更好的处理,同时我们引入了GPU和FPGA,使用这些硬件来帮助我们的系统处理数据,但是传统上GPU和FPGA都是以I/O设备的形式挂载在这个系统上面,我们为了使用这些IO设备,需要工程师具有更多的技能,比如:编程人员需要学习硬件知识,我们需要懂内核的人为这些I/O设备进行驱动开发,同时由于它们是I/O设备,这些IO设备没有和CPU共享内存,所以需要内核代码帮助他们做数据传输。摆在我们面前的另外一个难题就是,半导体技术已经到了一个技术拐点,它的性价比不再持续增长,我们不能依赖于半导体技术的增长使我们的系统更快更强,我们需要从硬件还有它上面的固件、操作系统、设备应用等各个角度综合考虑,来寻求一个更好的解决方案。”