本篇文章2598字,读完约6分钟

实习记者在紫月

最近,美国普林斯顿大学的研究人员发表了一种新的计算机芯片,其运行速度是以前传说的芯片的100倍。 一家媒体表示,使用内存计算技术,大大提高了计算效率。

这个伟大的技术是什么? 为什么可以提高芯片的性能呢? 科技日报记者就此采访了相关专家。

高度整合,将计算和存储功能整合在一起

对我们常用的计算机来说,内存可以分为内部存储器和外部存储器。 内部存储器,即存储器是计算机的主存储器。 访问速度很快,但只能保存临时或少量的数据和步骤。

外部存储器一般被称为外部存储器,包括硬盘、软盘、光盘、USB存储器等,能够永久存储操作系统、应用等大量的数据。 程序运行后,解决方案( cpu )可以从内存中读取数据,将部分结果写入内存,将其余部分选择性写入外部内存,并永久保留。

快讯:让内存干CPU的活儿 这项技术将芯片运行速度提升百倍

也就是说,一般情况下,存储器只能存储少量的数据,计算机的大部分数据住在外部存储器中。 cpu运行程序时需要调用数据,如果调用存储在存储器中的数据,则调用居住在较少外部的数据,可能会费一些工夫。

因为这位科学家正在考虑能否将数据全部存储在存储器中。于是,存储器计算技术出现了。

存储器计算技术随着大数据解决技术的兴起而兴起。 在解决大数据的过程中,数据量非常大,因此在解决数据时频繁访问硬盘这一外部存储器会降低运算速度。 随着大容量内存技术的兴起,专家开始提出在初期阶段可以将数据全部加载到内存中,然后直接从内存中取出数据,再用解决方案进行计算。 这样可以省去外部内存和内存之间的数据获取/调用过程,从而大大提高计算速度。 北京航空航天大学计算机学院教授、中德联合软件研究所所长刘轶告诉科技日报记者。

快讯:让内存干CPU的活儿 这项技术将芯片运行速度提升百倍

但是,普林斯顿大学的研究开发小组使用的内存计算技术与上述概念中所说的内存计算完全不同。 刘轶说,普林斯顿大学使用的技术其实是PIM (进程内存),一般翻译为存储器计算存储器一体或计算存储器一体化。

pim技术是指直接在内存中解析数据,而不是将数据从内存读入解决方案中进行解析。 刘轶指出,pim的技术概念早在1990年就提出来了,相关研究论文已经发表,但相关技术难以落地。

刘轶认为难以落地的首要原因是pim技术难以达到以前流传下来的计算机冯·诺依曼结构的灵活性和通用性水平。 目前学术界提出的pim技术只能应用特定的类别,难以实现灵活的编程。 他说

解决存储墙问题,大幅提高性能

在刘轶见看来,pim技术的重要价值在于能够处理以前流传下来的计算机结构中存在的存储墙问题。 以前计算机使用的冯·诺依曼结构,需要cpu从内存中取出指令并同时执行,有些指令需要从内存中读取数据进行解决,然后将结果写回到内存中。 由于内存中存在求解器要运行的程序和要解析的数据,因此求解器在运行时必须经常访问内存。 随着微电子技术的迅速发展,解决方案性能的进步比内存性能要快。

快讯:让内存干CPU的活儿 这项技术将芯片运行速度提升百倍

在过去的30年中,解决方案的性能每年提高55%,内存访问速度每年仅提高7%。 这样,解决方案的解决速度大大快于内存的读取速度,直接出现了存储壁垒,大大减慢了程序的运行速度。

这个身体消化能力很强,餐桌上也有很多食物,但是这个身体的声音很细,咽不下去。 这浪费了强大的消化能力,也限制了这个身体吃饭的速度。 刘轶说

近年来深度学习等新算法的兴起,对推倒存储墙提出了更为紧迫的诉求。 刘轶指出,新算法访问存储器的模式与以前的传输模式不太一样,脸部笔刷、图像识别、机器翻译等新算法往往用类似人脑的方法实现了很多噪声数据的解决。 这种算法神经元数量多,训练样本量大,因此在通用计算机上的深度学习计算效率很低。

快讯:让内存干CPU的活儿 这项技术将芯片运行速度提升百倍

为了提高效率,科学家开发了各种加速部件和专用的深度学习解决方案。 前者的代表是图形解决方案( gpu ),后者的代表是谷歌企业的张量解决器( tpu )、国内的寒武纪解决器等。

cpu、gpu等解决方案通过总线与存储器连接,总线的传输速度决定着计算效率。 中国自动化学会混合智能专业委员会副主任、复旦大学计算机学院教授张军平告诉科技日报记者,人们正在通过改进,减少公交上数据的传输次数,提高计算效率。 例如,科学家使cpu具有一部分gpu功能,或使gpu具有一点cpu功能等。

快讯:让内存干CPU的活儿 这项技术将芯片运行速度提升百倍

刘轶表示,上述改进措施仍是冯·诺依曼结构,无法从根本上处理存储墙问题。 相比之下,pim技术在处理存储墙问题上更具特色。 首先,其计算模型适用于深度学习等新的计算模型。 其次,pim技术解决了冯·诺依曼结构解析器频繁访问存储器的问题,减少了数据传输次数,降低了功耗。

快讯:让内存干CPU的活儿 这项技术将芯片运行速度提升百倍

虽然有迅速发展的可能性,但不能代替通用解决方案

记者通过查阅资料发现,pim技术应用的最大难点是制造技术。

pim技术需要利用先进的半导体工艺将解决方案和存储器集成在同一芯片内,并通过片上互联网相互连接。 但是,当前的解决方案与内存的制造过程不同,因此,如果尝试在解决方案上实现内存功能,内存的存储密度可能会降低。 尝试在内存中实现解决方案的功能可能会影响解决方案的运行速度。

快讯:让内存干CPU的活儿 这项技术将芯片运行速度提升百倍

张军平指出,现阶段存储器本身没有计算功能。 这是因为为了实现内存计算和pim技术,需要重新设计内存。

普林斯顿大学不是专业的芯片企业,其新芯片只是技术上的探索,距离真正产业化的应用可能还有很长一段距离。 张军平认为,随着固态硬盘等技术的快速发展,如果硬盘读写速度相差无几,内存和外部存储器有可能整合为新的大容量高速存储器。 将来,希望cpu、gpu等多个解决方案实现与大容量·高速存储器一体化的高度整合。

快讯:让内存干CPU的活儿 这项技术将芯片运行速度提升百倍

刘轶强调,普林斯顿大学设计的这个解决方案是专用的解决方案,只比较深度学习应用,不能代替以前流传下来的通用解决方案。

华为、苹果等企业发布的高端手机似乎大多配置有深度学习解决方案,但只作为附属部件,核心计算和解决仍由通用解决方案完成,深度学习解决方案计算特定的任务和计算模块,并 刘轶说

短期内,pim技术只能用于特定类别的应用场景,不能代替通用解决方案。 刘轶认为,从长远来看,如果半导体材料和器件技术不能取得突破,集成电路的摩尔定律将在不久的将来失效。 也就是说,集成电路芯片内的晶体管数量将不再增加。 这将对以前流传下来的计算机系统结构,进而对计算机硬件和软件产业产生巨大的影响,由此也很可能引起巨大的技术变革。 随着新的计算结构的出现,高度集成的系统可能会越来越多地诉求于pim技术,但该技术是否会成为主流仍备受关注。

标题:快讯:让内存干CPU的活儿 这项技术将芯片运行速度提升百倍

地址:http://www.xunleidownload.com/xhxw/15118.html