存算一体,未来已来?
“计算存储一体化”一词在近两三年被频频提起,“计算存储一体化突破AI算力瓶颈”更成为了今年阿里达摩院发布的“2020十大科技趋势”之一。计算、存储作为计算机的两项功能,到底为何近段时间被捆绑亮相并常常引发热议?
· 其实,人工智能面临计算与存储瓶颈。
正如趋势中提及的,“AI”的快速发展是促使这一热议话题形成的导火索,但这背后的根因,还要追溯到20世纪提出的冯·诺伊曼计算机架构……
基于经典的冯·诺伊曼计算机架构,计算与存储是两个完全区分的单元,分别由中央处理器(CPU)和存储器完成。因此在运算时,数据从存储单元读取到计算单元,运算后,再将结果写回存储单元。但是,“当运算能力达到一定程度,由于访问存储器的速度无法跟上运算部件消耗数据的速度,即使再增加运算部件也无法充分利用,从而形成所谓的冯·诺伊曼‘瓶颈’,或‘内存墙’问题。”
而仿照人脑的仿生系统被认为是 有可能颠覆现有技术的终极发展方向。因为人的大脑,正是一个典型的存储计算系统,网上有消息称,“ 先进的自然语言处理模型XLNet有约4亿模型参数,每次训练需要数百个深度学习加速器运算三天。而据估算人脑中细胞间互联轴突个数更是高达百万亿到千万亿数量级。”可见,人工智能和人脑之间还是有着巨大的差距。
而如今正处在大数据驱动的人工智能时代,AI运算中数据搬运更加频繁,“内存墙”这一矛盾更加凸显。AI要真正做到像人类一样聪明,需要先突破算力瓶颈。
· “近存储计算”、“计算存储一体化”……瓶颈正在被逐步突破。
为此,研究者投入了大量的精力来缩减差距,提升计算和存储能力,“近存储计算”、“计算存储一体化”的提出,正是每个阶段研究不断突破的见证。
近存储计算,简单来讲,就是将数据靠近计算单元,从而减少数据移动的延迟和功耗,多级存储架构和高密度片上存储是其主要实现方式。而在趋势预测中,未来将参照脑神经结构的“计算存储一体化”,是把数据存储单元和计算单元融合为一体,也就是将计算移到存储中,计算单元和存储单元集成在同一个芯片,数据不需要单独的运算部件来完成计算,在存储单元内即可完成运算,让存储单元具有计算能力。这样一来,可以显著减少其间的数据搬运,提高计算效率,助力突破AI算力瓶颈,成为下一代AI系统的“入场券”。
目前,已经有很多厂商和研究机构开始进入计算存储一体化领域,纷纷推出实验型架构。从目前的实现方式看,计算存储一体化分成了两个路线:基于成熟的易失性存储和不成熟的非易失性存储。
前者需要融合处理器和存储器,但现阶段处理器与存储器的制造工艺不同,如果要在处理器上实现存储器的功能,可能会降低存储器的存储密度;反之,在存储器上实现处理器的功能,则可能会影响处理器的运行速度,这个矛盾暂时无法得到很好的解决。后者基于不成熟的非易失性存储,有专家认为其具备对存储和计算的天然融合特定,是构建计算存储一体化的 佳器件,但是目前工艺均未成熟。
总体来看,提升存储和计算能力,一直是重要的建设方向。未来,计算存储趋于“合”之大势,不过真正实现、甚至广泛商用,仍需一段时日。且拭目以待!