在近日 Nature Electronics 期刊上發(fā)表的一篇論文中,IBM 研究人員描述了這種新的 “混合精度內(nèi)存計算” 方法。
根據(jù)IBM Research 的說法,這種內(nèi)存計算新方法,可以為微軟和谷歌尋求的高性能和機器學習應用的硬件加速器提供答案。該方法被稱為“混合精度內(nèi)存計算”。
據(jù) IBM 稱,這種被稱為 “馮·諾依曼” 的體系結(jié)構(gòu)設(shè)計,為數(shù)據(jù)分析和機器學習應用制造了一個瓶頸,這些應用需要在處理單元和內(nèi)存單元之間進行更大的數(shù)據(jù)傳輸,傳輸數(shù)據(jù)也是一個耗能的過程。
為應對這一挑戰(zhàn),IBM 給出的一種方法是模擬相變內(nèi)存(PCM)芯片,該芯片目前還處于原型階段,500 萬個納米級 PCM 器件組成 500×2000 交叉陣列。
據(jù) IBM 稱,研究表明在某些情況下,其 PCM 芯片能夠以模擬的方式進行操作,執(zhí)行計算任務(wù),并提供與 4 位 FPGA 存儲器芯片相當?shù)臏蚀_度,但能耗降低了 80 倍。
模擬 PCM 硬件并不適合高精度計算。所幸的是,數(shù)字型 CPU 和 GPU 是適合的,IBM 認為混合架構(gòu)可以實現(xiàn)更高性能、更高效率和更高精度的平衡。這種設(shè)計將大部分處理留給內(nèi)存,然后將較輕的負載交給 CPU 進行一系列的精度修正。
根據(jù) IBM 蘇黎世實驗室的電氣工程師、也是該論文的主要作者 Manuel Le Gallo 稱,這種設(shè)計有助于云中的認知計算,有助于釋放對高性能計算機的訪問。