ChatGPT等人工智能的應用正在快速地改變我們的生活方式和信息處理的方法。由于神經(jīng)網(wǎng)絡深度學習依賴于大規(guī)模矩陣運算,對計算能量效率和速度有極高的要求。
目前大部分神經(jīng)網(wǎng)絡的計算都是在服務器進行。例如,當我們向ChatGPT(或者智能家電)提出問題時,設備需要幾秒鐘的時間才能做出響應。出現(xiàn)這種延遲的原因之一是聯(lián)網(wǎng)設備沒有足夠的內(nèi)存或電量來存儲和運行設備理解用戶要求所需的龐大機器學習模型。該模型存儲在可能位于數(shù)千公里外的數(shù)據(jù)中心,在那里計算答案并將其發(fā)送到設備。該延時雖不大,但限制了很多需要實時反饋的場景,如自動駕駛。
因此,麻省理工學院(MIT)的研究團隊基于集成硅光芯片,創(chuàng)造了一種直接在這些設備上進行計算的新方法(光學邊緣計算),從而大大減少了這種延遲。他們的技術將運行機器學習模型的內(nèi)存密集型步驟轉移到中央服務器,在中央服務器上模型的組件被編碼到光波上。使用光纖將波傳輸?shù)竭B接的設備,這使得大量數(shù)據(jù)能夠通過網(wǎng)絡以光帶寬(2.4TB/s)發(fā)送。然后接收器使用一個簡單的光學設備,該設備使用這些光波攜帶的模型部分快速執(zhí)行計算。
與其他方法相比,該技術可將能源效率提高一百倍以上。它還可以提高安全性,因為用戶的數(shù)據(jù)不需要傳輸?shù)街醒胛恢眠M行計算。這種方法可以使自動駕駛汽車實時做出決策,同時耗電量僅相當于計算機當前所需能量的1%。它還可以讓用戶與他們的智能家居設備進行無延遲對話,用于通過蜂窩網(wǎng)絡進行實時視頻處理,甚至可以在距離地球數(shù)百萬英里的航天器上實現(xiàn)高速圖像分類。
“每次你想運行一個神經(jīng)網(wǎng)絡,你都必須調(diào)用模型,你能以多快的速度運行這個程序取決于你能以多快的速度從內(nèi)存中輸入模型。我們的管道很大——相當于每毫秒左右通過互聯(lián)網(wǎng)發(fā)送一部完整的電影。這就是數(shù)據(jù)進入我們系統(tǒng)的速度。而且它的計算速度也可以這么快?!盡IT團隊負責人德克·英格倫教授(Dirk Englund)說。
邊緣計算(edge computing)是近年來人工智能芯片領域的熱門方向之一。這種運算模式把神經(jīng)網(wǎng)絡運行在智能終端處理器比如智能手機、自動駕駛汽車上,通過實現(xiàn)去中心化計算,可以大大增加用戶信息的安全性,同時減少數(shù)據(jù)中心的計算量,縮小數(shù)據(jù)處理的延時等。
谷歌推出的特種處理器芯片Edge TPU以及NVIDIA的EDX芯片等都是面向上述應用。然而,當電學芯片運算大規(guī)模權重矩陣時,其能量損耗和計算速度已經(jīng)達到瓶頸,這影響了智能邊緣設備的續(xù)航時間并會導致計算延時,進而增加智能終端的體積,重量和功率。麻省理工團隊的光學服務器-客戶端架構主要實現(xiàn)了:
(1)一個硅光集成芯片為基礎的“智能發(fā)射器”(smart transceiver)用于電-光轉換,通過波分復用把權重數(shù)據(jù)傳輸,用光纖傳到毫瓦級別的終端處理器,其中的數(shù)據(jù)傳送光學帶
寬達到2.4THz(48通道,50GHz每通道)。(2)他們把AI模型從MIT校園傳送到林肯實驗室(86千米)的終端做計算。(3)該架構實現(xiàn)了99%的圖像識別準確度。通過采用自制的光電積分器,乘法器的每次乘法運算低于一個光子數(shù)。
近日,相關論文以《在互聯(lián)網(wǎng)邊緣的單域光子深度學習》(Delocalized photonic deep learning on the internet's edge)為題發(fā)表在Science上。
亞歷克斯·斯拉德斯是第一作者,瑞安·哈默利和德克·英格倫教授擔任共同通訊作者,陳在俊為共同作者。
該研究始于2019年。陳在俊說:“Netcast是針對邊緣運算提出的光學解決方法,它能提供實時運算并減少能量負荷,可被用于邊緣運算的各個場景,包括智能傳感、蜂窩網(wǎng)絡通信、航空航天、智能家居等。實驗過程中有幾個標志性的里程碑?!?/p>
第一步,通過采用硅光芯片實現(xiàn)了高精確率的16波長的光學數(shù)據(jù)傳輸以及浮點數(shù)值乘法器,該計算精度在模擬計算里相對較高,可以滿足幾乎所有AI算法的需求。
第二步,他們把智能網(wǎng)絡通過光纖進行長距離(86千米)傳輸?shù)搅挚蠈嶒炇?,并保持同樣的計算精度。第三步,該團隊采用單光子計數(shù)器,在實驗里實現(xiàn)了平均低于一個光子數(shù)的乘法器。
另據(jù)悉,該項目得到進一步資助,目前MIT英格倫課題組和南加州大學陳在俊課題組正合作研發(fā)下一代高度集成的邊緣計算芯片。