一種名為NeuRRAM的節(jié)能芯片修復(fù)了一個舊有的計算機設(shè)計缺陷,可在較小的設(shè)備上運行大規(guī)模的人工智能算法,達(dá)到與相當(dāng)耗能的數(shù)字計算機同樣的精度。
數(shù)字計算與神經(jīng)形態(tài)計算糾纏在一起的解決方案
我們許多人知道,人工智能近年來得到長足的發(fā)展,取得越來愈廣泛的應(yīng)用。但是,有個發(fā)展的瓶頸,那就是人工智能算法不可能以其目前的速度繼續(xù)增長。像深度神經(jīng)網(wǎng)絡(luò)這樣的算法,它受到大腦的啟發(fā),多層人工神經(jīng)元通過稱為權(quán)重的數(shù)值相互連接,其規(guī)模在日益龐大。如今,硬件的改進(jìn)已經(jīng)跟不上運行這些大規(guī)模算法所需的巨大內(nèi)存和處理能力的步伐。
而且,即使可以不斷擴大硬件規(guī)模以滿足人工智能的需求,還有一個問題是:在傳統(tǒng)計算機上運行會浪費大量的能源。運行大型人工智能算法所產(chǎn)生的高碳排放已經(jīng)對環(huán)境造成有害影響,而且隨著算法的日益龐大,情況只會變得更糟。
一種被稱為神經(jīng)形態(tài)計算的解決方案,從生物大腦中獲得靈感,創(chuàng)造出節(jié)能的設(shè)計。這些芯片可以在節(jié)約能源方面超過數(shù)字計算機,但問題是:缺乏運行一個相當(dāng)大的深度神經(jīng)網(wǎng)絡(luò)所需的計算能力。所以這個神經(jīng)形態(tài)計算的解決方案在提出后一直沒有受到重視。
這種情況在今年8月發(fā)生了顯著變化,發(fā)表在《自然》雜志上的論文中,一個由斯坦福大學(xué)領(lǐng)導(dǎo)的國際研究團(tuán)隊揭示了一種新的神經(jīng)形態(tài)芯片,其計算能力超過了數(shù)字計算機:
論文第一作者、萬偉爾(Weier Wan)畢業(yè)于斯坦福大學(xué),博士期間師從論文資深作者、斯坦福大學(xué)黃漢森(H.-S. Philip Wong)教授,和論文資深作者、加州大學(xué)圣地亞哥分校格特·考文伯格 (Gert Cauwenberghs))教授。
黃漢森教授于2004年加入斯坦福大學(xué)擔(dān)任電氣工程教授。從1988年到2004年,在 IBM T.J. 沃森研究中心從事研究。 從2018年到2020年,他從斯坦福大學(xué)休假,在全球最大的半導(dǎo)體代工廠臺積電擔(dān)任研究副總裁,自2020年起繼續(xù)擔(dān)任臺積電首席科學(xué)家。
這篇論文描述了一款名為“NeuRRAM”的AI芯片,這款芯片采用了基于阻變式存儲器(Resistive RAM,RRAM)的“存算一體”架構(gòu)來減少數(shù)據(jù)流動。它在支持多種人工智能應(yīng)用的同時,大幅提升了能效,使得在邊緣設(shè)備中實現(xiàn)復(fù)雜的人工智能任務(wù)成為可能。
這種新型的神經(jīng)形態(tài)芯片包含300萬個存儲單元和數(shù)千個內(nèi)置在其硬件中的神經(jīng)元,以運行算法。該研究的阻變存儲器與以前的不同,NeuRRAM被編程為以模擬方式運行,以節(jié)省更多的能源和空間。雖然數(shù)字存儲器是二進(jìn)制的,存儲1或0,但NeuRRAM芯片中的模擬存儲器單元可以沿著一個完全連續(xù)的范圍存儲多個值。這使得該芯片能夠在相同的芯片空間內(nèi)存儲來自大規(guī)模人工智能算法的更多信息。
因此,在圖像和語音識別等復(fù)雜的人工智能任務(wù)上,這種新芯片的性能不亞于數(shù)字計算機,該研究聲稱它的能效高達(dá)1000倍,這為微型芯片在以前不適合人工智能的小型設(shè)備,如智能手表和手機中運行越來越復(fù)雜而高級的運算提供了可能性。
學(xué)界評論這一研究成果說:"這篇論文相當(dāng)獨特。它在不同的層面做出了貢獻(xiàn):在設(shè)備層面、在電路架構(gòu)層面、以及在算法層面。"
創(chuàng)造新的記憶
在數(shù)字計算機中,當(dāng)運行人工智能算法時浪費的大量能量是由一個簡單而普遍存在的設(shè)計缺陷造成的,它使每一次計算都變得低效。通常情況下,計算機的內(nèi)存,即保存計算過程中的數(shù)據(jù)和數(shù)值,被放置在遠(yuǎn)離處理器的主板上,而處理器是進(jìn)行計算的地方。
最近從斯坦福轉(zhuǎn)到了人工智能物聯(lián)網(wǎng)( (AIoT) )公司Aizip的萬偉爾解釋說,對于流經(jīng)處理器的信息來說,"這有點像你花了8個小時的通勤時間,但你卻做了2個小時的工作。"
NeuRRAM芯片可以在其內(nèi)存中運行計算,它在內(nèi)存中存儲的數(shù)據(jù)不是傳統(tǒng)的二進(jìn)制數(shù)字,而是模擬光譜。
用新的一體式芯片來解決這個問題,把內(nèi)存和計算放在同一個地方,方式很直接。它也更接近我們的大腦可能處理信息的方式,許多神經(jīng)科學(xué)家認(rèn)為我們大腦的計算是發(fā)生在神經(jīng)元群中,而記憶是在神經(jīng)元之間的突觸加強或減弱其連接時形成的。但問題是:開發(fā)這種設(shè)備絕非易事,因為目前的記憶形式與處理器中的技術(shù)不兼容。
幾十年前,計算機科學(xué)家們開發(fā)了這種創(chuàng)造新芯片的材料,這些芯片在存儲內(nèi)存的地方進(jìn)行計算,這種技術(shù)被稱為內(nèi)存計算(compute-in-memory)。鑒于傳統(tǒng)的數(shù)字計算機性能還非常好,這些想法幾十年來被忽視了。
1964年,斯坦福大學(xué)的研究人員發(fā)現(xiàn)他們可以操縱某些被稱為金屬氧化物的材料,以打開和關(guān)閉其導(dǎo)電能力。這很重要,因為材料在兩種狀態(tài)之間切換的能力為傳統(tǒng)的記憶存儲提供了支柱。通常,在數(shù)字存儲器中,高電壓狀態(tài)對應(yīng)于1,而低電壓對應(yīng)于0。
為了讓阻變式存儲器切換狀態(tài),需要在連接到金屬氧化物兩端的金屬電極上施加一個電壓。通常情況下,金屬氧化物是絕緣體,這意味著它們不導(dǎo)電。但是,如果有足夠的電壓,電流就會積累起來,最終穿過材料的薄弱點,形成一條通往另一側(cè)電極的路徑。一旦電流突破,它就可以沿著該路徑自由流動。
黃教授解釋說,這個過程猶如閃電。當(dāng)云層中積累了足夠的電荷時,它很快就會找到一條低電阻的路徑,然后閃電就會出現(xiàn)。但與閃電不同的是,閃電的路徑會消失,而通過金屬氧化物的路徑仍然存在,這意味著它可以無限期地保持導(dǎo)電。而且有可能通過對材料施加另一個電壓來擦除導(dǎo)電路徑。因此,可以在兩種狀態(tài)之間切換阻變式存儲器,并使用它們來存儲數(shù)字存儲器。
人工智能內(nèi)存中的計算芯片
十多年來,像黃漢森這樣的研究人員一直致力于建立阻變式存儲器技術(shù),使其能夠可靠地處理高功率的計算任務(wù)。大約在2015年,計算機科學(xué)家開始認(rèn)識到這些節(jié)能設(shè)備在大型人工智能算法方面的巨大潛力,而這些算法正開始起飛。那一年,加州大學(xué)圣巴巴拉分校的科學(xué)家們表明,阻變式存儲器可以做的不僅僅是以一種新的方式存儲內(nèi)存,還可以自己執(zhí)行基本的計算任務(wù),包括在神經(jīng)網(wǎng)絡(luò)的人工神經(jīng)元內(nèi)發(fā)生的絕大多數(shù)計算,這些計算是簡單的矩陣乘法任務(wù)。
在NeuRRAM芯片中,硅神經(jīng)元被內(nèi)置到硬件中,而阻變式存儲單元存儲權(quán)重代表神經(jīng)元之間連接強度的值。而且,由于NeuRRAM存儲單元是模擬的,它們所存儲的權(quán)重代表了設(shè)備在低電阻狀態(tài)和高電阻狀態(tài)之間切換時發(fā)生的全部電阻狀態(tài)范圍。這使得能源效率甚至高于數(shù)字阻變式存儲所能達(dá)到的水平,因為這種芯片可以并行運行許多矩陣計算,而不是像數(shù)字處理版本那樣一個接一個地同步進(jìn)行。
但是,由于模擬處理仍然落后于數(shù)字處理幾十年,仍有許多問題需要解決。其中一個問題是,模擬阻變式存儲器芯片必須異常精確,因為物理芯片上的不完善會帶來變化和噪音。對于只有兩種狀態(tài)的傳統(tǒng)芯片來說,這些不完善的地方幾乎沒有那么重要。這使得模擬阻變式存儲器運行人工智能算法的難度大大增加,因為如果阻變式存儲器的導(dǎo)電狀態(tài)每次都不完全相同,那么識別圖像的準(zhǔn)確性將受到影響。
黃教授解釋說,"當(dāng)我們看一個照明路徑時,每次都是不同的,因此,作為一個結(jié)果,阻變式存儲器表現(xiàn)出一定程度的隨機性,每次你對它們進(jìn)行編程時都略有不同。" 黃的團(tuán)隊證明了阻變式存儲器可以存儲連續(xù)的人工智能權(quán)重,并且仍然像數(shù)字計算機一樣準(zhǔn)確。
黃漢森(左)和萬偉爾(右)幫助開發(fā)了一種新的計算機芯片,可以以前所未有的效率運行巨大的人工智能算法。
必須解決的另一個主要問題涉及支持多樣化神經(jīng)網(wǎng)絡(luò)所需的靈活性。在過去,芯片設(shè)計者不得不將微小的阻變式存儲器排在一個區(qū)域,緊挨著較大的硅神經(jīng)元。阻變式存儲器和神經(jīng)元是硬接線,沒有可編程性,所以計算只能在單一方向上進(jìn)行。為了支持雙向計算的神經(jīng)網(wǎng)絡(luò),額外的電線和電路是必要的,增加了能源和空間需求。
因此,黃的團(tuán)隊設(shè)計了一個新的芯片架構(gòu),其中阻變式存儲器和硅神經(jīng)元被混合在一起。這一設(shè)計上的小變化減少了總面積并節(jié)省了能源。
瑞士聯(lián)邦理工學(xué)院蘇黎世分校的神經(jīng)形態(tài)學(xué)科學(xué)家Melika Payvand評價說:"我認(rèn)為[這種安排]非常漂亮。""我絕對認(rèn)為這是一項開創(chuàng)性的工作。"
近年來,黃的團(tuán)隊與合作者合作,在NeuRRAM芯片上設(shè)計、制造、測試、校準(zhǔn)和運行AI算法。他們確實考慮過使用其他新興的存儲器類型,這些存儲器也可以用于內(nèi)存計算芯片,但阻變式存儲器具有優(yōu)勢,因為它在模擬編程方面具有優(yōu)勢,而且它相對容易與傳統(tǒng)計算材料集成。
學(xué)界評論說:他們最近的成果代表了第一個可以運行如此大型和復(fù)雜的人工智能算法的阻變式存儲器芯片,這一壯舉以前只在理論模擬中實現(xiàn)。""當(dāng)涉及到真正的硅時,這種能力沒有了。"這項工作是開創(chuàng)性的展示。""數(shù)字人工智能系統(tǒng)是靈活和精確的,但效率卻低了好幾個數(shù)量級?,F(xiàn)在,他們的靈活、精確和節(jié)能的模擬阻變式存儲器芯片"首次彌補了這一差距"。
擴展規(guī)模
該團(tuán)隊的設(shè)計保持了NeuRRAM芯片的微小,只有指甲蓋大小,同時包含了300萬個可作為模擬處理器的阻變式存儲器。而且,雖然它至少可以像數(shù)字計算機那樣運行神經(jīng)網(wǎng)絡(luò),但該芯片也(而且是第一次)可以運行在不同方向上進(jìn)行計算的算法。這一芯片可以向阻變式存儲器陣列的行輸入電壓,并從列讀取輸出,這是阻變式存儲器芯片的標(biāo)準(zhǔn),但也可以從列向行逆向操作,因此可以用于以不同方向的數(shù)據(jù)流進(jìn)行操作的神經(jīng)網(wǎng)絡(luò)。
現(xiàn)在尺度是一個問題。目前最大的神經(jīng)網(wǎng)絡(luò)包含數(shù)十億的權(quán)重,而不是新芯片中的數(shù)百萬。黃漢森計劃通過將多個NeuRRAM芯片堆疊在一起來擴大規(guī)模。
在未來的設(shè)備中保持較低的能源成本,進(jìn)一步縮小其尺寸,也同樣重要。實現(xiàn)這一目標(biāo)的方法之一是更緊密地模擬大腦,采用真正的神經(jīng)元之間使用的通信信號:電脈沖。當(dāng)細(xì)胞內(nèi)外的電壓差達(dá)到一個臨界閾值時,它是由一個神經(jīng)元向另一個神經(jīng)元發(fā)射的信號。
就目前而言,該團(tuán)隊在NeuRRAM芯片上運行大型人工智能算法時所完成的能源效率創(chuàng)造了新的希望,即內(nèi)存技術(shù)可能代表人工智能計算的未來。也許有一天,甚至能夠與人類大腦的860億個神經(jīng)元和連接它們的數(shù)萬億個突觸相媲美,而又相當(dāng)節(jié)能。
訪談
更多做行業(yè)賦能者 HID迎接數(shù)字化浪潮新機遇 破解新挑戰(zhàn)
今年3月份,全球可信身份解決方案提供商HID發(fā)布了最新的《安防行業(yè)現(xiàn)狀報告》(以下簡稱“報告”),該報告…
數(shù)字化浪潮下,安防廠商如何滿足行業(yè)客戶的定制化需求?
回顧近兩年,受疫情因素影響,包括安防在內(nèi)的諸多行業(yè)領(lǐng)域都遭受了來自市場 “不確定性”因素的沖擊,市場…
博思高鄧紹昌:乘產(chǎn)品創(chuàng)新及客戶服務(wù)之舟,在市場變革中逆風(fēng)飛揚
11月24日,由慧聰物聯(lián)網(wǎng)、慧聰安防網(wǎng)、慧聰電子網(wǎng)主辦的2022(第十九屆)中國物聯(lián)網(wǎng)產(chǎn)業(yè)大會暨品牌盛會,在深…