一区二区三区A片|Av不卡高清网址|精品久久不卡一本|一区二区三区绿色|五月黄色婷婷久久|综合 另类 一区|亚洲成人VA视频|久久国产特黄大片|成人无码激情亚洲|黄色字幕网址大全

一種新型芯片:將進(jìn)一步拓展人工智能的發(fā)展

一種名為NeuRRAM的節(jié)能芯片修復(fù)了一個(gè)舊有的計(jì)算機(jī)設(shè)計(jì)缺陷,可在較小的設(shè)備上運(yùn)行大規(guī)模的人工智能算法,達(dá)到與相當(dāng)耗能的數(shù)字計(jì)算機(jī)同樣的精度。我們?cè)S多人知道,人工智能近年來得到長(zhǎng)足的發(fā)展,取得越來愈廣泛的應(yīng)用。但是,有個(gè)發(fā)展的瓶頸,那就是人工智能算法不可能以其目前的速度繼續(xù)增長(zhǎng)。

[an error occurred while processing the directive]

一種名為NeuRRAM的節(jié)能芯片修復(fù)了一個(gè)舊有的計(jì)算機(jī)設(shè)計(jì)缺陷,可在較小的設(shè)備上運(yùn)行大規(guī)模的人工智能算法,達(dá)到與相當(dāng)耗能的數(shù)字計(jì)算機(jī)同樣的精度。

數(shù)字計(jì)算與神經(jīng)形態(tài)計(jì)算糾纏在一起的解決方案

我們?cè)S多人知道,人工智能近年來得到長(zhǎng)足的發(fā)展,取得越來愈廣泛的應(yīng)用。但是,有個(gè)發(fā)展的瓶頸,那就是人工智能算法不可能以其目前的速度繼續(xù)增長(zhǎng)。像深度神經(jīng)網(wǎng)絡(luò)這樣的算法,它受到大腦的啟發(fā),多層人工神經(jīng)元通過稱為權(quán)重的數(shù)值相互連接,其規(guī)模在日益龐大。如今,硬件的改進(jìn)已經(jīng)跟不上運(yùn)行這些大規(guī)模算法所需的巨大內(nèi)存和處理能力的步伐。

而且,即使可以不斷擴(kuò)大硬件規(guī)模以滿足人工智能的需求,還有一個(gè)問題是:在傳統(tǒng)計(jì)算機(jī)上運(yùn)行會(huì)浪費(fèi)大量的能源。運(yùn)行大型人工智能算法所產(chǎn)生的高碳排放已經(jīng)對(duì)環(huán)境造成有害影響,而且隨著算法的日益龐大,情況只會(huì)變得更糟。

一種被稱為神經(jīng)形態(tài)計(jì)算的解決方案,從生物大腦中獲得靈感,創(chuàng)造出節(jié)能的設(shè)計(jì)。這些芯片可以在節(jié)約能源方面超過數(shù)字計(jì)算機(jī),但問題是:缺乏運(yùn)行一個(gè)相當(dāng)大的深度神經(jīng)網(wǎng)絡(luò)所需的計(jì)算能力。所以這個(gè)神經(jīng)形態(tài)計(jì)算的解決方案在提出后一直沒有受到重視。

這種情況在今年8月發(fā)生了顯著變化,發(fā)表在《自然》雜志上的論文中,一個(gè)由斯坦福大學(xué)領(lǐng)導(dǎo)的國(guó)際研究團(tuán)隊(duì)揭示了一種新的神經(jīng)形態(tài)芯片,其計(jì)算能力超過了數(shù)字計(jì)算機(jī):

論文第一作者、萬偉爾(Weier Wan)畢業(yè)于斯坦福大學(xué),博士期間師從論文資深作者、斯坦福大學(xué)黃漢森(H.-S. Philip Wong)教授,和論文資深作者、加州大學(xué)圣地亞哥分校格特·考文伯格 (Gert Cauwenberghs))教授。

黃漢森教授于2004年加入斯坦福大學(xué)擔(dān)任電氣工程教授。從1988年到2004年,在 IBM T.J. 沃森研究中心從事研究。 從2018年到2020年,他從斯坦福大學(xué)休假,在全球最大的半導(dǎo)體代工廠臺(tái)積電擔(dān)任研究副總裁,自2020年起繼續(xù)擔(dān)任臺(tái)積電首席科學(xué)家。

這篇論文描述了一款名為“NeuRRAM”的AI芯片,這款芯片采用了基于阻變式存儲(chǔ)器(Resistive RAM,RRAM)的“存算一體”架構(gòu)來減少數(shù)據(jù)流動(dòng)。它在支持多種人工智能應(yīng)用的同時(shí),大幅提升了能效,使得在邊緣設(shè)備中實(shí)現(xiàn)復(fù)雜的人工智能任務(wù)成為可能。

這種新型的神經(jīng)形態(tài)芯片包含300萬個(gè)存儲(chǔ)單元和數(shù)千個(gè)內(nèi)置在其硬件中的神經(jīng)元,以運(yùn)行算法。該研究的阻變存儲(chǔ)器與以前的不同,NeuRRAM被編程為以模擬方式運(yùn)行,以節(jié)省更多的能源和空間。雖然數(shù)字存儲(chǔ)器是二進(jìn)制的,存儲(chǔ)1或0,但NeuRRAM芯片中的模擬存儲(chǔ)器單元可以沿著一個(gè)完全連續(xù)的范圍存儲(chǔ)多個(gè)值。這使得該芯片能夠在相同的芯片空間內(nèi)存儲(chǔ)來自大規(guī)模人工智能算法的更多信息。

因此,在圖像和語音識(shí)別等復(fù)雜的人工智能任務(wù)上,這種新芯片的性能不亞于數(shù)字計(jì)算機(jī),該研究聲稱它的能效高達(dá)1000倍,這為微型芯片在以前不適合人工智能的小型設(shè)備,如智能手表和手機(jī)中運(yùn)行越來越復(fù)雜而高級(jí)的運(yùn)算提供了可能性。

學(xué)界評(píng)論這一研究成果說:"這篇論文相當(dāng)獨(dú)特。它在不同的層面做出了貢獻(xiàn):在設(shè)備層面、在電路架構(gòu)層面、以及在算法層面。"

創(chuàng)造新的記憶

在數(shù)字計(jì)算機(jī)中,當(dāng)運(yùn)行人工智能算法時(shí)浪費(fèi)的大量能量是由一個(gè)簡(jiǎn)單而普遍存在的設(shè)計(jì)缺陷造成的,它使每一次計(jì)算都變得低效。通常情況下,計(jì)算機(jī)的內(nèi)存,即保存計(jì)算過程中的數(shù)據(jù)和數(shù)值,被放置在遠(yuǎn)離處理器的主板上,而處理器是進(jìn)行計(jì)算的地方。

最近從斯坦福轉(zhuǎn)到了人工智能物聯(lián)網(wǎng)( (AIoT) )公司Aizip的萬偉爾解釋說,對(duì)于流經(jīng)處理器的信息來說,"這有點(diǎn)像你花了8個(gè)小時(shí)的通勤時(shí)間,但你卻做了2個(gè)小時(shí)的工作。"

NeuRRAM芯片可以在其內(nèi)存中運(yùn)行計(jì)算,它在內(nèi)存中存儲(chǔ)的數(shù)據(jù)不是傳統(tǒng)的二進(jìn)制數(shù)字,而是模擬光譜。

用新的一體式芯片來解決這個(gè)問題,把內(nèi)存和計(jì)算放在同一個(gè)地方,方式很直接。它也更接近我們的大腦可能處理信息的方式,許多神經(jīng)科學(xué)家認(rèn)為我們大腦的計(jì)算是發(fā)生在神經(jīng)元群中,而記憶是在神經(jīng)元之間的突觸加強(qiáng)或減弱其連接時(shí)形成的。但問題是:開發(fā)這種設(shè)備絕非易事,因?yàn)槟壳暗挠洃浶问脚c處理器中的技術(shù)不兼容。

幾十年前,計(jì)算機(jī)科學(xué)家們開發(fā)了這種創(chuàng)造新芯片的材料,這些芯片在存儲(chǔ)內(nèi)存的地方進(jìn)行計(jì)算,這種技術(shù)被稱為內(nèi)存計(jì)算(compute-in-memory)。鑒于傳統(tǒng)的數(shù)字計(jì)算機(jī)性能還非常好,這些想法幾十年來被忽視了。

1964年,斯坦福大學(xué)的研究人員發(fā)現(xiàn)他們可以操縱某些被稱為金屬氧化物的材料,以打開和關(guān)閉其導(dǎo)電能力。這很重要,因?yàn)椴牧显趦煞N狀態(tài)之間切換的能力為傳統(tǒng)的記憶存儲(chǔ)提供了支柱。通常,在數(shù)字存儲(chǔ)器中,高電壓狀態(tài)對(duì)應(yīng)于1,而低電壓對(duì)應(yīng)于0。

為了讓阻變式存儲(chǔ)器切換狀態(tài),需要在連接到金屬氧化物兩端的金屬電極上施加一個(gè)電壓。通常情況下,金屬氧化物是絕緣體,這意味著它們不導(dǎo)電。但是,如果有足夠的電壓,電流就會(huì)積累起來,最終穿過材料的薄弱點(diǎn),形成一條通往另一側(cè)電極的路徑。一旦電流突破,它就可以沿著該路徑自由流動(dòng)。

黃教授解釋說,這個(gè)過程猶如閃電。當(dāng)云層中積累了足夠的電荷時(shí),它很快就會(huì)找到一條低電阻的路徑,然后閃電就會(huì)出現(xiàn)。但與閃電不同的是,閃電的路徑會(huì)消失,而通過金屬氧化物的路徑仍然存在,這意味著它可以無限期地保持導(dǎo)電。而且有可能通過對(duì)材料施加另一個(gè)電壓來擦除導(dǎo)電路徑。因此,可以在兩種狀態(tài)之間切換阻變式存儲(chǔ)器,并使用它們來存儲(chǔ)數(shù)字存儲(chǔ)器。

人工智能內(nèi)存中的計(jì)算芯片

十多年來,像黃漢森這樣的研究人員一直致力于建立阻變式存儲(chǔ)器技術(shù),使其能夠可靠地處理高功率的計(jì)算任務(wù)。大約在2015年,計(jì)算機(jī)科學(xué)家開始認(rèn)識(shí)到這些節(jié)能設(shè)備在大型人工智能算法方面的巨大潛力,而這些算法正開始起飛。那一年,加州大學(xué)圣巴巴拉分校的科學(xué)家們表明,阻變式存儲(chǔ)器可以做的不僅僅是以一種新的方式存儲(chǔ)內(nèi)存,還可以自己執(zhí)行基本的計(jì)算任務(wù),包括在神經(jīng)網(wǎng)絡(luò)的人工神經(jīng)元內(nèi)發(fā)生的絕大多數(shù)計(jì)算,這些計(jì)算是簡(jiǎn)單的矩陣乘法任務(wù)。

在NeuRRAM芯片中,硅神經(jīng)元被內(nèi)置到硬件中,而阻變式存儲(chǔ)單元存儲(chǔ)權(quán)重代表神經(jīng)元之間連接強(qiáng)度的值。而且,由于NeuRRAM存儲(chǔ)單元是模擬的,它們所存儲(chǔ)的權(quán)重代表了設(shè)備在低電阻狀態(tài)和高電阻狀態(tài)之間切換時(shí)發(fā)生的全部電阻狀態(tài)范圍。這使得能源效率甚至高于數(shù)字阻變式存儲(chǔ)所能達(dá)到的水平,因?yàn)檫@種芯片可以并行運(yùn)行許多矩陣計(jì)算,而不是像數(shù)字處理版本那樣一個(gè)接一個(gè)地同步進(jìn)行。

但是,由于模擬處理仍然落后于數(shù)字處理幾十年,仍有許多問題需要解決。其中一個(gè)問題是,模擬阻變式存儲(chǔ)器芯片必須異常精確,因?yàn)槲锢硇酒系牟煌晟茣?huì)帶來變化和噪音。對(duì)于只有兩種狀態(tài)的傳統(tǒng)芯片來說,這些不完善的地方幾乎沒有那么重要。這使得模擬阻變式存儲(chǔ)器運(yùn)行人工智能算法的難度大大增加,因?yàn)槿绻枳兪酱鎯?chǔ)器的導(dǎo)電狀態(tài)每次都不完全相同,那么識(shí)別圖像的準(zhǔn)確性將受到影響。

黃教授解釋說,"當(dāng)我們看一個(gè)照明路徑時(shí),每次都是不同的,因此,作為一個(gè)結(jié)果,阻變式存儲(chǔ)器表現(xiàn)出一定程度的隨機(jī)性,每次你對(duì)它們進(jìn)行編程時(shí)都略有不同。" 黃的團(tuán)隊(duì)證明了阻變式存儲(chǔ)器可以存儲(chǔ)連續(xù)的人工智能權(quán)重,并且仍然像數(shù)字計(jì)算機(jī)一樣準(zhǔn)確。

黃漢森(左)和萬偉爾(右)幫助開發(fā)了一種新的計(jì)算機(jī)芯片,可以以前所未有的效率運(yùn)行巨大的人工智能算法。

必須解決的另一個(gè)主要問題涉及支持多樣化神經(jīng)網(wǎng)絡(luò)所需的靈活性。在過去,芯片設(shè)計(jì)者不得不將微小的阻變式存儲(chǔ)器排在一個(gè)區(qū)域,緊挨著較大的硅神經(jīng)元。阻變式存儲(chǔ)器和神經(jīng)元是硬接線,沒有可編程性,所以計(jì)算只能在單一方向上進(jìn)行。為了支持雙向計(jì)算的神經(jīng)網(wǎng)絡(luò),額外的電線和電路是必要的,增加了能源和空間需求。

因此,黃的團(tuán)隊(duì)設(shè)計(jì)了一個(gè)新的芯片架構(gòu),其中阻變式存儲(chǔ)器和硅神經(jīng)元被混合在一起。這一設(shè)計(jì)上的小變化減少了總面積并節(jié)省了能源。

瑞士聯(lián)邦理工學(xué)院蘇黎世分校的神經(jīng)形態(tài)學(xué)科學(xué)家Melika Payvand評(píng)價(jià)說:"我認(rèn)為[這種安排]非常漂亮。""我絕對(duì)認(rèn)為這是一項(xiàng)開創(chuàng)性的工作。"

近年來,黃的團(tuán)隊(duì)與合作者合作,在NeuRRAM芯片上設(shè)計(jì)、制造、測(cè)試、校準(zhǔn)和運(yùn)行AI算法。他們確實(shí)考慮過使用其他新興的存儲(chǔ)器類型,這些存儲(chǔ)器也可以用于內(nèi)存計(jì)算芯片,但阻變式存儲(chǔ)器具有優(yōu)勢(shì),因?yàn)樗谀M編程方面具有優(yōu)勢(shì),而且它相對(duì)容易與傳統(tǒng)計(jì)算材料集成。

學(xué)界評(píng)論說:他們最近的成果代表了第一個(gè)可以運(yùn)行如此大型和復(fù)雜的人工智能算法的阻變式存儲(chǔ)器芯片,這一壯舉以前只在理論模擬中實(shí)現(xiàn)。""當(dāng)涉及到真正的硅時(shí),這種能力沒有了。"這項(xiàng)工作是開創(chuàng)性的展示。""數(shù)字人工智能系統(tǒng)是靈活和精確的,但效率卻低了好幾個(gè)數(shù)量級(jí)?,F(xiàn)在,他們的靈活、精確和節(jié)能的模擬阻變式存儲(chǔ)器芯片"首次彌補(bǔ)了這一差距"。

擴(kuò)展規(guī)模

該團(tuán)隊(duì)的設(shè)計(jì)保持了NeuRRAM芯片的微小,只有指甲蓋大小,同時(shí)包含了300萬個(gè)可作為模擬處理器的阻變式存儲(chǔ)器。而且,雖然它至少可以像數(shù)字計(jì)算機(jī)那樣運(yùn)行神經(jīng)網(wǎng)絡(luò),但該芯片也(而且是第一次)可以運(yùn)行在不同方向上進(jìn)行計(jì)算的算法。這一芯片可以向阻變式存儲(chǔ)器陣列的行輸入電壓,并從列讀取輸出,這是阻變式存儲(chǔ)器芯片的標(biāo)準(zhǔn),但也可以從列向行逆向操作,因此可以用于以不同方向的數(shù)據(jù)流進(jìn)行操作的神經(jīng)網(wǎng)絡(luò)。

現(xiàn)在尺度是一個(gè)問題。目前最大的神經(jīng)網(wǎng)絡(luò)包含數(shù)十億的權(quán)重,而不是新芯片中的數(shù)百萬。黃漢森計(jì)劃通過將多個(gè)NeuRRAM芯片堆疊在一起來擴(kuò)大規(guī)模。

在未來的設(shè)備中保持較低的能源成本,進(jìn)一步縮小其尺寸,也同樣重要。實(shí)現(xiàn)這一目標(biāo)的方法之一是更緊密地模擬大腦,采用真正的神經(jīng)元之間使用的通信信號(hào):電脈沖。當(dāng)細(xì)胞內(nèi)外的電壓差達(dá)到一個(gè)臨界閾值時(shí),它是由一個(gè)神經(jīng)元向另一個(gè)神經(jīng)元發(fā)射的信號(hào)。

就目前而言,該團(tuán)隊(duì)在NeuRRAM芯片上運(yùn)行大型人工智能算法時(shí)所完成的能源效率創(chuàng)造了新的希望,即內(nèi)存技術(shù)可能代表人工智能計(jì)算的未來。也許有一天,甚至能夠與人類大腦的860億個(gè)神經(jīng)元和連接它們的數(shù)萬億個(gè)突觸相媲美,而又相當(dāng)節(jié)能。

THE END
責(zé)任編輯:趙龍
免責(zé)聲明:本站所使用的字體和圖片文字等素材部分來源于互聯(lián)網(wǎng)共享平臺(tái)。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無意。如您是字體廠商、圖片文字廠商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請(qǐng)聯(lián)系我們,本站核實(shí)后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡(luò)碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟(jì)賠償!敬請(qǐng)諒解!