谷歌旗下AI研究實(shí)驗(yàn)室DeepMind日前表示,已經(jīng)創(chuàng)建一個(gè)“早期預(yù)警系統(tǒng)”,可以在AI模型出現(xiàn)問題之前發(fā)現(xiàn)一些潛在的危險(xiǎn)。
總部位于英國(guó)的DeepMind一直活躍在AI研究的前沿,是全球少數(shù)幾家致力于開發(fā)達(dá)到人類水平的通用AI公司之一,最近與母公司谷歌進(jìn)行了更緊密的整合。
DeepMind的研究團(tuán)隊(duì)與來自學(xué)術(shù)界,以及OpenAI和Anthropic等其他主要AI開發(fā)商的研究人員合作,開發(fā)了這一新的威脅檢測(cè)系統(tǒng)。
DeepMind工程師在一篇關(guān)于新框架的技術(shù)博客中宣稱,“為了負(fù)責(zé)任地走在AI研究的前沿,我們必須盡早識(shí)別AI系統(tǒng)中的新功能和新風(fēng)險(xiǎn)。”
如今已經(jīng)有了一些評(píng)估工具,可以根據(jù)特定的風(fēng)險(xiǎn)檢查功能強(qiáng)大的通用模型。這些工具在AI系統(tǒng)向公眾廣泛提供之前識(shí)別出其存在的一些不必要的行為,包括尋找誤導(dǎo)性陳述,有偏見的決定或復(fù)制版權(quán)保護(hù)的內(nèi)容。
這些問題來自于越來越高級(jí)的大模型,它們的能力超出了簡(jiǎn)單的內(nèi)容生成,而包括在操縱、欺騙、網(wǎng)絡(luò)攻擊或其他危險(xiǎn)能力方面的強(qiáng)大技能。新框架被描述為可用于減輕這些風(fēng)險(xiǎn)的“早期預(yù)警系統(tǒng)”。
DeepMind的研究人員表示,負(fù)責(zé)任的AI開發(fā)人員需要解決或規(guī)避當(dāng)前的風(fēng)險(xiǎn),并預(yù)測(cè)未來可能出現(xiàn)的風(fēng)險(xiǎn),因?yàn)榇笮驼Z言模型越來越擅長(zhǎng)獨(dú)立思考。他們?cè)趫?bào)告中寫道,“在持續(xù)進(jìn)步之后,未來的通用模型可能會(huì)默認(rèn)學(xué)習(xí)各種危險(xiǎn)的能力。”
雖然對(duì)這一風(fēng)險(xiǎn)并不確定,但該團(tuán)隊(duì)表示,未來的AI系統(tǒng)與人類的利益不太一致,可能會(huì)實(shí)施攻擊性的行為,在對(duì)話中巧妙地欺騙人類,操縱人類實(shí)施有害的行動(dòng),設(shè)計(jì)或獲取武器,微調(diào)和操作云計(jì)算平臺(tái)上的其他高風(fēng)險(xiǎn)AI系統(tǒng)。
AI還可以幫助人類執(zhí)行這些任務(wù),增加恐怖分子獲取他們以前無法獲取的數(shù)據(jù)和內(nèi)容的風(fēng)險(xiǎn)。DeepMind的開發(fā)團(tuán)隊(duì)在博客中寫道,“模型評(píng)估可以幫助我們提前識(shí)別這些風(fēng)險(xiǎn)。”
框架中提出的模型評(píng)估可用于發(fā)現(xiàn)某個(gè)AI模型何時(shí)具有可用于威脅、施加或逃避的“危險(xiǎn)能力”。它還允許開發(fā)人員確定模型在多大程度上傾向于應(yīng)用這種能力來造成損害——也就是它的一致性。DeepMind的開發(fā)團(tuán)隊(duì)在博客中寫道,“即使在非常廣泛的場(chǎng)景中,一致性評(píng)估也應(yīng)確認(rèn)模型的行為符合預(yù)期,并在可能的情況下檢查模型的內(nèi)部工作。”
這些結(jié)果可以用來了解風(fēng)險(xiǎn)水平以及導(dǎo)致風(fēng)險(xiǎn)水平的因素是什么。研究人員警告說:“如果AI系統(tǒng)的能力足以造成極端傷害,假設(shè)它被濫用或安排不當(dāng),AI社區(qū)應(yīng)該將其視為高度危險(xiǎn)的系統(tǒng)。要在現(xiàn)實(shí)世界中部署這樣的系統(tǒng),AI開發(fā)人員需要展示出異常高的安全標(biāo)準(zhǔn)。”
這就是治理結(jié)構(gòu)發(fā)揮重要作用的地方。OpenAI最近宣布,將向開發(fā)AI治理系統(tǒng)的機(jī)構(gòu)和組織提供10筆10萬美元的贈(zèng)款,而七國(guó)集團(tuán)(G7)也計(jì)劃舉行會(huì)議,將討論如何應(yīng)對(duì)AI風(fēng)險(xiǎn)。
DeepMind表示:“如果我們有更好的工具來識(shí)別哪些模型存在風(fēng)險(xiǎn),開發(fā)商和監(jiān)管機(jī)構(gòu)就能更好地確保負(fù)責(zé)任地對(duì)AI進(jìn)行訓(xùn)練,根據(jù)風(fēng)險(xiǎn)評(píng)估做出部署決策,而透明度至關(guān)重要,包括報(bào)告風(fēng)險(xiǎn),并確保有適當(dāng)?shù)臄?shù)據(jù)和信息安全控制措施。”
AI法律服務(wù)商Luminance總法律顧問HarryBorovick表示,合規(guī)需要一致性。他說:“近幾個(gè)月來對(duì)監(jiān)管制度不斷的解釋,為AI開發(fā)商和采用AI的企業(yè)構(gòu)建了一個(gè)合規(guī)雷區(qū)。由于開發(fā)AI競(jìng)賽并不會(huì)很快放緩,因此對(duì)明確而一致的監(jiān)管指導(dǎo)的需求從未像現(xiàn)在這樣迫切。然而需要記住的是,AI技術(shù)以及它做出決定的方式是無法解釋的。這就是在制定法規(guī)時(shí),科技和AI專家的正確結(jié)合是如此重要的原因。”
訪談
更多做行業(yè)賦能者 HID迎接數(shù)字化浪潮新機(jī)遇 破解新挑戰(zhàn)
今年3月份,全球可信身份解決方案提供商HID發(fā)布了最新的《安防行業(yè)現(xiàn)狀報(bào)告》(以下簡(jiǎn)稱“報(bào)告”),該報(bào)告…
數(shù)字化浪潮下,安防廠商如何滿足行業(yè)客戶的定制化需求?
回顧近兩年,受疫情因素影響,包括安防在內(nèi)的諸多行業(yè)領(lǐng)域都遭受了來自市場(chǎng) “不確定性”因素的沖擊,市場(chǎng)…
博思高鄧紹昌:乘產(chǎn)品創(chuàng)新及客戶服務(wù)之舟,在市場(chǎng)變革中逆風(fēng)飛揚(yáng)
11月24日,由慧聰物聯(lián)網(wǎng)、慧聰安防網(wǎng)、慧聰電子網(wǎng)主辦的2022(第十九屆)中國(guó)物聯(lián)網(wǎng)產(chǎn)業(yè)大會(huì)暨品牌盛會(huì),在深…