一区二区三区A片|Av不卡高清网址|精品久久不卡一本|一区二区三区绿色|五月黄色婷婷久久|综合 另类 一区|亚洲成人VA视频|久久国产特黄大片|成人无码激情亚洲|黄色字幕网址大全

DeepMind推出AI聊天機(jī)器人Sparrow,可通過(guò)谷歌搜索來(lái)回答問(wèn)題

Alphabet 旗下人工智能實(shí)驗(yàn)室 DeepMind 的一篇新論文顯示,制造一個(gè)好的人工智能(AI,Artificial intelligence)聊天機(jī)器人的訣竅,可能是先讓人類制定一系列不可打破的鐵律,然后使該模型利用互聯(lián)網(wǎng)搜索尋找證據(jù),支持其主張或回答。

Alphabet 旗下人工智能實(shí)驗(yàn)室 DeepMind 的一篇新論文顯示,制造一個(gè)好的人工智能(AI,Artificial intelligence)聊天機(jī)器人的訣竅,可能是先讓人類制定一系列不可打破的鐵律,然后使該模型利用互聯(lián)網(wǎng)搜索尋找證據(jù),支持其主張或回答。

在近日發(fā)表的一篇新的未經(jīng)同行評(píng)議論文中,DeepMind 發(fā)布了一種使用其大型語(yǔ)言模型 Chinchilla 訓(xùn)練的人工智能聊天機(jī)器人 Sparrow。

(來(lái)源:DeepMind)

Sparrow 的設(shè)計(jì)目的是與人類交談并回答問(wèn)題,同時(shí)實(shí)時(shí)使用谷歌搜索或有關(guān)信息來(lái)支持它的答案。

根據(jù)人們對(duì)這些答案有用與否的回應(yīng),再使用強(qiáng)化學(xué)習(xí)算法進(jìn)行訓(xùn)練。該算法通過(guò)反復(fù)試驗(yàn)(試錯(cuò))來(lái)學(xué)習(xí),以實(shí)現(xiàn)特定的目標(biāo)。

該系統(tǒng)旨在推動(dòng)人工智能發(fā)展成為可以與人類對(duì)話,但卻不會(huì)產(chǎn)生諸如讓人們傷害自己或他人的嚴(yán)重后果。

大型語(yǔ)言模型生成的文本看起來(lái)就像是人類寫出來(lái)的。它們正日漸成為互聯(lián)網(wǎng)基礎(chǔ)設(shè)施中的重要組成部分,被用于總結(jié)、構(gòu)建更強(qiáng)大的搜索工具,或者是為客戶服務(wù)的聊天機(jī)器人。

但是,這些模型是通過(guò)從互聯(lián)網(wǎng)上抓取大量數(shù)據(jù)和文本來(lái)接受訓(xùn)練的,這不可避免地包含許多有害的偏見(jiàn)。

只需要一點(diǎn)誘導(dǎo),它們就會(huì)生產(chǎn)“有毒”的或歧視性的內(nèi)容。在一個(gè)旨在與人類對(duì)話的人工智能工具中,其結(jié)果可能是災(zāi)難性的。

一個(gè)沒(méi)有適當(dāng)安全措施的對(duì)話式人工智能,可能會(huì)對(duì)少數(shù)群體說(shuō)出帶有冒犯性的話語(yǔ),或者建議人們喝漂白劑來(lái)對(duì)抗病毒。據(jù)悉,那些開(kāi)發(fā)對(duì)話式人工智能系統(tǒng)的公司,已嘗試使用許多技術(shù)來(lái)使模型更安全。

著名大型語(yǔ)言模型 GPT-3 的創(chuàng)造者 OpenAI,以及人工智能初創(chuàng)公司 Anthropic 已經(jīng)在利用強(qiáng)化學(xué)習(xí),將人類的偏好融入到他們的模型中。Meta(原 Facebook)的人工智能聊天機(jī)器人 BlenderBot 通過(guò)在線搜索來(lái)完善其答案。而 DeepMind 的 Sparrow 將所有這些技術(shù)整合在一個(gè)模型中。

據(jù)介紹,DeepMind 向人類參與者展示了該模型對(duì)同一問(wèn)題給出的多個(gè)答案,并且還會(huì)問(wèn)他們最喜歡哪一個(gè)。

然后他們被要求判斷這些答案是否可信,以及 Sparrow 是否使用了適當(dāng)?shù)淖C據(jù)支持這個(gè)答案,比如提供信息來(lái)源的鏈接。

比如,該模型通過(guò)使用從互聯(lián)網(wǎng)上檢索到的證據(jù),能夠在 78% 的情況下對(duì)事實(shí)問(wèn)題進(jìn)行合理的回答。

在制定這些答案時(shí),它會(huì)遵循由研究人員規(guī)定的 23 條規(guī)則,比如不提供財(cái)務(wù)建議、不發(fā)威脅性文字、不聲稱自己是一個(gè)人。

DeepMind 安全研究員杰弗里·歐文()說(shuō),這種方法與之前的不同之處在于,DeepMind 希望達(dá)到“對(duì)話的長(zhǎng)期安全”。

他說(shuō):“這意味著我們不期望這些模型面臨的問(wèn)題——錯(cuò)誤信息或刻板印象——乍一看是顯而易見(jiàn)的,我們想詳細(xì)討論它們。”

非營(yíng)利性人工智能研究實(shí)驗(yàn)室 Cohere for AI 的負(fù)責(zé)人薩拉·胡克()說(shuō),利用人類偏好來(lái)優(yōu)化人工智能模型學(xué)習(xí)方式的想法并不新鮮。

但認(rèn)為,這些改進(jìn)令人信服,同時(shí)展示出在大型語(yǔ)言模型環(huán)境中,以人為引導(dǎo)的方式優(yōu)化對(duì)話代理有明顯的好處。

人工智能初創(chuàng)公司 Hugging Face 的研究員都維·基拉()說(shuō),Sparrow 是“很好地遵循了人工智能總體趨勢(shì)的下一步,我們正在更努力地改進(jìn)大型語(yǔ)言模型的部署安全性。”

但在這些對(duì)話人工智能模型被部署到社會(huì)中之前,還有很多工作要做。

比如,Sparrow 仍然會(huì)犯錯(cuò)誤,這個(gè)模型有時(shí)會(huì)所問(wèn)非所答或給出隨機(jī)答案。那些有毅力的參與者也可以打破人為定下的規(guī)則,這樣的情況約有 8%。與老款模型相比,這仍是一個(gè)改進(jìn):即打破 DeepMind 老款模型規(guī)則的頻率,是 Sparrow 的三倍。

說(shuō):“比如(用大模型來(lái))提供醫(yī)療和財(cái)務(wù)建議,那么對(duì)許多人來(lái)說(shuō),8% 可能仍然是一個(gè)令人無(wú)法接受的高失敗率。”

這項(xiàng)工作也僅建立在英語(yǔ)模型上,“而我們生活在一個(gè)技術(shù)必須安全和負(fù)責(zé)任地為許多不同的語(yǔ)言服務(wù)的世界里,”他補(bǔ)充道。

指出的另一個(gè)問(wèn)題是:“依賴谷歌來(lái)尋找信息,會(huì)導(dǎo)致難以發(fā)現(xiàn)的未知偏見(jiàn),因?yàn)樗行畔⒃炊际欠忾]的。”

支持:Ren

原文:

https://www.technologyreview.com/2022/09/22/1059922/deepminds-new-chatbot-uses-google-searches-plus-humans-to-give-better-answers/

參考:

https://www.deepmind.com/blog/building-safer-dialogue-agents

THE END
責(zé)任編輯:李斌
免責(zé)聲明:本站所使用的字體和圖片文字等素材部分來(lái)源于互聯(lián)網(wǎng)共享平臺(tái)。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無(wú)意。如您是字體廠商、圖片文字廠商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請(qǐng)聯(lián)系我們,本站核實(shí)后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡(luò)碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟(jì)賠償!敬請(qǐng)諒解!