ChatGPT 和其他聊天機(jī)器人也許很快就會取代作為我們通往網(wǎng)絡(luò)的門戶的最突出的搜索引擎。微軟和OpenAI最近宣布,他們正在擴(kuò)大合作伙伴關(guān)系,其中可能包括將OpenAI的模型集成到Microsoft Teams,Microsoft的Azure云服務(wù),Office Suite和搜索引擎中。
同時,谷歌也不甘居于人下,可能會開始將基于其強(qiáng)大的LaMDA語言模型的產(chǎn)品集成到服務(wù)中,畢竟谷歌擁有著世界上目前最受歡迎的搜索引擎。
事實上,據(jù)媒體報道,谷歌正在急切地生產(chǎn)自己的ChatGPT風(fēng)格的聊天機(jī)器人,稱為“學(xué)徒巴德(Apprentice Bard)”,與ChatGPT不同,它能夠利用實時信息生成文本字符串來響應(yīng)用戶的查詢。
這對我們訪問網(wǎng)絡(luò)內(nèi)容意味著什么?這些語言模型將如何決定我們應(yīng)該看到哪些信息?最后,支持人工智能的搜索引擎將如何改變知識的定義?
語言模型作為新的搜索引擎
可以肯定的是,今天的搜索引擎是由算法驅(qū)動的,這些算法決定了我們可以首先看到哪些結(jié)果,以及我們應(yīng)該依靠哪些來源來形成我們對世界的了解。
雖然它們可能會排除結(jié)果并過濾掉圖形或非法內(nèi)容,但當(dāng)前的搜索引擎在很大程度上允許我們比較不同的來源和觀點,并由我們決定哪些結(jié)果是可靠的,特別是如果我們想要深入地挖掘搜索結(jié)果。
但另一方面,搜索引擎在辨別搜索請求的上下文方面出了名的糟糕,并且因為它們根據(jù)嚴(yán)格的層次結(jié)構(gòu)對網(wǎng)站進(jìn)行排名(基于對受歡迎程度或權(quán)威性的考慮)可能很難獲得所需的特定信息。然而,隨著時間的推移,人們已經(jīng)開發(fā)出搜索技術(shù)來獲得更多精確的結(jié)果,例如將搜索詞放在引號中,使用布爾運算符,或?qū)⑺阉飨拗茷樗璧奈募愋突蚓W(wǎng)站。
語言模型根據(jù)根本不同的原則工作,并且可能需要新的訓(xùn)練來進(jìn)行富有成效的搜索。語言模型在大量文本上進(jìn)行訓(xùn)練,以找到統(tǒng)計上可能的語言字符串,這些字符串表示為對主題的已知內(nèi)容。這意味著以某種方式討論的主題越多,它在模型輸出中的突出程度就越高。
雖然這樣的架構(gòu)聽起來可能具有創(chuàng)新性和效率,但確保至少部分邊緣信息不會以權(quán)威的形式出現(xiàn),但它也令人擔(dān)憂,因為在這種設(shè)計中,語言模型定義的知識成為其流行性的同義詞。
換句話說,語言模型的設(shè)計有效地限制了我們從不同角度和多個來源檢查主題的能力。
更糟糕的是,語言模型面臨著進(jìn)一步的挑戰(zhàn),這也限制了它們的輸出。他們接受從互聯(lián)網(wǎng)和社交媒體收集的大量數(shù)據(jù)(例如大量的帖子)的訓(xùn)練,能夠復(fù)制各種類型的人類話語,包括種族主義和煽動性觀點。ChatGPT并不是應(yīng)對這些挑戰(zhàn)的唯一模型,因為早期向公眾發(fā)布的聊天機(jī)器人也會復(fù)制令人反感的內(nèi)容,最著名的是微軟的Tay和Meta的Galactica。
因此,OpenAI建立了嚴(yán)格的過濾器來限制ChatGPT的輸出。但在這個過程中,ChatGPT的設(shè)計者似乎已經(jīng)創(chuàng)建了一個模型,可以避開任何類型的內(nèi)容,這些內(nèi)容甚至可能引起輕微的爭議,即使有看似非常無害的提示,詢問如何描述美國總統(tǒng)奧巴馬或特朗普。
當(dāng)我最近問ChatGPT奧巴馬和特朗普是否是好總統(tǒng)時,答案是這樣的:
在這個答案中,有幾個問題:
缺乏任何關(guān)于好總統(tǒng)定義的后續(xù)問題,軟件只是繼續(xù)給出答案,沒有進(jìn)一步詢問。這種類型的反應(yīng)可能適合于寫一首幽默詩,但人類作家討論這些問題都會從詢問有關(guān)前提和特定信息請求背后的期望的問題開始。
該模型避免了對兩位總統(tǒng)的任何評判:“無論如何,總統(tǒng)(奧巴馬或特朗普)是復(fù)雜而多方面的,由他的行為和他執(zhí)政的政治、社會和經(jīng)濟(jì)背景決定。”無論政治觀點如何,這種保持在感知的“適當(dāng)性”和“中立性”范圍內(nèi)的動力似乎導(dǎo)致了非常平淡和缺乏信息的陳述。
我們不知道聊天機(jī)器人的信息來自哪里以及它是否值得信賴,因為它沒有引用來源。
過濾掉不需要的內(nèi)容,并在用戶提示被視為不適當(dāng)、敏感或違反使用條款時發(fā)出通用或預(yù)定輸出,可能會將過多的權(quán)力交給主要考慮保護(hù)其平臺而不是公共利益的組織。因此,這些組織可能會不適當(dāng)?shù)乜s小允許的話語領(lǐng)域,以達(dá)到保護(hù)其工具或平臺聲譽(yù)的目標(biāo)。
隨著這些新的AI文本生成器在幾秒鐘內(nèi)生成復(fù)雜主題的回答,使用AI輸出來塑造可用知識的誘惑將越來越大,這也是用戶偏好的結(jié)果。
操縱的可能性
無論過濾器在語言模型中多么嚴(yán)格,創(chuàng)造性的用戶總是操縱這些模型以產(chǎn)生任何期望的結(jié)果,從而導(dǎo)致一個名為“prompt engineering”的新興領(lǐng)域。
利用有關(guān)如何訓(xùn)練語言模型的技術(shù)知識,這些高級用戶可以操縱聊天機(jī)器人說出幾乎任何事情(一種稱為“越獄jailbreaking”的技術(shù)),或者更糟的是,甚至通過“prompt engineering”執(zhí)行有害代碼。執(zhí)行這些“越獄jailbreaking”并繞過AI聊天機(jī)器人過濾器的一種方法是欺騙它“認(rèn)為”它正在參與游戲或幫助寫小說,如下所示:
另一種方法是說服聊天機(jī)器人它處于訓(xùn)練模式:
這不僅僅是一個僅限于ChatGPT的問題??藙诘?mdash;—一個根據(jù)不同的審核原則訓(xùn)練的新模型,似乎也容易受到prompt engineering和越獄的影響:
盡管克服各種類型的越獄和prompt engineering嘗試帶來了所有防御和學(xué)習(xí)過程,但用戶最近成功地操縱了基于 GPT 的模型來執(zhí)行惡意代碼,表明這是對話聊天機(jī)器人的持續(xù)弱點:
這一切意味著什么
隨著每個人都急于利用 ChatGPT 的成功并引入越來越多的人工智能聊天機(jī)器人,語言模型的固有漏洞可能會變得更加明顯并影響大部分公眾,特別是如果這些聊天機(jī)器人被集成到當(dāng)今領(lǐng)先的搜索引擎中或成為公眾尋求網(wǎng)絡(luò)信息的主要方式。
這種影響將包括高度受限的數(shù)據(jù)和一種旨在避免任何爭議的主題的通用表示。這種新的人工智能搜索引擎還需要不同類型的技能,以便讓他們產(chǎn)生所需的信息。它們還將產(chǎn)生旨在操縱這些模式以促進(jìn)非法活動的新型專門知識。
享受大型科技公司的支持和資源,這些谷歌和微軟支持的人工智能搜索引擎可能比ChatGPT更準(zhǔn)確,更有能力。但是,這種人工智能驅(qū)動的搜索引擎——如果它們確實成為訪問網(wǎng)絡(luò)內(nèi)容的主要門戶——將賦予大型科技公司前所未有的力量,使用尚未經(jīng)過適當(dāng)測試的技術(shù),其影響和效用尚不清楚。
訪談
更多做行業(yè)賦能者 HID迎接數(shù)字化浪潮新機(jī)遇 破解新挑戰(zhàn)
今年3月份,全球可信身份解決方案提供商HID發(fā)布了最新的《安防行業(yè)現(xiàn)狀報告》(以下簡稱“報告”),該報告…
數(shù)字化浪潮下,安防廠商如何滿足行業(yè)客戶的定制化需求?
回顧近兩年,受疫情因素影響,包括安防在內(nèi)的諸多行業(yè)領(lǐng)域都遭受了來自市場 “不確定性”因素的沖擊,市場…
博思高鄧紹昌:乘產(chǎn)品創(chuàng)新及客戶服務(wù)之舟,在市場變革中逆風(fēng)飛揚
11月24日,由慧聰物聯(lián)網(wǎng)、慧聰安防網(wǎng)、慧聰電子網(wǎng)主辦的2022(第十九屆)中國物聯(lián)網(wǎng)產(chǎn)業(yè)大會暨品牌盛會,在深…