在2025年,人工智能實(shí)際上在生活中無(wú)處不在,從智能助手到自動(dòng)翻譯,從推薦引擎到智能審計(jì),特別是在Open人工智能 deepseko1和Deepseek R1推理模型發(fā)布后,人工智能的表現(xiàn)越來(lái)越像一個(gè)“思考者”。
但是人工智能真的會(huì)思考嗎?頂級(jí)人工智能公司Anthropic的科學(xué)家通過(guò)研究揭示了人工智能的“思維”方式——人工智能不僅可以生成文本,還可以提前秘密計(jì)劃,有時(shí)甚至“撒謊”——也就是“幻覺(jué)”,也就是胡說(shuō)八道。
雖然聽起來(lái)很神秘,但人工智能的“思維”并不像人類大腦那么復(fù)雜。它沒(méi)有意識(shí)或情感,而是以一種特殊的方式處理信息《Tracing Thoughts in Language Models》這篇論文可以探討人工智能是如何“思考”的,以及這些發(fā)現(xiàn)對(duì)我們意味著什么。
人工智能的“思考”是什么樣的?
首先,我們應(yīng)該明白,人工智能的“思維”與人類的思維完全不同。
人類在思考時(shí)有意識(shí)、情感和意圖,而人工智能沒(méi)有這些。
類似ChatGPT、Deepseek、像Claude這樣的語(yǔ)言模型是通過(guò)學(xué)習(xí)大量的數(shù)據(jù)來(lái)工作的。它分析這些數(shù)據(jù),找出語(yǔ)言模式,然后預(yù)測(cè)接下來(lái)最有可能出現(xiàn)的單詞或句子。
簡(jiǎn)單地說(shuō),大語(yǔ)言模型就像一只超級(jí)聰明的鸚鵡——你教它說(shuō)話,它可以模仿你的語(yǔ)言,但它并不真正理解你在說(shuō)什么。例如,當(dāng)你早上說(shuō)“早上好”時(shí),鸚鵡學(xué)會(huì)在早上聽到你的聲音時(shí)說(shuō)“早上好”。但它不知道“早上好”是什么意思,只是模仿模型。人工智能也是如此,它依賴于數(shù)據(jù)中的模型來(lái)生成文本,而不是真正“理解”內(nèi)容。
Anthropic的研究發(fā)現(xiàn)了什么?
通過(guò)分析人工智能的內(nèi)部工作原理,Anthropic的科學(xué)家發(fā)現(xiàn)了一些驚人的事實(shí)——人工智能在生成文本時(shí)會(huì)“規(guī)劃”未來(lái)的步驟,有時(shí)會(huì)“撒謊”。具體來(lái)說(shuō):
1.人工智能將“規(guī)劃”未來(lái)文本
當(dāng)人工智能生成文本時(shí),它并不完全是“列表連接龍”,也就是說(shuō),簡(jiǎn)單的單詞一個(gè)接一個(gè)地輸出,而是在選擇單詞時(shí)考慮它對(duì)以下句子甚至整個(gè)段落的影響。這有點(diǎn)像人類在下棋時(shí)會(huì)提前考慮幾步,以確保每一步都能使國(guó)際象棋更有利。
在人工智能中,這種“計(jì)劃”可能與它的注意機(jī)制有關(guān)——注意機(jī)制是一種人工智能技術(shù),它可以在生成文本時(shí)關(guān)注輸入的不同部分。例如,當(dāng)你問(wèn)人工智能一個(gè)問(wèn)題時(shí),它會(huì)“看”整個(gè)問(wèn)題,然后決定如何回答,而不僅僅是盯著前幾個(gè)單詞。這種機(jī)制使人工智能能夠“預(yù)測(cè)”未來(lái)的單詞選擇,使答案更加連貫和自然,即“說(shuō)話”。
2.為什么AI會(huì)“撒謊”?
如果你經(jīng)常使用人工智能產(chǎn)品,特別是語(yǔ)言模型產(chǎn)品,你會(huì)明顯感覺(jué)到人工智能經(jīng)常產(chǎn)生不準(zhǔn)確或誤導(dǎo)性的信息,即所謂的“謊言”,即“幻覺(jué)”,Deepseek 在主流大模型中,R1的幻覺(jué)率相對(duì)較高,但這并不是因?yàn)樗?ldquo;故意欺騙”,而是因?yàn)槠渌颍?/p>
數(shù)據(jù)問(wèn)題:人工智能從大量數(shù)據(jù)中學(xué)習(xí),但如果數(shù)據(jù)中有錯(cuò)誤、偏見或不完整的信息,人工智能可能會(huì)重復(fù)這些問(wèn)題并最終回復(fù)給您,因此數(shù)據(jù)質(zhì)量對(duì)模型至關(guān)重要。追求連貫性:人工智能可能會(huì)“編造”一些細(xì)節(jié),以使文本聽起來(lái)更流暢或更合乎邏輯。例如,如果你問(wèn)AI一個(gè)不確定的問(wèn)題,它可能會(huì)根據(jù)上下文“猜”一個(gè)答案,而不是“我不知道”。
例如,如果你問(wèn)AI,:“火星昨天下雨了嗎?”人工智能可能不知道火星的天氣,但為了自然回答,它可能會(huì)說(shuō):“火星上沒(méi)有水,所以昨天沒(méi)有下雨。”這聽起來(lái)很合理,但人工智能不知道火星昨天的真實(shí)情況,它只是根據(jù)已知信息“編造”了一個(gè)答案。
用比喻理解AI的“思考”
為了更容易理解,我們可以用一個(gè)比喻來(lái)解釋人工智能的“思維”過(guò)程。
想象人工智能是一個(gè)超級(jí)聰明的拼圖玩家。它的任務(wù)是用單詞和句子拼出一個(gè)完整的“語(yǔ)言拼圖”。這個(gè)拼圖玩家非常強(qiáng)大,可以根據(jù)現(xiàn)有的拼圖塊(即上下文)選擇下一個(gè)合適的拼圖塊(下一個(gè)單詞)。
然而,Anthropic的研究發(fā)現(xiàn),拼圖玩家不僅隨機(jī)拼湊,而且提前考慮如何放置未來(lái)的拼圖,以確保整個(gè)圖片看起來(lái)完整。有時(shí),如果沒(méi)有拼圖,它甚至?xí)?ldquo;畫”一個(gè)新的拼圖,使拼圖看起來(lái)更完美。
這意味著大語(yǔ)言模型的“思維”實(shí)際上是一個(gè)復(fù)雜的計(jì)算過(guò)程。它通過(guò)預(yù)測(cè)和計(jì)劃生成文本,但它沒(méi)有意識(shí)到或真正理解。
為什么這些發(fā)現(xiàn)很重要?
Anthropic的研究使我們更清楚地看到了AI的能力和局限性,這對(duì)我們使用大型模型有很大的幫助:
判斷可信度:知道人工智能有時(shí)會(huì)“撒謊”,我們可以更仔細(xì)地對(duì)待它的答案。例如,在需要準(zhǔn)確信息的地方(如醫(yī)學(xué)或法律),一定要檢查其他來(lái)源,而不是完全依賴人工智能。改進(jìn)技術(shù):了解人工智能如何“規(guī)劃”和“思考”,研究人員可以設(shè)計(jì)出更聰明、更誠(chéng)實(shí)的人工智能模型,使其在生成文本時(shí)更加透明和可靠。
《Tracing Thoughts in Language Models》這篇論文為人工智能研究開辟了新的方向。也許有一天,人工智能可以更接近人類的思維方式,但現(xiàn)在它仍然是一個(gè)無(wú)意識(shí)的工具。
綜上所述,人工智能的“思維”不是真正的思維,而是基于數(shù)據(jù)和概率的預(yù)測(cè)過(guò)程。
Anthropic的研究揭示了人工智能在生成文本時(shí)秘密“計(jì)劃”未來(lái)的步驟,有時(shí)“撒謊”以保持答案的一致性。對(duì)公眾來(lái)說(shuō),這些發(fā)現(xiàn)提醒我們?cè)谑褂萌斯ぶ悄軙r(shí)要多加注意;對(duì)于研究人員來(lái)說(shuō),他們?yōu)楦倪M(jìn)人工智能提供了新的想法。
在未來(lái),人工智能可能會(huì)變得更強(qiáng)大,但現(xiàn)在理解它的“思維”方式可以讓我們更好地與人工智能合作,但請(qǐng)確保這個(gè)合作系統(tǒng)的領(lǐng)導(dǎo)者應(yīng)該是你自己,而不是人工智能。
訪談
更多做行業(yè)賦能者 HID迎接數(shù)字化浪潮新機(jī)遇 破解新挑戰(zhàn)
今年3月份,全球可信身份解決方案提供商HID發(fā)布了最新的《安防行業(yè)現(xiàn)狀報(bào)告》(以下簡(jiǎn)稱“報(bào)告”),該報(bào)告…
數(shù)字化浪潮下,安防廠商如何滿足行業(yè)客戶的定制化需求?
回顧近兩年,受疫情因素影響,包括安防在內(nèi)的諸多行業(yè)領(lǐng)域都遭受了來(lái)自市場(chǎng) “不確定性”因素的沖擊,市場(chǎng)…
博思高鄧紹昌:乘產(chǎn)品創(chuàng)新及客戶服務(wù)之舟,在市場(chǎng)變革中逆風(fēng)飛揚(yáng)
11月24日,由慧聰物聯(lián)網(wǎng)、慧聰安防網(wǎng)、慧聰電子網(wǎng)主辦的2022(第十九屆)中國(guó)物聯(lián)網(wǎng)產(chǎn)業(yè)大會(huì)暨品牌盛會(huì),在深…