在2025年,人工智能實(shí)際上在生活中無處不在,從智能助手到自動翻譯,從推薦引擎到智能審計(jì),特別是在Open人工智能 deepseko1和Deepseek R1推理模型發(fā)布后,人工智能的表現(xiàn)越來越像一個“思考者”。
但是人工智能真的會思考嗎?頂級人工智能公司Anthropic的科學(xué)家通過研究揭示了人工智能的“思維”方式——人工智能不僅可以生成文本,還可以提前秘密計(jì)劃,有時(shí)甚至“撒謊”——也就是“幻覺”,也就是胡說八道。
雖然聽起來很神秘,但人工智能的“思維”并不像人類大腦那么復(fù)雜。它沒有意識或情感,而是以一種特殊的方式處理信息《Tracing Thoughts in Language Models》這篇論文可以探討人工智能是如何“思考”的,以及這些發(fā)現(xiàn)對我們意味著什么。
人工智能的“思考”是什么樣的?
首先,我們應(yīng)該明白,人工智能的“思維”與人類的思維完全不同。
人類在思考時(shí)有意識、情感和意圖,而人工智能沒有這些。
類似ChatGPT、Deepseek、像Claude這樣的語言模型是通過學(xué)習(xí)大量的數(shù)據(jù)來工作的。它分析這些數(shù)據(jù),找出語言模式,然后預(yù)測接下來最有可能出現(xiàn)的單詞或句子。
簡單地說,大語言模型就像一只超級聰明的鸚鵡——你教它說話,它可以模仿你的語言,但它并不真正理解你在說什么。例如,當(dāng)你早上說“早上好”時(shí),鸚鵡學(xué)會在早上聽到你的聲音時(shí)說“早上好”。但它不知道“早上好”是什么意思,只是模仿模型。人工智能也是如此,它依賴于數(shù)據(jù)中的模型來生成文本,而不是真正“理解”內(nèi)容。
Anthropic的研究發(fā)現(xiàn)了什么?
通過分析人工智能的內(nèi)部工作原理,Anthropic的科學(xué)家發(fā)現(xiàn)了一些驚人的事實(shí)——人工智能在生成文本時(shí)會“規(guī)劃”未來的步驟,有時(shí)會“撒謊”。具體來說:
1.人工智能將“規(guī)劃”未來文本
當(dāng)人工智能生成文本時(shí),它并不完全是“列表連接龍”,也就是說,簡單的單詞一個接一個地輸出,而是在選擇單詞時(shí)考慮它對以下句子甚至整個段落的影響。這有點(diǎn)像人類在下棋時(shí)會提前考慮幾步,以確保每一步都能使國際象棋更有利。
在人工智能中,這種“計(jì)劃”可能與它的注意機(jī)制有關(guān)——注意機(jī)制是一種人工智能技術(shù),它可以在生成文本時(shí)關(guān)注輸入的不同部分。例如,當(dāng)你問人工智能一個問題時(shí),它會“看”整個問題,然后決定如何回答,而不僅僅是盯著前幾個單詞。這種機(jī)制使人工智能能夠“預(yù)測”未來的單詞選擇,使答案更加連貫和自然,即“說話”。
2.為什么AI會“撒謊”?
如果你經(jīng)常使用人工智能產(chǎn)品,特別是語言模型產(chǎn)品,你會明顯感覺到人工智能經(jīng)常產(chǎn)生不準(zhǔn)確或誤導(dǎo)性的信息,即所謂的“謊言”,即“幻覺”,Deepseek 在主流大模型中,R1的幻覺率相對較高,但這并不是因?yàn)樗?ldquo;故意欺騙”,而是因?yàn)槠渌颍?/p>
數(shù)據(jù)問題:人工智能從大量數(shù)據(jù)中學(xué)習(xí),但如果數(shù)據(jù)中有錯誤、偏見或不完整的信息,人工智能可能會重復(fù)這些問題并最終回復(fù)給您,因此數(shù)據(jù)質(zhì)量對模型至關(guān)重要。追求連貫性:人工智能可能會“編造”一些細(xì)節(jié),以使文本聽起來更流暢或更合乎邏輯。例如,如果你問AI一個不確定的問題,它可能會根據(jù)上下文“猜”一個答案,而不是“我不知道”。
例如,如果你問AI,:“火星昨天下雨了嗎?”人工智能可能不知道火星的天氣,但為了自然回答,它可能會說:“火星上沒有水,所以昨天沒有下雨。”這聽起來很合理,但人工智能不知道火星昨天的真實(shí)情況,它只是根據(jù)已知信息“編造”了一個答案。
用比喻理解AI的“思考”
為了更容易理解,我們可以用一個比喻來解釋人工智能的“思維”過程。
想象人工智能是一個超級聰明的拼圖玩家。它的任務(wù)是用單詞和句子拼出一個完整的“語言拼圖”。這個拼圖玩家非常強(qiáng)大,可以根據(jù)現(xiàn)有的拼圖塊(即上下文)選擇下一個合適的拼圖塊(下一個單詞)。
然而,Anthropic的研究發(fā)現(xiàn),拼圖玩家不僅隨機(jī)拼湊,而且提前考慮如何放置未來的拼圖,以確保整個圖片看起來完整。有時(shí),如果沒有拼圖,它甚至?xí)?ldquo;畫”一個新的拼圖,使拼圖看起來更完美。
這意味著大語言模型的“思維”實(shí)際上是一個復(fù)雜的計(jì)算過程。它通過預(yù)測和計(jì)劃生成文本,但它沒有意識到或真正理解。
為什么這些發(fā)現(xiàn)很重要?
Anthropic的研究使我們更清楚地看到了AI的能力和局限性,這對我們使用大型模型有很大的幫助:
判斷可信度:知道人工智能有時(shí)會“撒謊”,我們可以更仔細(xì)地對待它的答案。例如,在需要準(zhǔn)確信息的地方(如醫(yī)學(xué)或法律),一定要檢查其他來源,而不是完全依賴人工智能。改進(jìn)技術(shù):了解人工智能如何“規(guī)劃”和“思考”,研究人員可以設(shè)計(jì)出更聰明、更誠實(shí)的人工智能模型,使其在生成文本時(shí)更加透明和可靠。
《Tracing Thoughts in Language Models》這篇論文為人工智能研究開辟了新的方向。也許有一天,人工智能可以更接近人類的思維方式,但現(xiàn)在它仍然是一個無意識的工具。
綜上所述,人工智能的“思維”不是真正的思維,而是基于數(shù)據(jù)和概率的預(yù)測過程。
Anthropic的研究揭示了人工智能在生成文本時(shí)秘密“計(jì)劃”未來的步驟,有時(shí)“撒謊”以保持答案的一致性。對公眾來說,這些發(fā)現(xiàn)提醒我們在使用人工智能時(shí)要多加注意;對于研究人員來說,他們?yōu)楦倪M(jìn)人工智能提供了新的想法。
在未來,人工智能可能會變得更強(qiáng)大,但現(xiàn)在理解它的“思維”方式可以讓我們更好地與人工智能合作,但請確保這個合作系統(tǒng)的領(lǐng)導(dǎo)者應(yīng)該是你自己,而不是人工智能。
訪談
更多做行業(yè)賦能者 HID迎接數(shù)字化浪潮新機(jī)遇 破解新挑戰(zhàn)
今年3月份,全球可信身份解決方案提供商HID發(fā)布了最新的《安防行業(yè)現(xiàn)狀報(bào)告》(以下簡稱“報(bào)告”),該報(bào)告…
數(shù)字化浪潮下,安防廠商如何滿足行業(yè)客戶的定制化需求?
回顧近兩年,受疫情因素影響,包括安防在內(nèi)的諸多行業(yè)領(lǐng)域都遭受了來自市場 “不確定性”因素的沖擊,市場…
博思高鄧紹昌:乘產(chǎn)品創(chuàng)新及客戶服務(wù)之舟,在市場變革中逆風(fēng)飛揚(yáng)
11月24日,由慧聰物聯(lián)網(wǎng)、慧聰安防網(wǎng)、慧聰電子網(wǎng)主辦的2022(第十九屆)中國物聯(lián)網(wǎng)產(chǎn)業(yè)大會暨品牌盛會,在深…