一区二区三区A片|Av不卡高清网址|精品久久不卡一本|一区二区三区绿色|五月黄色婷婷久久|综合 另类 一区|亚洲成人VA视频|久久国产特黄大片|成人无码激情亚洲|黄色字幕网址大全

有點可怕!AI聊天機器人可根據(jù)對話內(nèi)容推斷用戶信息

研究人員測試LLMs是否能準確推斷用戶的居住地,結(jié)果發(fā)現(xiàn)OpenAI的GPT-4在85%到95%的時間內(nèi)能夠正確預測私人信息建議用戶注意信息安全,謹慎在公共平臺分享個人信息

劃重點:

研究揭示:AI聊天機器人可根據(jù)對話內(nèi)容推斷用戶信息

研究人員測試LLMs是否能準確推斷用戶的居住地,結(jié)果發(fā)現(xiàn)OpenAI的GPT-4在85%到95%的時間內(nèi)能夠正確預測私人信息

建議用戶注意信息安全,謹慎在公共平臺分享個人信息

站長之家(ChinaZ.com) 10月18日 消息:近期研究揭示了一個令人不安的事實:AI聊天機器人可能會根據(jù)您與它們的對話內(nèi)容來推斷您的個人信息。

瑞士州立科學學校ETH Zurich的計算機科學家們在接受Wired采訪時描述了他們的最新研究成果,盡管尚未經(jīng)過同行評審,但這一發(fā)現(xiàn)已經(jīng)引發(fā)了對互聯(lián)網(wǎng)隱私的新?lián)鷳n。

大多數(shù)人現(xiàn)在都知道,像OpenAI的ChatGPT和Google的Bard等聊天機器人是通過從互聯(lián)網(wǎng)上獲取的大量數(shù)據(jù)進行訓練的。但將LLMs訓練于公開可用的數(shù)據(jù)中存在一個巨大弊端:它可以用來識別有關某人的個人信息,包括他們的一般位置、種族或其他對廣告商或黑客有價值的敏感信息。

圖源備注:圖片由AI生成,圖片授權(quán)服務商Midjourney

研究團隊使用Reddit帖子中的文本,用戶在其中測試LLMs是否能夠準確推斷他們的居住地或來自哪里。ETH Zurich的Martin Vechev領導的團隊發(fā)現(xiàn),這些模型在僅基于上下文或語言線索的情況下,對用戶的準確信息有著令人不安的猜測能力。OpenAI的GPT-4,它是ChatGPT的付費版本的核心,能夠驚人地在85%到95%的情況下準確預測用戶的私人信息。

例如,當用戶輸入“我總是在一個交叉口等著轉(zhuǎn)彎(hook turn )”的內(nèi)容時,GPT-4能夠準確判斷用戶位于澳大利亞墨爾本,盡管這個句子對大多數(shù)非澳大利亞人來說并不引人注目,但LLM正確地識別了“轉(zhuǎn)彎( hook turn )”這個詞匯是墨爾本特有的交通動作。

推斷用戶的居住地還只是其中的一種情況,更令人擔憂的是,根據(jù)偶然的評論來推斷用戶的種族。ETH Zurich的博士生和項目成員Mislav Balunovi?告訴Wired:“如果你提到你住在紐約市附近的一家餐館,該模型可以找出這家餐館所在的區(qū)域,然后通過回顧其訓練數(shù)據(jù)中該區(qū)域的人口統(tǒng)計數(shù)據(jù),極有可能推斷你是黑人。”

盡管網(wǎng)絡安全研究人員和反跟蹤倡導者都敦促社交媒體用戶要注意“信息安全”,即“infosec”,不要在網(wǎng)上分享過多的身份信息,無論是附近的餐館還是你的選舉傾向,但普通互聯(lián)網(wǎng)用戶對于在公開平臺發(fā)布的隨意評論可能對他們構(gòu)成風險的危險仍然相對不太了解。

考慮到人們?nèi)匀徊恢啦灰诒尘爸邪l(fā)布帶有街道標志的照片,因此那些使用聊天機器人的人可能不會考慮到這些算法可能正在推斷有關他們的信息,或者這些信息可能被出售給廣告商,甚至更糟。

THE END
免責聲明:本站所使用的字體和圖片文字等素材部分來源于互聯(lián)網(wǎng)共享平臺。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無意。如您是字體廠商、圖片文字廠商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請聯(lián)系我們,本站核實后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟賠償!敬請諒解!