據(jù)彭博新聞社網(wǎng)站8月9日報道,人工智能(AI)和相關(guān)技術(shù)構(gòu)成的一個比較微妙且隱蔽的威脅是它篡改記憶的能力。
心理學(xué)家伊麗莎白·洛夫特斯花了50年的時間來表明,人類多么容易被操縱去記住從未發(fā)生的事情,尤其是在檢方和警察詢問證人的時候。
洛夫特斯現(xiàn)在是加利福尼亞大學(xué)歐文分校教授。她與麻省理工學(xué)院的研究人員合作,探索AI如何操縱我們認為記得的內(nèi)容。即便受試者知道他們正在看的是AI生成的文本和圖像,也會發(fā)生這種操縱。
研究結(jié)果表明,AI可以增強人類植入錯誤記憶的能力。
在20世紀70年代開始的一系列著名實驗中,洛夫特斯表明,在適當?shù)陌凳鞠拢睦韺W(xué)家可以植入人們小時候在購物中心走失的記憶,或者他們在野餐時被雞蛋或草莓冰淇淋弄惡心的記憶。后一種情況其實使得人們不再想吃這些食物。盡管證據(jù)確鑿,我們?nèi)詿o法擺脫記憶就像記錄事件的磁帶的想法,而對自身頭腦的誤解使得我們?nèi)菀资軅Α?/FONT>
洛夫特斯解釋說:“信奉這種磁帶錄音機記憶模型的人似乎沒有意識到,記憶是個建設(shè)性的過程!彼忉屨f,我們的大腦會用在不同時間獲得的零碎信息構(gòu)建記憶。我們本能地將遺忘理解為丟失或消退的記憶,而不是添加錯誤細節(jié)。
麻省理工學(xué)院媒體實驗室的研究人員帕特·巴達拉努達蓬指出,記憶操縱與用深度偽造來欺騙人們是截然不同的過程。你不需要精心制作一個假《紐約時報》網(wǎng)站,你只需讓人們相信他們過去在那里看過一些東西。他說:“大家通常不會質(zhì)疑自己的記憶!
巴達拉努達蓬是關(guān)于三項記憶實驗的論文主要作者,其中第一項展示了聊天機器人審訊者如何通過把暗示嵌入問題來改變證人的證詞。
在這項研究中,參與者觀看了一段持械搶劫的視頻片段。然后,有些人被問了誤導(dǎo)性問題,比如:“劫匪停車的地方附近有監(jiān)控攝像頭嗎?”大約三分之一的參與者后來回憶說看到劫匪是開車來的。實際上并沒有車。錯誤記憶甚至在一周后仍然存在。
受試者被分為三組:一組沒有拿到誤導(dǎo)性問題,另一組拿到了書面問題,第三組接受了AI聊天機器人的提問。聊天機器人組形成的錯誤記憶是書面誤導(dǎo)信息組的1.7倍。
另一項研究表明,具有欺騙性的AI概述或聊天機器人很容易在人們閱讀的故事中插入錯誤記憶。巴達拉努達蓬說,甚至更令人擔憂的是,拿到誤導(dǎo)性AI概述或聊天記錄的參與者從閱讀中保留的真實信息較少,而且對他們回憶起的真實信息的信心較弱。
第三項研究展示了AI如何利用圖像和視頻植入錯誤記憶。研究人員將200名志愿者分成四組。每組參與者都觀看了一套24張圖片,其中有些是新聞網(wǎng)站上常見的圖片,還有些是個人照片,比如有人可能會在社交媒體上發(fā)布的婚紗照。
在幾分鐘后第二次觀看時,每組看到了不同版本的圖片。有一組看的是跟原先相同(未改變)的圖片。第二組看的是AI修改過的版本。第三組看的是由AI修改后的圖片轉(zhuǎn)換成的AI生成短視頻。最后一組看的是完全由AI生成圖片轉(zhuǎn)換成的AI生成視頻。
就連看到原有圖片的那一組也保留了一些錯誤記憶。這并不奇怪,因為要回憶起24張不同的圖片非常困難。但受到任何程度的AI操縱的參與者所報告的錯誤記憶都明顯多得多。記憶失真率最高的是觀看基于AI生成圖片的AI生成視頻的那一組。
年輕人比老年人更容易吸納錯誤記憶。教育水平似乎并不影響易感性。值得注意的是,錯誤記憶并不依賴于欺騙參與者相信AI生成的內(nèi)容是真實的。他們從一開始就被告知,他們將看到AI生成的內(nèi)容。
上述最新研究應(yīng)該會引發(fā)更多關(guān)于技術(shù)影響我們對現(xiàn)實理解的討論,而影響可能不僅僅是傳播錯誤信息。社交媒體算法還能通過制造有關(guān)人氣和影響力的錯誤印象,來鼓勵人們接受邊緣思想和陰謀論。 |