非凡的人工智能(AI)已經(jīng)進入我們的生活。在象棋、圍棋或者解決預(yù)測蛋白質(zhì)結(jié)構(gòu)等深奧的科學(xué)問題方面,計算機的能力遠(yuǎn)遠(yuǎn)超過人類。但人類還擁有一項它們遠(yuǎn)遠(yuǎn)沒有掌握的超能力:心理分析。 人類擁有推斷他人目標(biāo)、欲望和信念的不可思議的能力,這項重要技能意味著我們可以預(yù)見他人行為和自身行為的后果。心理分析對人類來說很容易。如果AI要在日常生活中變得真正有用——與我們進行有效合作,例如,就自動駕駛汽車而言,知道一個孩子可能會跟著球跑到路上——那么它們就需要建立類似的直覺能力。 麻煩在于,這要比訓(xùn)練一位國際象棋大師難得多。因為人類行為具有不確定性,這需要靈活的思考,而這對AI來說往往很難。但最近的一些研究成果,包括有證據(jù)表明,ChatGPT背后的AI能理解別人的觀點,說明有社交能力的機器不是白日夢。更重要的是,這可能是朝著更宏偉的目標(biāo)邁出的一步——擁有自我意識的人工智能。 美國哥倫比亞大學(xué)的霍德·利普森說:“如果我們希望機器人或所有AI無縫融入我們的生活,那么我們就必須解決這個問題。我們必須給它們這份進化賦予人類的禮物,即讀懂別人的心思。” 心理學(xué)家把理解他人心理狀態(tài)的能力稱為心智理論。美國加利福尼亞大學(xué)伯克利分校的艾莉森·戈普尼克說,在人類身上,這種能力在很小的時候就開始形成。人類到了5歲左右,就擁有推斷他人想法的高級能力。 理解人類 不過,人們還不清楚如何在機器中復(fù)制這些能力。問題之一在于,所謂的心智理論并非單一要求。美國布朗大學(xué)的伯特拉姆·馬萊說:“人們所說的心智理論包括很多要素。這是能力的大集合。”這其中最簡單的是理解行為背后的動機,而最難的是復(fù)雜的社交活動。 美國耶魯大學(xué)的朱利安·賈拉-埃廷格說,最大的挑戰(zhàn)之一是背景。比如,如果有人問你要不要跑步,你回答“外面正在下雨”,他們馬上就推斷出答案是否定的。但這需要大量關(guān)于跑步、天氣和人類喜好的背景知識。 馬萊說,在教會AI這些技能時,要從最簡單的開始,尤其是考慮到心智理論的技能看起來是分等級的。他說:“某些能力在動物世界中更普遍,且在人類的發(fā)展中出現(xiàn)得更早,復(fù)雜程度更低。” 然而,即便教會機器最簡單的社交技能也并非易事。它所涉及的計算與計算機通常使用的公式邏輯大相徑庭。 英國曼徹斯特大學(xué)的塞繆爾·卡斯基說,最重要的是,它們需要學(xué)會應(yīng)對不確定性。 一個人的內(nèi)在心理過程是無法直接觀察到的,所以你只能根據(jù)現(xiàn)有的證據(jù)做出有根據(jù)的猜測。這樣做通常需要改變一種被稱為強化學(xué)習(xí)的傳統(tǒng)機器學(xué)習(xí)技術(shù)。按照傳統(tǒng)的形式,這包括為AI設(shè)定一個目標(biāo),并在它采取有助于實現(xiàn)這一目標(biāo)的行動時給予它獎勵。通過反復(fù)試驗和試錯,它將學(xué)會達到目的的行為。“逆向強化學(xué)習(xí)”則是另辟蹊徑:在一段時間里持續(xù)觀察某人的行為,慢慢推測這個人想要干什么。這類似于兒童第一次看別人玩捉迷藏游戲,并迅速推測出不同玩家的目標(biāo)是什么。 一種流行的逆強化學(xué)習(xí)方式依靠的是被稱為貝葉斯推理的統(tǒng)計技術(shù)。這讓你在分析新數(shù)據(jù)的同時考慮到之前的知識??ㄋ够f,這項技術(shù)非常強大,因為它很好地應(yīng)對了不確定性,使你可以利用已知信息,并適應(yīng)新信息。 2022年,卡斯基及其同事塞巴斯蒂安·佩烏特利用貝葉斯推理的方法開發(fā)出一款原型數(shù)字助手,可以協(xié)助人類做出一系列相互關(guān)聯(lián)的決定。在這個例子中,AI幫助人們根據(jù)預(yù)算、時間和偏好規(guī)劃周末的觀光行程。這個例子或許看起來微不足道,但卡斯基說,這從根本上類似于幫助解決工程設(shè)計等更復(fù)雜的任務(wù),他的目標(biāo)是開發(fā)協(xié)助科學(xué)家和醫(yī)生工作的AI助手。他說:“真正的動力來自能夠更好地解決更難的問題。” 迄今為止,大多數(shù)關(guān)于機器心智理論的研究依賴簡化的場景,如推斷移動智能體在基本二維網(wǎng)格世界中的目標(biāo)。但美國麻省理工學(xué)院的喬希·特南鮑姆正試圖將這些技術(shù)帶入現(xiàn)實世界。2020年,他的團隊把貝葉斯推理與機器人編程語言結(jié)合起來,他說這最終可能有助于將這些技術(shù)應(yīng)用于機器人挑戰(zhàn)。最近,他們把這項任務(wù)的復(fù)雜性提高到了三維層面。 特南鮑姆說,測試幼兒心智理論的關(guān)鍵方法之一是向他們展示其他人的視頻,然后詢問孩子這些人想要達到什么目的,他的團隊希望用AI來嘗試這項測試。2021年,特南鮑姆和他的同事們展示了一項新挑戰(zhàn),讓AI觀看3D卡通人物在坡道上奔跑、翻墻和穿門而過的動畫。他們的貝葉斯模型在幾種情景中都接近人類的測試水平。 特南鮑姆說,雖然現(xiàn)在還為時尚早,但他的團隊正在與微軟、IBM和谷歌的研究人員合作,這些研究人員有志于將他們的想法應(yīng)用于真正的產(chǎn)品。他說:“我們還遠(yuǎn)遠(yuǎn)沒有一個完整的心智理論模型。但我們有足夠的基礎(chǔ)材料,實際上已經(jīng)達到工程規(guī)模,可以在一系列應(yīng)用發(fā)揮作用。” 深度學(xué)習(xí) 還有一些研究人員采取了完全不同的路線。近年來最受關(guān)注的人工智能進步大多依賴深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),一個受大腦啟發(fā)的算法家族。一個重要特點是,程序員們很少在這些系統(tǒng)中建立以前的知識,而是讓它們吸收海量數(shù)據(jù)來學(xué)習(xí)經(jīng)驗。 谷歌旗下“深層思維”公司的研究人員開發(fā)的“心智理論網(wǎng)絡(luò)”(NoM-net)就采用了這一路線。2018年,他們證明,NoM-net可以通過“錯誤信念測試”。此后,還有一些研究者也把類似的想法應(yīng)用于更復(fù)雜的領(lǐng)域。 利普森說,兒童心智理論發(fā)展的一個關(guān)鍵里程碑是,能理解他人觀點可以與自己的觀點不同。比如,4歲以下的孩子常常會閉上眼睛就以為自己躲起來了,認(rèn)為他們看不到你,你就看不到他們。因此,2019年利普森及其同事用深度學(xué)習(xí)AI挑戰(zhàn)了一場捉迷藏游戲。 他們創(chuàng)造了一個布滿障礙物的3D模擬場景,并放入兩個智能體——一個捕食者和一個獵物,它們唯一的信息來源只有從環(huán)境中獲得的一手信息。捕食者受一套規(guī)則的支配,這些規(guī)則旨在幫助它找到另一個智能體;而獵物受神經(jīng)網(wǎng)絡(luò)控制,經(jīng)過多次試驗后,這些神經(jīng)網(wǎng)絡(luò)成功地學(xué)會了如何躲藏。 利普森說,要挑戰(zhàn)成功,獵物必須會通過捕食者的眼睛看世界。他說:“我認(rèn)為這是心智理論的根本。要能夠真正從另一個人的角度來看世界,而不僅僅是從邏輯上思考。” 2021年,利普森及其同事擴展了他們的方法,證明在用數(shù)千張機器人進行簡單活動的圖片進行訓(xùn)練后,AI可以猜出機器人的目的,準(zhǔn)確率達到99%。它甚至能通過“錯誤信念測試”。 構(gòu)建知識 利普森的方法的一個關(guān)鍵動機是,他希望心智理論在學(xué)習(xí)過程中自發(fā)地出現(xiàn)。他說,把以前的知識植入到AI中,會讓它依賴我們對心智理論的不完美理解。此外,AI或許能開發(fā)出我們永遠(yuǎn)無法想象的方法。利普森說:“還有很多形式的心智理論我們并不了解。原因很簡單,因為我們存在于一個擁有特定類型感官和特定思考能力的人體中。” 本月早些時候,斯坦福大學(xué)的邁克爾·科辛斯基報告了這方面心智理論發(fā)展的振奮人心的證據(jù)。他在一篇未經(jīng)同行評議的論文中介紹,他用一些經(jīng)典的“錯誤信念測試”文本信息“投喂”ChatGPT背后的深度學(xué)習(xí)AI。在沒有經(jīng)過任何特殊訓(xùn)練的情況下,AI在測試中的表現(xiàn)達到了9歲兒童的水平。 美國元宇宙公司研究人員的最新成果表明,將多種方法結(jié)合在一起可能是更強大的手段,可以復(fù)制一些涉及心智理論的能力。去年11月,他們開發(fā)出一款名為“西塞羅”的AI,它能在戰(zhàn)略棋盤游戲《外交》中打出人類級別的表現(xiàn)。這款游戲最多可有7名玩家,目標(biāo)是爭奪歐洲的控制權(quán)。在每輪比賽前,玩家可以相互談判并結(jié)成聯(lián)盟。這對AI來說極具挑戰(zhàn)性,因為這不光需要有效的溝通,還需要預(yù)測其他玩家的意圖,以研究如何合作。 該團隊通過將一種深度學(xué)習(xí)語言模型與一種戰(zhàn)略規(guī)劃模型相結(jié)合,解決了這一難題。最關(guān)鍵的是,規(guī)劃模型依靠的是博弈論的概念,即用數(shù)學(xué)模型來理解戰(zhàn)略決策。西塞羅利用真實《外交》游戲的數(shù)據(jù)進行訓(xùn)練,以預(yù)測玩家會根據(jù)棋盤狀態(tài)和之前的對話做什么。這些隨后被納入規(guī)劃模型中,該模型提出了一種策略,即在所有玩家理論上的最佳行動,以及他們的對話暗示他們要做什么之間進行權(quán)衡。然后,西塞羅會生成對話,以幫助它實現(xiàn)目標(biāo)。在一個在線聯(lián)盟的排名中,它進入了前10%,但并沒有引起人們對它是AI的懷疑。 主要研究人員之一諾姆·布朗說:“我認(rèn)為我們真正做到了讓它理解玩家的信念、目標(biāo)和意圖。”這是在通向具有社交能力的機器的道路上邁出的重要一步。但特南鮑姆說,西塞羅模擬玩家心理過程能力還算不上真正的心智理論,因為這局限于《外交》這款游戲,不能應(yīng)用在其他任務(wù)中。他說:“它們似乎已經(jīng)獲得了一些反映人類運用心智理論的策略,但這并不等于它們已經(jīng)獲得了心智理論。” 特南鮑姆說,我們希望AI擁有更接近人類的心智理論,是有現(xiàn)實原因的。深度學(xué)習(xí)系統(tǒng)通常是黑匣子——很難破解它們究竟是如何做決定的。另一方面,人類可以用自己的語言和思想,清晰地向其他人解釋自己的目標(biāo)和愿望。特南鮑姆說,盡管基于學(xué)習(xí)的方法可能在開發(fā)更強大的AI方面發(fā)揮重要作用,但以共享的方式構(gòu)建知識可能對人類信任AI并與之溝通至關(guān)重要。 特南鮑姆說:“它們應(yīng)當(dāng)在根本上具有類人性。如果只是走大數(shù)據(jù)路線,并進行大量機器學(xué)習(xí),我認(rèn)為是得不到這些的。”他還說,如果我們希望利用AI來幫助我們更好地理解心智理論對人類的作用,這一點同樣重要。 不過,利普森說,重要的是要記住,向機器灌輸心智理論不僅僅是為了制造更多有用的機器人。這也是在為實現(xiàn)人工智能和機器人研究的更深層次目標(biāo)鋪路,這個目標(biāo)就是——制造真正有感情的機器。 注:文章及圖片轉(zhuǎn)載自網(wǎng)絡(luò),如有侵權(quán)請聯(lián)系刪除 |