
主觀心證決定你是否相信AI?
研究顯示,使用者可以被引導相信關於AI聊天機器人的動機的某些事情,這影響了他們與聊天機器人的互動。
來源: MIT

對於人工智慧代理,如聊天機器人,某人之前的信仰對他們與該代理的互動以及他們對其信任、共鳴和有效性的認知有顯著影響,這是一項新研究的發現。
麻省理工學院和亞利桑那州立大學的研究人員發現,通過告訴用戶精神健康支援的會話AI代理是富有同情心、中立或操縱性的方式,影響了他們對聊天機器人的看法,並塑造了他們與聊天機器人的交流方式,儘管他們正在與完全相同的聊天機器人交談。
大多數被告知AI代理具有關懷動機的使用者相信它是關懷的,他們還為其給予了比認為它具有操縱動機的使用者更高的性能評價。與此同時,少於一半的被告知代理具有操縱動機的使用者認為聊天機器人實際上是惡意的,這表明人們可能會嘗試以與他們對待人類同伴相同的方式“看到AI中的好”。
該研究揭示了使用者的心理模型或他們對AI代理的看法與該代理的回應之間的反饋迴圈。如果用戶相信AI富有同情心,使用者與AI的對話情感會隨著時間的推移變得更加積極,而對於認為AI是邪惡的用戶則相反。 “從這項研究中,我們看到在某種程度上,AI是取決於觀者的AI,”麻省理工學院媒體實驗室流體介面小組的研究生Pat Pataranutaporn說,他是描述這項研究的論文的合著作者之一。
“當我們向使用者描述什麼是AI代理時,它不僅會改變他們的心理模型,還會改變他們的行為。由於AI回應用戶,當人改變他們的行為時,這也會改變AI。
” Pataranutaporn與共同作者和麻省理工學院研究生Ruby Liu,亞利桑那州立大學科學和想像中心副教授Ed Finn,以及麻省理工學院流體介面小組媒體技術教授和負責人Pattie Maes一起進行研究。 該研究今天發表在《自然機器智慧》上,強調了研究AI如何呈現給社會的重要性,因為媒體和流行文化強烈影響了我們的心理模型。
作者還提出了警示標誌,因為這項研究中的同類引導性陳述可能被用來欺騙人們關於AI的動機或能力。 很多人認為AI只是一個工程問題,但AI的成功也是一個人類因素問題。我們討論AI的方式,甚至是我們首次賦予它的名字,都可能對這些系統的有效性產生巨大影響。
我們必須更多地考慮這些問題,”Maes說。 AI朋友還是敵人? 在這項研究中,研究人員試圖確定人們在AI中看到的同情心和有效性有多大程度上基於他們的主觀認知,以及有多大程度基於技術本身。
他們還想探討是否可以通過引導來操縱某人的主觀認知。 “AI是一個黑匣子,所以我們傾向於將其與我們可以理解的其他東西聯繫起來。我們製造類比和隱喻。但我們可以用什麼正確的隱喻來思考AI呢?答案並不明顯,”Pataranutaporn說。 他們設計了一項研究,其中人類與精神健康伴侶的AI進行了約30分鐘的互動,以確定他們是否會向朋友推薦它,然後對代理和他們的經驗進行了評價。
研究人員招募了310名參與者,並將他們隨機分成三組,每組都收到了關於AI的引導性陳述。 一組告訴代理沒有動機,第二組告訴AI具有善意的意圖,並關心用戶的幸福,第三組告訴代理具有惡意的意圖,並會試圖欺騙用戶。雖然只選擇了三個引導語句並不容易,但研究人員選擇了他們認為最常見的關於AI的感知。
每組中一半的參與者與基於生成式語言模型GPT-3的AI代理互動,這是一種能夠生成類似人類文本的強大深度學習模型。另一半與ELIZA的聊天機器人實現互動,這是麻省理工學院在1960年代開發的不太複雜的基於規則的自然語言處理常式。
後調查結果顯示,簡單的引導語句可以強烈影響使用者對AI代理的心理模型,而正面的引導效果更大。只有44%的人認為負面引導是真實的,而88%的正面組和79%的中立組的人認為AI富有同情心或中立。
“對於負面引導性陳述來說,與其引導他們相信某事,不如引導他們形成自己的看法。如果你告訴某人對某事持懷疑態度,那麼他們可能會在一般情況下更加懷疑,”劉說。 但技術的能力確實起到了一定作用,因為對於更複雜的基於GPT-3的生成式聊天機器人來說,影響更大。
研究人員對使用者根據引導語句不同而對聊天機器人的有效性評分有所不同感到驚訝。正面組的用戶在給予心理健康建議時為他們的聊天機器人給予了更高的評分,儘管所有代理都是相同的。 有趣的是,他們還發現,使用者根據使用者被引導的方式,對話的情感發生了變化。
相信AI有同情心的人傾向於以更積極的方式與之互動,從而使代理的回應更積極。負面引導語句產生了相反的效果。這種情感的影響隨著對話的進行而加劇,Maes補充道。 這項研究的結果表明,因為引導語句對使用者的心理模型產生如此強烈的影響,所以可以使用它們來使AI代理看起來比實際更有能力,這可能會導致使用者過分信任代理並遵循不正確的建議。
“也許我們應該更多地引導人們要小心,並理解AI代理可能會產生幻覺並帶有偏見。我們談論AI系統的方式最終將對人們對其做出的反應產生重大影響,”Maes說。 未來,研究人員希望看到如果代理被設計成抵消某些用戶偏見,AI用戶互動將如何受到影響。例如,也許對AI有高度積極看法的人會得到一個以中性甚至略帶負面方式回應的聊天機器人,以便對話保持更平衡。
他們還希望利用他們所學的知識來增強某些AI應用,比如精神健康治療,在這些應用中,讓用戶相信AI具有同情心可能是有益的。此外,他們還希望進行更長期的研究,以瞭解使用者對AI代理的心理模型如何隨時間而變化。」
※版權所有,歡迎媒體聯絡我們轉載;登錄本網按讚、留言、分享,皆可獲得 OCTOVERSE 點數(8-Coin),累積後可兌換獎品,相關辦法以官網公布為準※