如果人工智慧變得有意識:研究人員將如何知道
從六種基於神經科學的意識理論得出的清單可以幫助評估。
來源:nature
科幻小說長期以來一直認為人工智慧變得有意識——想想1968年電影《2001:太空漫遊》中超級電腦變身的反派HAL 9000。隨著人工智慧(AI)的快速發展,這種可能性變得越來越不神奇,甚至得到了人工智慧領導者的認可。例如,去年,聊天機器人ChatGPT背後的公司OpenAI的首席科學家 Ilya Sutskever在推特上表示,一些最先進的AI網路可能「有點意識」。。
許多研究人員表示,人工智慧系統還沒有達到意識的地步,但人工智慧進化的步伐讓他們思考:我們怎麼知道它們是否有?
為了回答這個問題,一個由19名神經科學家、哲學家和計算機科學家組成的小組提出了一份標準清單,如果滿足這些標準,將表明一個系統有很高的意識機會。在同行評審之前,他們本周早些時候在arXiv預印本存儲庫中發佈了他們的臨時指南。作者之所以做出這項努力,是因為“似乎真的缺乏對人工智慧意識的詳細、基於經驗、深思熟慮的討論,”共同作者、加州舊金山研究非營利組織人工智慧安全中心的哲學家羅伯特·朗(Robert Long)說。
該團隊表示,未能確定人工智慧系統是否已經變得有意識具有重要的道德影響。根據加州大學歐文分校神經科學家梅根·彼得斯(Megan Peters)的說法,如果某件事被貼上了“有意識”的標籤,“這在很大程度上改變了我們作為人類認為應該如何對待實體”。
Long補充說,據他所知,建立先進人工智慧系統的公司沒有做出足夠的努力來評估意識模型,並制定如果發生這種情況該怎麼辦的計劃。“儘管事實上,如果你聽聽領先實驗室負責人的言論,他們確實會說人工智慧意識或人工智慧感知是他們想知道的東西,”他補充道。
《自然》雜誌聯繫了兩家參與推進人工智慧的主要科技公司——Microsoft和谷歌。Microsoft發言人表示,該公司的人工智慧開發集中在以負責任的方式幫助人類生產力,而不是複製人類智慧。自推出GPT-4(公開發佈的ChatGPT的最先進版本)以來,很明顯的是,“在我們探索如何充分發揮人工智慧的潛力以造福整個社會時,需要新的方法來評估這些人工智慧模型的能力”,發言人說。谷歌沒有回應。
什麼是意識?
在人工智慧中研究意識的挑戰之一是定義意識的含義。彼得斯說,為了報告的目的,研究人員專注於“現象意識”,也稱為主觀體驗。這就是存在的體驗——作為一個人、一個動物或一個人工智慧系統是什麼感覺(如果其中一個確實是有意識的)。
有許多基於神經科學的理論描述了意識的生物學基礎。但對於哪個是“正確”的還沒有達成共識。因此,為了創建他們的框架,作者使用了一系列這些理論。這個想法是,如果一個人工智慧系統以一種與許多這些理論相匹配的方式運作,那麼它更有可能是有意識的。
他們認為,這是評估意識的更好方法,而不是簡單地對系統進行行為測試——比如,詢問ChatGPT它是否有意識,或者挑戰它,看看它是如何反應的。這是因為人工智慧系統已經非常擅長模仿人類。
該小組的方法,作者描述為理論繁重,是一個很好的方法,根據神經科學家Anil Seth的說法,他是英國布萊頓附近的蘇塞克斯大學意識科學中心主任。然而,它強調的是,「我們需要更精確、經過充分檢驗的意識理論」 ,他說。
理論重的方法
為了發展他們的標準,作者假設意識與系統如何處理資訊有關,無論它們是由什麼組成的 – 無論是神經元,電腦晶片還是其他東西。這種方法稱為計算功能主義。他們還假設,通過腦部掃描和其他技術在人類和動物中進行研究的基於神經科學的意識理論可以應用於人工智慧。
基於這些假設,研究小組選擇了其中的六個理論,並從中提取了意識指標清單。例如,其中之一 – 全球工作空間理論 – 斷言人類和其他動物使用許多專門的系統(也稱為模組)來執行認知任務,例如視覺和聽覺。這些模組獨立工作,但並行工作,它們通過集成到單個系統中來共享資訊。Long說,一個人會評估一個特定的人工智慧系統是否顯示從這個理論衍生出來的指標,“通過觀察系統的架構以及資訊如何流經它”。
Seth對團隊提案的透明度印象深刻。“這是非常深思熟慮的,它不是誇張的,它使它的假設非常清晰,”他說。“我不同意一些假設,但這完全沒問題,因為我很可能錯了。
作者說,這篇論文遠非如何評估人工智慧系統的意識的最終結論,他們希望其他研究人員幫助改進他們的方法。但已經可以將這些標準應用於現有的人工智慧系統。例如,該報告評估了ChatGPT等大型語言模型,並發現這種類型的系統可以說具有與全球工作空間理論相關的一些意識指標。然而,最終,這項工作並沒有表明任何現有的人工智慧系統都是意識的有力候選者——至少現在還沒有。
※版權所有,歡迎媒體聯絡我們轉載;登錄本網按讚、留言、分享,皆可獲得 OCTOVERSE 點數(8-Coin),累積後可兌換獎品,相關辦法以官網公布為準※