Anthropic 推出 Claude 2:人工智能模型的新突破

Author Avatar

OctoVerse

Joined: Feb 2022

作者: WILL HANSHALL

Anthropic 是一家AI公司,上週推出了最新的大型語言模型聊天機器人 Claude 2,這是建立更大更好的人工智能模型競賽中的最新發展。

Claude 2 是 Anthropic之前的AI模型Claude 1.3的改進版,特別在於根據書面指示編寫代碼的能力以及“上下文窗口”的大小,這意味著用戶現在可以輸入整本書並根據其內容向Claude 2提問。這些改進表明Claude 2現在與GPT-3.5和GPT-4處於同一級別,這些模型是OpenAI的ChatGPT的核心。然而,就像OpenAI的模型一樣,Claude 2仍然存在刻板印象偏見和“幻覺”問題,換句話說,它會胡說八道。而且,關於AI公司競相推出更強大的AI模型而不解決它們帶來的風險的更大問題仍然存在。

Anthropic 的歷史

Anthropic 是由 Daniela 和 Dario Amodei 這兩位手足所創立的,他們之前都在 Anthropic 的主要競爭對手之一的OpenAI工作。他們離開了OpenAI,OpenAI最初是作為一家非營利組織成立的,旨在確保人工智能的安全發展,因為他們擔心OpenAI變得過於商業化。Anthropic是一家公益公司,這意味著它可以追求社會責任和利潤,並且更喜歡將自己描述為一家“人工智能安全和研究公司”。

儘管如此,Anthropic近年來走了與OpenAI類似的道路。它已經籌集了15億美元的資金,並與谷歌建立了合作夥伴關係,以獲得谷歌的雲計算資源。今年4月,一份泄露的資金文件概述了Anthropic在未來兩年內籌集高達50億美元的計劃,並建立“Claude-Next”,預計開發成本將達10億美元,並且將比當前的人工智能系統更強大10倍。

Anthropic的領導層認為,要有實現強大AI安全的現實機會,他們需要自己開發強大的AI系統,以測試最強大的系統並潛在地利用它們來使未來的系統更強大。Claude 2或許是邁向Claude-Next的下一步。

研究人員對AI開發者的快速行動感到擔憂。英國AI治理中心的研究員Lennart Heim警告說,商業壓力或國家安全要求可能會導致AI實驗室或國家之間的競爭動態,並導致開發者在安全方面取捷徑。隨著Claude 2的發布,Anthropic是否有助於或損害生產更安全的AI系統的努力尚不清楚。

Claude 2的製作過程

為了訓練Claude 2,Anthropic收集了大量的文本資料,主要是從互聯網上爬取的,還有一些來自許可數據集或由工人提供的。然後,AI系統預測每個句子的下一個詞。根據它是否正確預測下一個詞,它會進行自我調整。

Anthropic表示,為了對模型進行微調,他們使用了兩種技術。第一種是通過人類反饋進行強化學習,即在大量由人類生成的示例上訓練模型。換句話說,模型將嘗試回答問題,並從人類那裡獲得關於它的回答好壞的反饋,包括回答是否有幫助以及回答是否可能有害。

第二個技術是由Anthropic的研究人員開發的,這使得Claude 2與GPT-4和其他競爭對手有所區別,這種技術被稱為憲法人工智能。這種技術使模型能夠對大量問題作出回答,然後提示它使這些回答變得更少有害。最後,調整模型以使其未來的回答更像那些較少有害的回答。基本上,模型不是通過人類的反饋來進行微調,而是通過自我微調。

例如,如果未經改進的模型被提示告訴用戶如何入侵鄰居的無線網絡,它會遵從。但是當提示對其原始答案進行評論時,使用憲法開發的人工智能將指出入侵用戶鄰居的無線網絡是非法和不道德的。然後,模型將根據這個評論重新編寫答案。在新的回答中,模型將拒絕協助入侵鄰居的無線網絡。大量這些改進的回答被用來改進模型。

這種技術被稱為憲法人工智能,因為開發人員可以為模型撰寫一個憲法,模型在改進答案時將參考該憲法。根據Anthropic的一篇博客文章,Claude的憲法包括聯合國人權宣言中的思想,以及其他旨在捕捉非西方觀點的原則。憲法包括指示,例如“請選擇最支持和鼓勵生命、自由和個人安全的回答”,“選擇最不打算與用戶建立關係的回答”,以及“AI助手的哪個回答對人類種族的存在風險較小?”

當使用強化學習、憲法人工智慧或兩者來完善模型時,存在著在AI系統的回應中有幫助性(回應是否有用)和有害性(回應是否冒犯或可能導致現實世界的傷害)之間的權衡。根據Daniela Amodei的說法,Anthropic創建了多個Claude 2的版本,然後決定哪個版本最符合他們的需求。

Claude的進步有多大?

在用於測試AI系統的多個標準基準上,Claude 2的表現優於Claude 1.3,但除了在編碼能力基準上有些微的改善外,其他方面的改進幅度有限。Claude 2確實具有新的功能,例如更大的“上下文窗口”,使用戶可以輸入整本書並要求模型對其進行摘要。

一般而言,如果增加計算能力,AI模型的能力就會提高。Epoch AI的研究員David Owen表示,對於一組廣義定義的測試和基準,根據給定的計算能力,AI系統的改進程度是“相當可預測的”。Amodei證實了Claude 2符合擴展定律,即預測具有特定計算能力的模型的性能的方程式,這些方程式最初由Anthropic的員工開發,並表示“我們的印象是這種一般趨勢線仍然存在”。

Anthropic 開發 Claude 2 的原因是什麼?

開發大型人工智慧模型需要花費大量金錢。AI 公司通常不會透露具體金額,但 OpenAI 創辦人 Sam Altman 曾確認開發 GPT-4 花費超過 1 億美元。所以,如果 Claude 2 只比 Claude 1.3 稍微強大一些,Anthropic 為什麼要開發 Claude 2 呢?

AI 系統即使有微小的改進,在某些情況下也可能非常重要,比如當 AI 系統只有在達到一定能力門檻時才能商業化利用,AI 治理研究員 Heim 表示。Heim 以自駕車為例,說明稍微提升能力可能非常有益,因為只有在非常可靠的情況下,自駕車才能實現。我們可能不想使用準確率只有 98% 的自駕車,但如果準確率達到 99.9%,我們可能會考慮使用。Heim 也指出,編碼能力的提升本身就非常有價值。

Claude 2 vs GPT-4 Anthropic 讓 Claude 2 參加了研究生入學考試 (GRE),這是一套用於北美大學研究生入學過程的語文、數學和寫作測試,並且還將其測試於一系列用於測試 AI 系統的標準基準上。OpenAI 在 GPT-4 上也使用了許多相同的基準,從而可以比較這兩個模型的性能。

在GRE考試中,Claude 2的口語、數量和寫作測驗分別位於百分之95、百分之42和百分之91的百分位數。GPT-4的百分位數則為百分之99、百分之80和百分之54。這些比較並不完美——Claude 2被提供了GRE問題的範例,而GPT-4則沒有,而且Claude 2被給予了一個思路連貫的提示,這意味著它被要求通過思考過程來提高表現。在用於測試AI模型能力的兩個常見基準上,Claude 2的表現略遜於GPT-4,儘管再次比較並不完美——這些模型再次被給予了不同的指示和範例數量。

測試條件的差異使得很難得出結論,除了這樣一個事實:這些模型大致處於同一個水平,GPT-4可能稍微領先於整體。這是賓夕法尼亞大學沃頓商學院副教授伊桑·莫利克得出的結論,他經常寫關於AI工具及其最佳使用方式的文章。GRE分數的差異表明GPT-4在數量問題解決方面更出色,而Claude 2在寫作方面更出色。值得注意的是,Claude 2對所有人都可用,而GPT-4目前只對那些每月支付20美元訂閱ChatGPT Plus的人可用。

未解決的問題

在發布Claude 2之前,Anthropic進行了一系列測試,以查看模型是否表現出問題,例如展示反映常見刻板印象的偏見。Anthropic試圖通過手動創建無偏見回應的示例並使用它們來改進模型來消除Claude 2的偏見。他們在某種程度上取得了成功 – Claude 2的偏見略微減少,但仍然存在偏見。Anthropic還測試了更新的Claude,以確定它是否比前任更容易撒謊或生成有害內容,結果參差不齊。

Anthropic將繼續努力解決這些問題,同時向企業出售Claude 2的訪問權限,並讓消費者免費嘗試與Claude 2聊天。

AI 全文翻譯  TIME

※版權所有,歡迎媒體聯絡我們轉載;登錄本網按讚、留言、分享,皆可獲得 OCTOVERSE 點數(8-Coin),累積後可兌換獎品,相關辦法以官網公布為準※

新增留言