AI規範的規則

Author Avatar

葉孝明

Joined: Feb 2022

各國為科技監管開創不同道路 介紹中國、歐盟和美國如何限制人工智慧的指南

來源: nature

照片來源: OECD.AI

今年5月,科技公司OpenAI的首席執行官山姆·阿特曼在美國參議院的一次人工智慧(AI)聽證會上告訴參議員:“AI的監管是必要的。”許多技術專家和非專家都同意這一點,對AI的法律監管呼聲越來越高。經過兩年多的辯論,歐洲聯盟預計在今年通過其首部廣泛的AI法律。中國已經制定了AI的法規。

但在實際操作中,人們仍然對需要限制什麼、AI有多大的風險以及實際需要限制什麼存在爭議。即使總部位於加利福尼亞州的OpenAI和其他公司公開呼籲加強監管,這些公司仍然抵制歐盟提出的一些控制措施,並主張成立國際指導機構和自願承諾,而不是制定新法律。與此同時,技術是一個不斷變化的目標。

研究自動化對社會影響的柏林非營利組織AlgorithmWatch的執行主任馬蒂亞斯·斯皮爾坎普表示,迄今為止,三個主要參與者——美國、歐盟和中國——採取了不同的方法。歐盟非常謹慎——其即將出台的《人工智慧法》專注於禁止某些使用方式並允許其他使用方式,同時制定了AI公司應遵循的盡職調查。許多領先的AI公司所在的美國迄今為止是最不干預的。在中國,政府正試圖在保持對企業和言論的嚴格控制之間取得平衡。每個人都在試圖弄清楚AI是否需要特定程度的監管,因為現有法律可能已經解決了一些風險。

加利福尼亞州矽谷大型律師事務所Wilson Sonsini的首席創新官大衛·王表示:“許多人說這是人類有史以來最重要的創新。”“說‘停下來’很容易,但說‘往這個方向走’要困難得多。”

從某種意義上說,我們正在見證一個重大的監管實驗。

歐盟

按風險進行監管 今年6月,歐盟議會通過了《人工智慧法》——一項巨大的立法,將根據AI工具的潛在風險對其進行分類。儘管該法案可能會發生變化,因為它需要獲得歐盟三個投票機構——議會、歐洲委員會和歐盟理事會的一致同意——但目前的草案將禁止使用具有不可接受風險的軟體。《人工智慧法》將大多數預測性警務、情感識別和實時人臉識別等用途列為禁止使用。

AI軟體的許多其他用途將被允許,但根據風險的不同,將有不同的要求。這包括指導社會福利和刑事司法決策的工具,以及幫助企業選擇潛在雇員的工具。在這方面,歐盟法案要求開發人員展示他們的系統是安全的、有效的、符合隱私的、透明的、可解釋給用戶理解的和非歧視性的。

對於包括執法和教育中的軟件在內的“高風險”用途,該法案要求進行詳細的文檔記錄,自動記錄所有AI系統的使用情況,並對系統的準確性、安全性和公平性進行測試。

違反規定的公司可能會被罰款其全球年利潤的7%;法案生效後,他們將有大約兩年的時間來遵守,這可能要等到2025年。

對於什麼是高風險還存在疑問。去年,OpenAI向歐盟提交了一份白皮書,主張其大型語言模型(LLM,例如ChatGPT背後的模型)和圖像生成模型不應被視為這一類別。這些建議反映在目前的法案中,將“基礎”模型(通用AI系統,而不是專為特定應用而設計的系統)列為一個獨立的類別。這包括可以自動生成逼真文本、圖像和視頻的生成AI工具。

這裡的風險與可能用於執法的AI分類系統的風險不同。例如,圖像生成工具和LLM可能會導致有害內容的大量傳播,例如“報復性色情”、惡意程式、詐騙和虛假信息,並最終可能破壞人們對社會的信任。對於此類工具應要求什麼樣的透明度,以及是否可能強制執行這種透明度,這是一個重大問題。由於這些系統是在大量人類生成的文本和藝術上進行訓練的,版權侵犯也是一個未解決的問題。

歐盟要求基礎模型的提供者編制並公開版權保護材料的摘要,這些材料用於訓練數據,並訓練他們的模型以防止生成違法內容。該法案的現行文本還要求在AI生成內容時進行披露,但這僅適用於一種特定類型的“深度偽造”內容,即未經同意地描繪真實人物做出或說出他們未做出或說出的事情。

好的開始

Spielkamp表示,歐盟的方法是過於強硬還是過於薄弱,取決於你問誰。

政策分析師丹尼爾·勒弗(Daniel Leufer)表示同意。他在布魯塞爾的Access Now工作,這是一個捍衛數字權利的國際組織。“我認為行業對於它將如何扼殺所有創新,他們將永遠無法遵守它的說法有很多吹牛的成分,”勒弗說。“但這是一場常規的炫耀。”

柏林赫爾蒂學院研究AI及其監管的喬安娜·布萊森(Joanna Bryson)表示,她聽到的公司都歡迎這些法律,因為遵守這些法律不會給他們帶來沉重的負擔,並且會改善他們的產品。例如,微軟的一位發言人指出,該公司支持對監管的需求,包括歐盟的AI法案。

對歐盟方法的一個批評是,只要公司遵守與其應用風險類別相關的規則,他們就有強有力的辯護,以免因其系統可能造成的損害而承擔責任,Spielkamp表示。此外,一家公司可能會在另一家公司的工具上進行構建,而這家公司又在第三家公司的工具上進行構建,因此不清楚誰將對任何造成的損害負責。

英國紐卡斯爾大學的網路法專家莉蓮·愛德華茲(Lilian Edwards)表示,AI法案在通過之前將繼續發展,並警告不應在這一點上過度分析。但她認為這是“一個很好的開始”,其中包含了一些有用的技術細節,例如提供者需要警惕數據“污染”,即人們通過干擾其訓練數據來黑客入侵AI系統。

AI武器:俄羅斯在烏克蘭的戰爭表明世界必須實施禁令

愛德華茲表示,然而,她希望該法案通過一套標準來定義高風險的AI,而不是一個現有用例的清單,以使立法具有未來性。

歐盟已經制定了適用於AI的法規。例如,自2018年以來,其《通用數據保護條例》(GDPR)對個人身份識別數據的收集施加了限制。此外,歐盟公民已經通過GDPR擁有權利,了解自動決策中涉及的邏輯(有時稱為解釋權利),以及選擇退出的權利。然而,在實踐中,這些權利目前的用途有限:只有少數過程是完全自動化的,例如廣告投放,Ada Lovelace研究所的法律和數據法律政策主管邁克爾·伯特威斯爾(Michael Birtwistle)表示。

最後,對於特定的推薦和內容審核AI算法,歐盟去年通過了《數位服務法》,旨在遏制在線危險內容的流動。公司必須向用戶解釋其算法的工作原理並提供替代方案。該法案將從2024年2月正式生效,儘管包括谷歌、Facebook、X(前稱Twitter)和TikTok在內的大型在線平台必須在本月底前遵守。

美國: “裝模作樣的活動”

與歐盟相比,美國沒有廣泛的聯邦AI相關法律,也沒有重要的數據保護規定。

2022年10月,白宮科學與技術政策辦公室(OSTP)發布了《AI權利法案藍圖》,這是一份白皮書,描述了五項旨在指導AI使用和潛在監管的原則。該文件指出,自動化系統應該是安全和有效的,不應歧視,應保護人們的隱私並具有透明性:當系統為某人做出或關於某人做出決策時,應通知該人,告知系統的運作方式,並能夠選擇退出或由人類介入。

布朗大學計算機科學家蘇雷什·文卡塔蘇布拉曼尼安(Suresh Venkatasubramanian)表示:“從哲學上講,(藍圖和歐盟的AI法案)在確定AI監管目標方面非常相似:確保系統安全有效,無歧視和透明。”他在擔任OSTP科學與司法助理主任時共同撰寫了該藍圖。儘管美國在實施方面的想法與歐盟有所不同,但他補充說:“我認為他們在很多方面達成了共識。”

康奈爾大學科技政策研究所所長莎拉·克雷普斯(Sarah Kreps)表示,當一個國家概述其願景時,這可能是有幫助的,“但是藍圖和可實施的立法之間存在著巨大的差距”。

美國也舉行了與AI監管相關的國會聽證會和總統會議。今年7月,亞馬遜、Anthropic、谷歌、Inflection、Meta、微軟和OpenAI等七家美國公司與總統喬·拜登會面,宣布他們將實施測試產品、報告限制並開展可能有助於識別AI生成材料的水印等保護措施。然而,這些承諾模糊且無法執行。在當月的參議院聽證會上,Anthropic公司位於加利福尼亞州舊金山的負責人達里奧·阿莫迪(Dario Amodei)呼籲美國立法機構制定法律,要求對AI模型進行審計和安全測試;他還表示,他最擔心的是惡意使用AI系統的不良行為者。

“看起來有行動的樣子,”西雅圖華盛頓大學科技政策實驗室的創始聯合主任瑞安·卡洛(Ryan Calo)說,“但沒有實質性和約束力。”

去年10月,一項法律通過了國會。該法要求聯邦機構的官員在採購AI產品和服務時接受AI工作方式的培訓。今年2月,拜登還簽署了一項行政命令,簡要提到了“防止和解決…算法歧視”的要求,但同樣只適用於聯邦機構。

Venkatasubramanian表示,這份藍圖已經詳細到足以讓機構和州開始在他們的提案中實施其原則。例如,加利福尼亞州議會提出的一項法案(稱為AB 331)要求自動決策工具的使用者向州政府登記其工具的目的並解釋如何使用。

他還敦促白宮根據這份藍圖和美國國家標準技術研究所發布的一份自願AI風險管理框架發布行政命令。這將要求使用AI的聯邦機構遵守某些做法,例如在使用AI系統時進行披露,並提供其決策的可理解解釋。

聯邦立法已經提出。立法者以前曾考慮過一項旨在實現算法負責任的法案,該法案要求使用自動化的公司向聯邦貿易委員會提交影響評估。然而,這項法案沒有通過,目前尚不清楚它或其他法案是否能在國會的目前政治分歧狀態下通過。

聯邦機構執行的現有規則也可以擴展到涵蓋AI相關產品。今年4月,美國衛生與人類服務部提議更新其關於電子健康記錄的規定,以使患者能夠獲得影響預測模型的因素。去年,美國消費者金融保護局明確表示,公司必須解釋為什麼拒絕某人的信用,即使該決策是由算法做出的。聯邦貿易委員會還提醒公司,禁止“在或影響商業中的不公平或欺詐行為或做法”的消費者保護法同樣適用於AI。今年7月,它對OpenAI的數據安全實踐展開了調查,並要求該公司提供其語言模型是否對人們進行虛假或有害陳述的任何投訴的詳細信息。

Venkatasubramanian說:“我們現在處於一個具有挑戰性的領域,試圖弄清楚我們可以通過現有的監管做些什麼。”他說,在某些情況下,新的聯邦規則可能是有用的。例如,規定可能需要在自動化系統中設定透明度的要求,或者在部署之前限制算法的偏見。

一些美國州和城市已經制定了自己的AI相關規則。在伊利諾伊州,2020年的一項法案要求公司宣布並解釋使用AI分析就業面試的情況,該州長期以來一直有一項法律允許公民起訴濫用生物識別數據,包括用於人臉識別的掃描。 (Facebook根據這項法規在2021年支付了6.5億美元以解決一個集體訴訟案。)其他州禁止執法機構使用人臉識別,有些州保護個人數據並限制基於該數據的自動化決策。 Kreps說:“在州一級上,你最終會得到一個大片段的規則。”

至於生成式AI,版權訴訟目前是美國最重要的發展,紐約市康奈爾科技研究實驗室主任詹姆斯·格里梅爾曼(James Grimmelmann)表示。股票照片公司Getty Images對Stability AI公司提起訴訟,指控其使用Getty的內容訓練其圖像生成軟件Stable Diffusion。微軟和OpenAI也因使用人們的代碼訓練代碼編寫軟件GitHub Copilot而被匿名訴訟人起訴。原告可能只是尋求版稅,但勝訴可能導致版權問題被用來推動更廣泛的立法,例如關於偏見、錯誤信息和隱私的立法,格里梅爾曼說。

ChatGPT打破了圖靈測試——新的評估人工智慧的方式正在展開競爭。

Venkatasubramanian表示,一些公司反對這一藍圖,認為行業可以通過自我監管輕鬆解決問題。但其他公司告訴他,他們支援這一藍圖,以防止AI倫理方面的競爭陷入惡性競爭,各公司為了競爭優勢而互相壓低價格。當奧爾特曼在五月份出席美國參議院委員會時,他建議對大型模型發放許可證。但他和其他人也明確指出,大公司可能會引導監管機構制定規則,從而使它們在競爭中佔據優勢,壓制小公司。

克雷普斯表示,大型科技公司尚未在AI監管方面遭遇太多阻力。“我認為現在還沒有人認為有意義的立法即將出臺。”

“律師們常說,美國人在技術前沿進行創新,而歐洲人在監管方面進行創新,”王說。“有人說歐洲在監管大型科技公司方面如此領先並非巧合,因為歐洲的超大規模科技公司較少,因此遊說活動也較少。”

中國:繼續保持社會控制

到目前為止,中國頒佈了最多的人工智慧法規,儘管它適用於公司使用的人工智慧系統,而不是政府使用的系統。2021年的一項法律要求公司在使用個人資料進行自動化決策時必須透明和公正,並允許人們選擇退出此類決策。中國國家網際網路資訊辦公室於2022年發佈的一套關於推薦演算法的規定規定,這些演算法不能傳播虛假新聞,讓使用者對內容上癮或引發社會動盪。

2022年1月,中國國家互聯網資訊辦公室開始執行2022年發佈的規則,以應對深度偽造和其他由人工智慧生成的內容。提供合成圖像、視頻、音訊或文本服務的供應商必須驗證用戶身份,獲得深度偽造目標的同意,對輸出進行浮水印和記錄,並打擊任何產生的錯誤資訊。

中國國家網際網路資訊辦公室還將在本月開始執行針對ChatGPT和DALL-E等生成工具的其他規定。這些規定要求公司必須防止虛假、私密、歧視性或暴力內容的傳播,或任何破壞中國社會主義價值觀的內容。

“一方面,(中國政府)非常積極地實施社會控制。中國是全球審查最嚴格的國家之一。另一方面,人們真正希望保護個人隱私免受公司侵犯,”總部位於北京的諮詢公司Trivium China的技術政策研究負責人Kendra Schaefer表示。中國國家網際網路資訊辦公室未回應《自然》雜誌對本文的置評請求。

全球不確定性 其他一些國家已經明確表示了他們對人工智慧監管的目標。加拿大政府已經推出了《人工智慧和資料法案》,承諾對其所稱的“高影響”人工智慧系統要求透明、非歧視和安全措施(這些尚未定義)。英國將於今年晚些時候主辦一次關於人工智慧安全的峰會,並在三月份發佈了一份白皮書,描述了一種“支持創新”的方法,計畫不制定新的法規。然而,歐盟的人工智慧法案可能會影響全球企業,就像《通用資料保護條例》影響全球科技公司的運營一樣。中國的一些人工智慧規定可能會影響企業在其他地方的運營,儘管格裡梅爾曼表示,公司可能會根據不同的市場調整其人工智慧服務。

還有關於潛在國際協議的討論。歐洲理事會(一個與歐盟理事會不同的人權組織)正在起草一項關於人工智慧對人權影響的條約,但各國可能可以選擇不遵守其中的一些規定。聯合國秘書長安東尼奧·古特雷斯也提出可能需要一個新的聯合國機構來管理人工智慧。

人工智慧公司普遍表示,需要政府間協定,但對需要達成的協議內容和如何執行協定的細節模糊不清。例如,倫敦的DeepMind和一些學術合作夥伴在七月份提議建立一個全球先進人工智慧治理組織,制定標準並可能監督合規性,儘管該公司在強制執行方面提到的內容有限。

DeepMind的一位元發言人表示,如果擬議中的組織制定了國內治理準則,各國政府將有責任“激勵”開發者遵守標準。(她還指出,在制定新政策時,監管應重點關注可能對人體造成實際傷害的人工智慧應用,例如醫療環境或能源網路,並不應一概適用於所有系統。)微軟表示支持各種努力制定國際自願準則,並認為“原則級的防護措施”即使是非約束性的也會有所幫助。OpenAI拒絕就監管問題向《自然》雜誌置評,並指向了有關其自願努力的博客文章。

難以執行?

無論人工智慧的監管規定如何,各國可能會發現很難執行這些規定。特別是對於可解釋性的規則,由於許多機器學習系統的黑盒特性,這一點尤為明顯,這些系統會在資料中找到自己的模式。對於進行分類決策的系統,可以用各種輸入對其進行轟炸,看看不同因素如何影響演算法的決策。但對於像ChatGPT這樣的大型語言模型,這些方法效果不佳。對於這些模型,政府可能需要通過審計來迫使公司透明地披露何時使用生成式人工智慧。儘管如此,Venkatasubramanian認為,“即使是對於少數實體的直接、積極的執行,也會讓人們停下來思考一下”。

人們不太可能對非專業使用生成式人工智慧進行審計,因此,無論有什麼透明度規定,個人可能會在不被發現的情況下秘密使用大型語言模型。

一些人工智慧(AI)開發者更擔心長期風險,例如AI逃脫人類控制或被不良行為者利用造成廣泛破壞的反烏托邦。他們提出了規定如何開發強大的AI模型。

然而,三月份由科技領袖簽署的一封信呼籲暫停六個月發展強大的AI似乎沒有起到多大作用。舊金山市研究和資助基金會Open Philanthropy的高級計劃主任Luke Muehlhauser提出了其他想法,包括對大型AI模型發放許可證、對大型計算集群遠程操作的緊急停止開關以及建立損害和近乎事故的報告系統。該基金會已經資助了一項建立AI事故數據庫的工作。

使用AI指導武器也是一個問題,許多國家呼籲聯合國對致命自主武器系統進行監管(軍事AI不在歐盟AI法案的範圍之內)。但美國尚未加入。在三月份有關此問題的聯合國會議之前,美國主張各國尚未就何謂自主武器達成一致,目前最好的做法是制定非法律約束力的指導方針。

這是全球協調AI監管似乎不太可能的另一個例子,不同社會對所需的規定有截然不同的看法。

※版權所有,歡迎媒體聯絡我們轉載;登錄本網按讚、留言、分享,皆可獲得 OCTOVERSE 點數(8-Coin),累積後可兌換獎品,相關辦法以官網公布為準※

新增留言