5月21-22日,人工智能首爾峰會(huì)(AI Seoul Summit)在韓國(guó)舉辦,這是去年11月在英國(guó)召開(kāi)的全球人工智能安全峰會(huì)的后續(xù)會(huì)議。
周二(21日),美國(guó)、英國(guó)、加拿大、日本、韓國(guó)等10個(gè)國(guó)家以及歐盟的領(lǐng)導(dǎo)人共同簽署《首爾聲明》,呼吁加強(qiáng)國(guó)際AI治理合作以及治理框架之間的互操作性,倡導(dǎo)以風(fēng)險(xiǎn)為基礎(chǔ)的政策和治理框架,支持啟動(dòng)首個(gè)國(guó)際AI安全研究所網(wǎng)絡(luò),促使國(guó)家間形成對(duì)AI安全的共同理解,并在研究、標(biāo)準(zhǔn)和測(cè)試方面進(jìn)行協(xié)調(diào)。
同日,16家全球領(lǐng)先的科技公司在峰會(huì)期間作出“前沿AI安全承諾”,將努力確保其最先進(jìn)的AI模型的安全性,并實(shí)施負(fù)責(zé)任的治理,實(shí)現(xiàn)公開(kāi)透明。
聯(lián)合國(guó)秘書(shū)長(zhǎng)古特雷斯(Antonio Guterres)在峰會(huì)開(kāi)幕式上表示,自去年英國(guó)布萊切利峰會(huì)召開(kāi)以來(lái),“我們看到了改變生活的技術(shù)進(jìn)步,也看到了威脅生命的新風(fēng)險(xiǎn)”。他認(rèn)為,需要就AI問(wèn)題制定普適的防護(hù)措施,并定期開(kāi)展對(duì)話。
歐洲復(fù)興開(kāi)發(fā)銀行前行長(zhǎng)查克拉巴蒂(Suma Chakrabarti)此前接受第一財(cái)經(jīng)記者采訪時(shí)表示,AI等領(lǐng)域的全球數(shù)字治理的核心問(wèn)題是各國(guó)政府能否統(tǒng)一標(biāo)準(zhǔn),以實(shí)現(xiàn)數(shù)字基礎(chǔ)設(shè)施的跨國(guó)互操作性。目前來(lái)看,其中存在很大的障礙,例如不同國(guó)家和地區(qū)的公民對(duì)政府和私營(yíng)部門(mén)處理數(shù)據(jù)的信任程度差別很大。
前沿AI企業(yè)的安全承諾
AI首爾峰會(huì)在開(kāi)幕前夕發(fā)布了一份名為《關(guān)于先進(jìn)人工智能安全性的國(guó)際科學(xué)報(bào)告(中期報(bào)告)》。報(bào)告稱(chēng),盡管通用AI可以用來(lái)推進(jìn)公共利益,但也可能被用來(lái)造成危害,甚至帶來(lái)系統(tǒng)性風(fēng)險(xiǎn)。AI的未來(lái)充滿不確定性,但社會(huì)和政府的決策將顯著影響其未來(lái)。
這一背景下,政府官員和AI行業(yè)高管同意就此采取基本安全措施。參與承諾的16家公司包括美國(guó)、法國(guó)、中國(guó)、韓國(guó)以及阿聯(lián)酋的AI企業(yè),例如:美國(guó)科技巨頭亞馬遜、微軟、Meta、谷歌,AI初創(chuàng)公司Anthropic、OpenAI和特斯拉創(chuàng)始人馬斯克建立的xAI;法國(guó)的Mistral AI;韓國(guó)的三星電子以及互聯(lián)網(wǎng)公司Naver;阿聯(lián)酋的AI公司G42以及技術(shù)創(chuàng)新研究所(TII);以及中國(guó)的智譜AI等。
這些企業(yè)或組織承諾,在開(kāi)發(fā)和部署前沿AI模型和系統(tǒng)時(shí)將有效識(shí)別、評(píng)估和管理風(fēng)險(xiǎn);對(duì)安全開(kāi)發(fā)和部署前沿AI模型和系統(tǒng)負(fù)責(zé),遵守承諾并建立內(nèi)部問(wèn)責(zé)和治理框架;對(duì)外部行為者保持適當(dāng)?shù)耐该鞫龋ㄕ?。例如,企業(yè)應(yīng)設(shè)定模型或系統(tǒng)的嚴(yán)重風(fēng)險(xiǎn)閾值,并監(jiān)控是否接近或超過(guò)這些閾值;如果超出閾值,必須設(shè)定應(yīng)對(duì)風(fēng)險(xiǎn)的明確流程。在保持透明度方面,除非會(huì)增加風(fēng)險(xiǎn)或泄露敏感商業(yè)信息,企業(yè)應(yīng)公布承諾的實(shí)施情況。
根據(jù)英國(guó)政府的聲明,這些公司同意,“如果緩解措施無(wú)法將風(fēng)險(xiǎn)控制在閾值以下,則根本不開(kāi)發(fā)或部署模型或系統(tǒng)”。
簽署協(xié)議的AI公司之一Cohere首席執(zhí)行官戈麥斯(Aiden Gomez)說(shuō),自英國(guó)峰會(huì)以來(lái),有關(guān)人工智能監(jiān)管的討論已從更長(zhǎng)遠(yuǎn)的末日?qǐng)鼍稗D(zhuǎn)向更實(shí)際、更緊迫的問(wèn)題,比如如何在醫(yī)療或金融等領(lǐng)域使用人工智能,如何杜絕錯(cuò)誤和虛假信息以及偏見(jiàn),保證數(shù)據(jù)安全,并確保人類(lèi)操作員或決策者始終參與或監(jiān)督關(guān)鍵過(guò)程。
AI安全的管轄權(quán)問(wèn)題
這并非行業(yè)領(lǐng)先的AI公司第一次作出承諾,但從過(guò)往經(jīng)驗(yàn)來(lái)看,在缺乏硬性立法的情況下,這些自愿承諾似乎仍有局限性。
例如,去年11月的英國(guó)峰會(huì)上,Anthropic、OpenAI和亞馬遜等科技公司同意,在其發(fā)布先進(jìn)的AI模型之前,政府可以在安全測(cè)試中發(fā)揮作用。該峰會(huì)還成立了英國(guó)人工智能安全研究所(UKAISI),大力推動(dòng)由科學(xué)家主導(dǎo)的對(duì)AI能力和安全風(fēng)險(xiǎn)的定期評(píng)估。但事實(shí)上,Anthropic于今年3月推出了最新一批模型,卻尚未允許UKAISI對(duì)其模型進(jìn)行發(fā)布前測(cè)試。該公司聯(lián)合創(chuàng)始人克拉克(Jack Clark)稱(chēng),該公司正在與UKAISI合作,研究政府如何進(jìn)行部署前測(cè)試,但他認(rèn)為這“很難實(shí)施”。
專(zhuān)注于AI研究歐洲智庫(kù)Ada Lovelace Institute研究伙伴關(guān)系部副主任斯特雷特(Andrew Strait)表示,六個(gè)多月過(guò)去了,“發(fā)布前測(cè)試”的承諾似乎未能以任何有意義的方式實(shí)現(xiàn)。“現(xiàn)在應(yīng)該非常清楚,我們不能依賴(lài)人工智能公司的善意。自愿協(xié)議不能替代提供這種訪問(wèn)的法律授權(quán)?!彼Q(chēng)。
據(jù)多位知情人士透露,AI公司對(duì)UKAISI更深入地參與測(cè)試的主要顧慮包括擔(dān)心技術(shù)機(jī)密泄露,以及測(cè)試會(huì)拖延產(chǎn)品的推出。
管轄權(quán)則是另一個(gè)問(wèn)題。許多經(jīng)濟(jì)體都在建立自己的政府機(jī)構(gòu),加強(qiáng)對(duì)AI安全的治理框架建設(shè)。
除了UKAISI外,今年2月,美國(guó)啟動(dòng)了美國(guó)人工智能安全研究所(USAISI)。歐盟新設(shè)了人工智能辦公室,促進(jìn)歐盟《人工智能法案》的統(tǒng)一適用,并重點(diǎn)監(jiān)測(cè)由通用AI模型產(chǎn)生的不可預(yù)見(jiàn)的風(fēng)險(xiǎn)。在亞洲地區(qū),新加坡去年成立了人工智能驗(yàn)證基金會(huì)(AIVF),與IBM、微軟和谷歌等公司合作開(kāi)發(fā)人工智能測(cè)試工具,以便負(fù)責(zé)任地使用和制定國(guó)際標(biāo)準(zhǔn)。日本也在今年2月成立了人工智能安全研究所,研究AI安全評(píng)估方法和標(biāo)準(zhǔn),并開(kāi)展國(guó)際合作。
4月初,美國(guó)和英國(guó)簽署了一項(xiàng)人工智能協(xié)議備忘錄,這是全球首個(gè)關(guān)于AI安全的雙邊安排,就如何測(cè)試和評(píng)估新興AI模型的風(fēng)險(xiǎn)開(kāi)展正式合作。不過(guò),Meta公司全球事務(wù)總裁克萊格(Nick Clegg)對(duì)媒體表示:“你不能讓這些AI公司在每一個(gè)不同的司法管轄區(qū)都跳來(lái)跳去,從我們的角度來(lái)看,我們的主要關(guān)系當(dāng)然是與美國(guó)人工智能安全研究所(的互動(dòng))?!?/p>
隨著歐洲理事會(huì)在21日正式批準(zhǔn)了歐盟《人工智能法案》,AI領(lǐng)域的硬性立法也不再是一片空白。咨詢(xún)公司羅蘭貝格全球管理委員會(huì)聯(lián)席總裁戴璞(Denis Depoux)對(duì)第一財(cái)經(jīng)記者稱(chēng),該公司已經(jīng)提醒客戶對(duì)AI領(lǐng)域的更多監(jiān)管作出準(zhǔn)備?!埃ê蜌W洲不同)美國(guó)雖然沒(méi)有相應(yīng)的聯(lián)邦法律,但一些州已經(jīng)實(shí)施了自己的規(guī)定。這凸顯了監(jiān)管機(jī)構(gòu)重視保護(hù)消費(fèi)者隱私、防止技術(shù)濫用的趨勢(shì)?!彼f(shuō),這種監(jiān)管轉(zhuǎn)變是積極的,不僅為消費(fèi)者提供保護(hù),也通過(guò)保護(hù)數(shù)據(jù)為公司自身提供了安全,AI領(lǐng)域也將如此。
意大利經(jīng)濟(jì)發(fā)展部前副部長(zhǎng)杰拉奇(Michele Geraci)接受第一財(cái)經(jīng)記者采訪時(shí)則提醒,進(jìn)行這一領(lǐng)域的立法并不簡(jiǎn)單。他稱(chēng):“實(shí)現(xiàn)創(chuàng)新與監(jiān)管之間的平衡是一項(xiàng)重大挑戰(zhàn),尤其是歐盟經(jīng)常被認(rèn)為容易過(guò)度監(jiān)管。目前試圖通過(guò)立法解決問(wèn)題的方法可能不是最有效的策略。人工智能未來(lái)五年的影響和發(fā)展軌跡在很大程度上仍無(wú)法預(yù)測(cè),因此很難設(shè)想其潛在應(yīng)用。這種不確定性使制定法律來(lái)管理一項(xiàng)仍在發(fā)展的技術(shù)的任務(wù)變得更加復(fù)雜。”