人工智能(AI)作為引領(lǐng)未來的戰(zhàn)略新興技術(shù),已經(jīng)成為發(fā)展新質(zhì)生產(chǎn)力、推動科技革命和產(chǎn)業(yè)升級的核心引擎。隨著人工智能領(lǐng)域的高速發(fā)展,尤其是生成式人工智能的突破,其復(fù)雜效應(yīng)也不斷顯現(xiàn),既釋放巨大的技術(shù)紅利,也衍生出超越以往范疇的安全問題。2023年以來,全球人工智能安全治理的努力大幅增加,治理進(jìn)程正在不斷加速,并且形成了各國政府主導(dǎo)、國際組織積極推進(jìn)、科技企業(yè)協(xié)同治理的多方參與格局。
推進(jìn)“軟性”倫理規(guī)范走向“硬性”法律監(jiān)管
歐盟展現(xiàn)了領(lǐng)先全球的立法速度。2024年3月,其發(fā)布的《人工智能法案》被認(rèn)為是全球首部綜合性人工智能治理立法。該法案對人工智能系統(tǒng)進(jìn)行了分類,并根據(jù)風(fēng)險等級制定了相應(yīng)的監(jiān)管要求,設(shè)定了普適、全面的人工智能監(jiān)管方法,包括數(shù)據(jù)管理、透明度、可解釋性、人類監(jiān)督等方面。歐盟2024年新設(shè)了人工智能辦公室,推動實施《人工智能法案》。此外,歐盟《人工智能責(zé)任指令》在2024年也將出現(xiàn)更多的進(jìn)展。
與歐盟《人工智能法案》以風(fēng)險預(yù)防和責(zé)任追究為中心的立法不同,中國采取了更加包容審慎的治理方式,且采取了“小切口”的立法策略,深入特定應(yīng)用領(lǐng)域提出監(jiān)管要求,體現(xiàn)了中國在人工智能領(lǐng)域的敏捷治理理念。2023年8月,《生成式人工智能服務(wù)管理暫行辦法》開始施行,中國成為世界上首個為生成式大模型立法的國家。
美國人工智能治理則總體寬松溫和,以促進(jìn)發(fā)展為主,兜底風(fēng)險為輔,立法滯后。近年來,在生成式預(yù)訓(xùn)練人工智能及相關(guān)技術(shù)引發(fā)越來越多關(guān)注和擔(dān)憂后,美國政府逐步加強(qiáng)監(jiān)管。2023年1月,美國商務(wù)部國家標(biāo)準(zhǔn)與技術(shù)研究院發(fā)布《人工智能風(fēng)險管理框架》,旨在對人工智能系統(tǒng)全生命周期實行有效的風(fēng)險管理。2023年10月,美國第一次在政治對話中真正納入人工智能的議程,并發(fā)布總統(tǒng)行政令《安全、可靠和值得信賴的人工智能開發(fā)和使用》,明確了美國政府治理人工智能的政策法律框架,具有里程碑意義。最受矚目的一點是該行政令動用《國防生產(chǎn)法》的緊急權(quán)力,強(qiáng)制要求人工智能企業(yè)進(jìn)行安全測試并與政府分享測試結(jié)果。2024年5月,美國參議院人工智能工作組發(fā)布《推動美國在AI領(lǐng)域的創(chuàng)新:參議院AI政策路線圖》。一系列行動,標(biāo)志著美國通過“全面立法”治理人工智能的戰(zhàn)略努力。2024年,疊加人工智能對美國大選年的重大威脅,人工智能立法將成為美國重頭戲。
推動形成全球人工智能安全治理共識和創(chuàng)新合作
全球共商機(jī)制初步建立。一直以來,如何推出能被廣泛接受的人工智能治理原則挑戰(zhàn)重重。從經(jīng)合組織到聯(lián)合國,國際層面始終在努力推進(jìn)這一議程。2023年以來,聯(lián)合國積極參與、推動人工智能全球監(jiān)管機(jī)構(gòu)和治理機(jī)制的構(gòu)建,以期探索全球監(jiān)管的“公約數(shù)”。聯(lián)合國秘書長出席聯(lián)合國安理會人工智能與安全問題高級別公開會,呼吁管控人工智能技術(shù)風(fēng)險,成立新的聯(lián)合國機(jī)構(gòu)強(qiáng)化人工智能全球治理。2023年,聯(lián)合國成立全球人工智能監(jiān)管咨詢委員會,該委員會包括科技行業(yè)領(lǐng)袖、政府代表和學(xué)者,以及知名科技企業(yè)的高管,旨在處理全球人工智能監(jiān)管事宜。
中國、巴西、俄羅斯、印度和南非則同意成立“人工智能研究小組”。歐洲委員會一直在制定一項具有法律約束力的人工智能與人權(quán)國際公約,并于2024年3月敲定《人工智能、人權(quán)、民主和法治框架公約》最終草案,這是第一個國際人工智能條約。
英國率先成立英國人工智能安全研究所,旨在促進(jìn)全球?qū)ο冗M(jìn)人工智能的了解。2024年5月,在人工智能首爾峰會上,美國、英國、加拿大、日本、韓國等10個國家以及歐盟共同簽署《首爾聲明》,呼吁加強(qiáng)國際人工智能治理合作以及治理框架之間的互操作性,倡導(dǎo)以風(fēng)險為基礎(chǔ)的政策和治理框架,支持啟動首個國際人工智能安全研究所網(wǎng)絡(luò),促使國家間形成對人工智能安全的共同理解,并在研究、標(biāo)準(zhǔn)和測試方面進(jìn)行協(xié)調(diào)。
新的合作模式如何形成至關(guān)重要。以哪一方案作為未來共同監(jiān)管架構(gòu)模板成為焦點。大國博弈背景下,率先形成人工智能治理范本,可獲得人工智能監(jiān)管主導(dǎo)權(quán)。2023年以來,以聯(lián)合國、歐盟、美國、英國以及中國的相關(guān)政策或策略性行動為標(biāo)志,各國政府和國際組織在人工智能全球治理領(lǐng)域的參與程度和戰(zhàn)略部署明顯提升,試圖影響全球范圍內(nèi)人工智能技術(shù)標(biāo)準(zhǔn)、應(yīng)用規(guī)范、治理準(zhǔn)則。
各方均在主動發(fā)力,擴(kuò)大自身治理模式的影響。美國在全球人工智能安全峰會前,推動七國集團(tuán)取得一致立場,并重返聯(lián)合國教科文組織參與人工智能規(guī)則建設(shè)。歐盟《人工智能法案》將給全球人工智能立法格局帶來重大影響,為人工智能定下監(jiān)管基調(diào),在治理規(guī)制方面幫助歐盟另辟蹊徑,在全球人工智能領(lǐng)域進(jìn)行更深層次的布局。
創(chuàng)新政府對人工智能的安全監(jiān)管形式
多層級、多部門聯(lián)手治理。在頂層設(shè)計的指導(dǎo)下,美國參議院、眾議院和國會研究處、國會國家人工智能研究資源工作組等部門圍繞人工智能應(yīng)用可能帶來的安全風(fēng)險開展研究和布局,聯(lián)邦政府下獨立行政機(jī)構(gòu)美國聯(lián)邦貿(mào)易委員會、美國證券交易委員會、美國平等就業(yè)機(jī)會委員會、美國聯(lián)邦通信委員會積極探索人工智能監(jiān)管新模式,國務(wù)院、財政部、國防部、國土安全部、司法部、教育部、商務(wù)部、能源部等部門及其下屬機(jī)構(gòu)圍繞自身負(fù)責(zé)領(lǐng)域研究出臺促進(jìn)人工智能負(fù)責(zé)任應(yīng)用的相關(guān)文件。此外,特別成立了美國人工智能安全研究所、國防部人工智能安全中心、國防部生成式人工智能工作組等機(jī)構(gòu),圍繞人工智能安全開展專門研究及突破。
設(shè)立“首席人工智能官”。美國總統(tǒng)行政令提出,要大力推進(jìn)聯(lián)邦政府使用人工智能,要求美國管理和預(yù)算辦公室建立聯(lián)邦政府人工智能使用指南,各職能政府部門設(shè)首席人工智能官,并提升聯(lián)邦政府內(nèi)人工智能人才密度。該制度既延續(xù)了以往美國在管理領(lǐng)域設(shè)立“首席官”的監(jiān)管范式,又創(chuàng)新了政府對人工智能領(lǐng)域的監(jiān)管形式。當(dāng)前,美國聯(lián)邦機(jī)構(gòu)正密集任命首席人工智能官,提升政府的“含AI量”??v覽已推出的首席人工智能官,任命形式各有不同,其具體職責(zé)主要圍繞“協(xié)同協(xié)調(diào)、技術(shù)創(chuàng)新、風(fēng)險管理”三個方面展開。
設(shè)置人工智能監(jiān)管沙盒。監(jiān)管沙盒是由監(jiān)管機(jī)構(gòu)提供的一種實驗平臺,是探索人工智能可控發(fā)展的創(chuàng)新手段,通過設(shè)立限定性條件,以真實用戶為對象進(jìn)行深度測試,降低監(jiān)管不確定性。監(jiān)管沙盒既有利于企業(yè)技術(shù)創(chuàng)新實踐應(yīng)用,也有利于更早地發(fā)現(xiàn)前沿技術(shù)引發(fā)的合規(guī)風(fēng)險。歐盟《人工智能法案》明確了建立人工智能監(jiān)管沙盒的相關(guān)要求,目前歐洲已有多個國家在積極推進(jìn)人工智能監(jiān)管沙盒試點。2023年11月,西班牙建立第一個歐盟人工智能監(jiān)管沙盒。2024中關(guān)村論壇發(fā)布中國首例人工智能領(lǐng)域監(jiān)管沙盒,首批入盒模型企業(yè)包括中科聞歌、拓爾思、靈犀云等。
成立人工智能驗證基金會。新加坡2023年成立了人工智能驗證基金會,發(fā)揮聯(lián)系政府、企業(yè)和學(xué)術(shù)專家的平臺作用。該基金會與IBM、微軟和谷歌等企業(yè)合作開發(fā)人工智能測試工具,合作制定人工智能國際標(biāo)準(zhǔn)。
推進(jìn)產(chǎn)業(yè)一線企業(yè)開展負(fù)責(zé)任的研究與創(chuàng)新
歐盟嚴(yán)格禁止銷售和使用對人們安全、生計構(gòu)成明顯威脅的人工智能技術(shù),違規(guī)公司可能被處以其全球年營業(yè)額的7%或4000萬歐元的高額罰款。美國總統(tǒng)行政令推動美國生成式人工智能科技企業(yè)踐行自愿承諾的監(jiān)管路徑,谷歌、Meta、微軟等15家人工智能頭部科技企業(yè)隨即在關(guān)于推動人工智能技術(shù)的安全、可靠和可信的發(fā)展方面進(jìn)行承諾。在首爾人工智能峰會上,亞馬遜、微軟、谷歌、中國的智譜AI等全球領(lǐng)先的科技企業(yè)就人工智能安全作出“前沿人工智能安全承諾”,將努力確保其最先進(jìn)的人工智能模型安全性,并實施負(fù)責(zé)任的治理。
人工智能倫理委員會機(jī)制不僅是企業(yè)自律的重要體現(xiàn),也是落實人工智能倫理治理的重要制度保障。全球多家頭部企業(yè)探索人工智能倫理委員會的建設(shè)落地。微軟負(fù)責(zé)任人工智能辦公室、人工智能倫理委員會分別負(fù)責(zé)制定內(nèi)部的人工智能倫理準(zhǔn)則、審查敏感應(yīng)用案例,對特定人工智能倫理問題進(jìn)行研究、主動制定內(nèi)部政策。谷歌技術(shù)發(fā)布前置倫理審查中心,監(jiān)管人工智能與新興技術(shù)倫理準(zhǔn)則。DeepMind倫理與社會團(tuán)隊的獨立顧問小組包含多名不同背景與學(xué)科的外國專家,針對人工智能倫理問題提供反饋與指導(dǎo)。京東探索研究院,華為可信理論、技術(shù)與工程實驗室都關(guān)注可信人工智能研究。2024年5月28日,“開放人工智能”新成立安全委員會,就其項目和運營的“關(guān)鍵安全決策”提供建議。
(作者:李輝,系北京市習(xí)近平新時代中國特色社會主義思想研究中心特約研究員,北京市科學(xué)技術(shù)研究院研究員)