2024年5月30日,新加坡人工智能驗(yàn)證基金會(huì)(AI Verify Foundation)與新加坡信息通信媒體發(fā)展管理局(Infocomm Media Development Authority of Singapore, IMDA)聯(lián)合發(fā)布《生成式人工智能模型治理框架》[1](Model AI Governance Framework for Generative AI),提出生成式人工智能治理九個(gè)維度。這是AI Verify Foundation和IMDA整理全球70余政府、企業(yè)、研究機(jī)構(gòu)對(duì)于今年1月發(fā)布《生成式人工智能模型治理框架草案》[2]的反饋后形成的正式框架,但兩者差異不大。以下是《生成式人工智能模型治理框架》(以下簡(jiǎn)稱(chēng)《框架》)提出促進(jìn)培育可信生態(tài)的九個(gè)治理維度介紹。
一是可問(wèn)責(zé)。《框架》提出,可問(wèn)責(zé)是培育可信人工智能生態(tài)的關(guān)鍵因素,人工智能開(kāi)發(fā)全鏈條的參與者,包括模型開(kāi)發(fā)者、應(yīng)用程序部署者、云服務(wù)提供商等都需要對(duì)最終用戶(hù)負(fù)責(zé)。在問(wèn)責(zé)框架的設(shè)計(jì)上,需要在事前根據(jù)開(kāi)發(fā)鏈參與者的控制能力分配義務(wù)和責(zé)任,并設(shè)計(jì)事后補(bǔ)救措施,考慮保險(xiǎn)和賠償安排 。
二是數(shù)據(jù)?!犊蚣堋诽岢?,數(shù)據(jù)是模型訓(xùn)練和應(yīng)用程序開(kāi)發(fā)的核心要素。在數(shù)據(jù)獲取方面需要重點(diǎn)關(guān)注三個(gè)方面的問(wèn)題,一要考慮個(gè)人數(shù)據(jù)的可信使用,需要政策制定者明確個(gè)人數(shù)據(jù)保護(hù)的要求,鼓勵(lì)隱私增強(qiáng)技術(shù)的研發(fā);二要考慮版權(quán)數(shù)據(jù)使用的爭(zhēng)議,需要政策制定者推動(dòng)利益相關(guān)者對(duì)話(huà),促進(jìn)形成利益平衡且符合市場(chǎng)實(shí)際的制度安排;三要加強(qiáng)訓(xùn)練數(shù)據(jù)質(zhì)量控制,對(duì)此需要人工智能開(kāi)發(fā)者做好數(shù)據(jù)清洗,加強(qiáng)可信數(shù)據(jù)集建設(shè),提升數(shù)據(jù)多樣性。
三是可信開(kāi)發(fā)和部署?!犊蚣堋诽岢觯P烷_(kāi)發(fā)及應(yīng)用部署是人工智能驅(qū)動(dòng)創(chuàng)新的核心,需要從安全開(kāi)發(fā)、披露和評(píng)估三個(gè)方面進(jìn)行設(shè)計(jì)。在開(kāi)發(fā)上,實(shí)施行業(yè)安全實(shí)踐,包括使用人類(lèi)反饋強(qiáng)化學(xué)習(xí)、輸入輸出過(guò)濾等技術(shù)機(jī)制。在披露方面,通過(guò)類(lèi)似“食品標(biāo)簽”的模式提示模型訓(xùn)練數(shù)據(jù)、安全措施、風(fēng)險(xiǎn)、預(yù)期用途等,提升透明度。在評(píng)估方面,除了實(shí)施測(cè)試模型性能的基準(zhǔn)測(cè)試,還需要加強(qiáng)安全測(cè)試,并關(guān)注不同行業(yè)的特殊需要。
四是事件報(bào)告?!犊蚣堋诽岢?,和其他軟件系統(tǒng)相同,人工智能系統(tǒng)無(wú)法確保絕對(duì)的安全,因此需要建立及時(shí)報(bào)告和處理補(bǔ)救流程。在尚無(wú)事件發(fā)生前,可實(shí)施漏洞報(bào)告激勵(lì)機(jī)制,主動(dòng)采取措施避免事件發(fā)生。在事件發(fā)生后,需要根據(jù)流程及時(shí)報(bào)告和采取補(bǔ)救措施,并根據(jù)法律法規(guī)要求向政府和公眾對(duì)事件作出說(shuō)明。
五是測(cè)試和保障?!犊蚣堋诽岢?,第三方測(cè)試在保障可信人工智能發(fā)展中具有重要作用,外部審計(jì)能提高透明度和用戶(hù)信賴(lài)。對(duì)于測(cè)試,在方法上需要使用成為共識(shí)的基準(zhǔn)和測(cè)試方法,在人員上確保審計(jì)測(cè)試人員的獨(dú)立性,形成生成式人工智能標(biāo)準(zhǔn)化測(cè)試和認(rèn)證機(jī)制。
六是安全?!犊蚣堋诽岢觯枰P(guān)注生成式人工智能區(qū)別于傳統(tǒng)軟件的安全挑戰(zhàn),對(duì)傳統(tǒng)的安全流程進(jìn)行改進(jìn)。在安全保障措施方面,可關(guān)注輸入過(guò)濾和數(shù)字取證工具的應(yīng)用,評(píng)估人工智能風(fēng)險(xiǎn),識(shí)別和應(yīng)用有效技術(shù)工具。
七是合成內(nèi)容來(lái)源?!犊蚣堋诽岢?,生成式人工智能使得大規(guī)模深度偽造成為可能,加劇虛假信息的危害,破壞社會(huì)信任。對(duì)此,在技術(shù)上,需要開(kāi)發(fā)數(shù)字水印和加密出處等方法驗(yàn)證內(nèi)容來(lái)源;在緩解負(fù)面影響上,要推動(dòng)與出版者、分發(fā)平臺(tái)等內(nèi)容生成的關(guān)鍵方合作,幫助用戶(hù)識(shí)別和驗(yàn)證內(nèi)容。
八是安全和對(duì)齊研發(fā)?!犊蚣堋诽岢?,伴隨人工智能能力和風(fēng)險(xiǎn)的增加,需要加大對(duì)模型安全和對(duì)齊方面的研發(fā)投入,包括模型訓(xùn)練中使用人工智能反饋的強(qiáng)化學(xué)習(xí)(Reinforcement Learning from AI Feedback),訓(xùn)練后的對(duì)齊驗(yàn)證等。同時(shí),模型安全和對(duì)齊的研發(fā)需要國(guó)際合作,以集中人才和資源力量。
九是人工智能促進(jìn)公共利益?!犊蚣堋诽岢觯墒饺斯ぶ悄茉诖龠M(jìn)社會(huì)發(fā)展中具有重要作用,但同時(shí)也需要關(guān)注發(fā)展中國(guó)家獲取技術(shù)和發(fā)展的需求,建立全球數(shù)字共識(shí)。具體需要:培養(yǎng)用戶(hù)安全和負(fù)責(zé)任地使用人工智能的能力,支持使用生成式人工智能提升公共服務(wù)體驗(yàn),幫助勞動(dòng)者在人工智能時(shí)代提升創(chuàng)造力、批判性思維等技能,跟蹤生成式人工智能資源需求四方面。
參考資料:
[1]https://aiverifyfoundation.sg/wp-content/uploads/2024/05/Model-AI-Governance-Framework-for-Generative-AI-May-2024-1-1.pdf
[2]https://aiverifyfoundation.sg/downloads/Proposed_MGF_Gen_AI_2024.pdf
關(guān)注“廣東技術(shù)性貿(mào)易措施”,獲取更多服務(wù)。