隨著人工智能技術(shù)在產(chǎn)業(yè)中的不斷深化,AI系統(tǒng)已逐步成為企業(yè)關(guān)鍵業(yè)務(wù)的組成部分。與傳統(tǒng)IT系統(tǒng)不同,AI系統(tǒng)具備“自學(xué)習(xí)、自決策”的特性,這也意味著它們在運行過程中可能面臨更多非結(jié)構(gòu)化、動態(tài)演變的風(fēng)險場景。例如:
數(shù)據(jù)投毒:攻擊者通過惡意干擾訓(xùn)練數(shù)據(jù),誘導(dǎo)模型產(chǎn)生錯誤輸出,影響系統(tǒng)決策。 對抗攻擊:輸入精心設(shè)計的對抗樣本可欺騙AI模型,繞過安全檢測或做出錯誤判斷。 模型竊取與反向工程:AI模型作為企業(yè)核心資產(chǎn),易成為攻擊者試圖復(fù)制、反推出模型邏輯的目標(biāo)。 隱私泄露:模型訓(xùn)練過程中可能暴露敏感數(shù)據(jù),觸發(fā)GDPR等法規(guī)的合規(guī)風(fēng)險。 系統(tǒng)不可控性:AI系統(tǒng)的不透明性與自適應(yīng)行為,使傳統(tǒng)安全檢測難以奏效。
這些問題一旦發(fā)生,不僅可能導(dǎo)致企業(yè)數(shù)據(jù)資產(chǎn)受損、業(yè)務(wù)中斷,甚至還會引發(fā)合規(guī)風(fēng)險。因此,構(gòu)建具備“可防御、可識別、可響應(yīng)”能力的AI安全體系,已成為企業(yè)當(dāng)前與未來不可回避的重要課題。
ETSI TS 104 223標(biāo)準發(fā)布 為AI系統(tǒng)構(gòu)建系統(tǒng)性安全框架
為響應(yīng)日益突出的AI安全需求,歐洲電信標(biāo)準協(xié)會(ETSI)于2025年4月正式發(fā)布了《Securing Artificial Intelligence (SAI); Baseline Cyber Security Requirements for AI Models and Systems》——ETSI TS 104 223標(biāo)準。
ETSI TS 104 223標(biāo)準通過以下方式增強 AI 系統(tǒng)的網(wǎng)絡(luò)安全性:
數(shù)據(jù)治理:確保 AI 系統(tǒng)使用的數(shù)據(jù)來源可靠,防止數(shù)據(jù)中毒等攻擊。 模型穩(wěn)健性:增強 AI 模型對抗攻擊的能力,如對抗樣本和模型混淆。 透明性和可解釋性:提高 AI 系統(tǒng)的透明度,使其決策過程更易于理解和審查。 責(zé)任分配:明確各方在 AI 系統(tǒng)安全中的責(zé)任,確保在出現(xiàn)問題時能夠迅速響應(yīng)。 持續(xù)評估和測試:定期對 AI 系統(tǒng)進行安全評估和測試,及時發(fā)現(xiàn)并修復(fù)潛在漏洞。
作為全球首個聚焦AI系統(tǒng)網(wǎng)絡(luò)安全的標(biāo)準體系,該標(biāo)準通過三大核心亮點,為企業(yè)提供了清晰的建設(shè)路徑:
13項核心安全原則:為AI系統(tǒng)的安全設(shè)計與實現(xiàn)提供了頂層指導(dǎo)。 72條可操作性要求:細化了在AI系統(tǒng)生命周期各階段需要滿足的具體安全要求,具有很強的落地指導(dǎo)意義。 安全生命周期管控:將安全考慮融入AI的規(guī)劃、數(shù)據(jù)處理、模型開發(fā)、部署、運行維護等生命周期的每一個環(huán)節(jié)。
通過這些規(guī)范,標(biāo)準旨在建立一個可信賴的 AI 安全生態(tài)系統(tǒng),保護最終用戶免受不斷演變的網(wǎng)絡(luò)威脅。