伴隨著人工智能應用的常態化,人工智能安全問題的研討也持續開展。
1、網絡安全基本屬性,即人工智能系統及其相關數據的機密性、完 整性、可用性以及系統對惡意攻擊的抵御能力之外,討論人工智能安全一 般還需要考慮以下屬性。
2、透明性: 指人工智能在設計、訓練、測試、部署過程中保持可 見、可控的特性,只有具備了透明性,用戶才能夠在必要時獲取模型有關 信息,包括模型結構、參數、輸入輸出等,方可進一步實現人工智能開發過程的可審計以及可追溯。
3、可解釋性: 描述了人工智能算法模型可被人理解其運行邏輯的特性。具備可解釋性的人工智能,其計算過程中使用的數據、算法、參數和 邏輯等對輸出結果的影響能夠被人類理解,使人工智能更易于被人類管 控、更容易被社會接受。
4、公平性: 指人工智能模型在進行決策時, 不偏向某個特定的個體 或群體,也不歧視某個特定的個體或群體,平等對待不同性別、不同種 族、不同文化背景的人群,保證處理結果的公正、中立,不引入偏見和歧 視因素。
5、隱私性: 指人工智能在開發與運行的過程中實現了保護隱私的特 性,包括對個人信息和個人隱私的保護、對商業秘密的保護等。隱私性旨 在保障個人和組織的合法隱私權益,常見的隱私增強方案包括最小化數據 處理范圍、個人信息匿名化處理、數據加密和訪問控制等。
6、可靠性: 指人工智能及其所在系統在承受不利環境或意外變化 時,例如數據變化、噪聲、干擾等因素,仍能按照既定的目標運行、保持 結果有效的特性。可靠性通常需要綜合考慮系統的容錯性、恢復性、健壯 性等多個方面。
用戶數據用于訓練,放大隱私信息泄露風險;算法模型日趨復雜,可解釋性目標難實現;可靠性問題仍然制約人工智能關鍵領域應用
針對利用人工智能算法從事傳播違法和不良信息,侵害用戶權益,操縱社會輿論等問題,加強安全管理,推進算法推薦技術和深度合成技術依法合理有效利用
日本政府發布了《人工智能戰略2022 》旨在推動人工 智能克服自身社會問題、提高產業競爭力,提出以人為本、多樣性、 可持續三項原則
新加坡資訊通信媒體發展局和個人數據保護委員會共同發布人工智能安全治理評估框架和工具包A .I .VERIFY,結合人工智能系統的技術評估和程序檢查
俄聯邦政府批準《至2024年人工智能和機器人技術監管構 想》為人工 智能和機器人技術的安全應用和法律監管提供指導
歐盟專門立法,試圖對人工智能進行整體監管,針對可能對個人基本 權利和安全產生重大影響的人工智能系統建立全面的風險預防體系
美國監管要求少,主要強調安全原則,指導政府部門 與私營企業合作探索人工智能監管規則,并為人工智能實踐者提供自愿適 用的風險管理工具
擬議法案《人工智能與數據法》敦促各公司在開發和部署人工智 能系統時以減輕傷害和偏見風險為前提,進而維護加拿大民眾的權益
英 國將如何鞏固網絡強國地位,保障網絡安全,提升網絡空間行動能力,明確了英國將積極引領人工智能等七項優先技術領域的安全發展
20211000-T-469; 20230249-T-469; 20221791-T-469 ;T/CESA 1193-2022
GB/T38542-2020,GB/T38671-2020,GB/T40660-2021,GB/T41819-2022,GB/T41807-2022,GB/T41806-2022,GB/T41773-2022,GB/T41871-202220230253-T-469
梳理了人工智能技術與應用發展現狀,分析了人工智能面臨的新的安全風險,結合國內外人工智能安全政策與標準現狀,指出了人工智能安全標準需求