近年來,人工智能保持快速發展勢頭,但人工智能所帶來的安全風險 也不容忽視。
(一)用戶數據用于訓練,放大隱私信息泄露風險
當前,人工智能利用服務過程中的用戶數據進行優化訓練的情況較為 普遍,但可能涉及在用戶不知情情況下收集個人信息、個人隱私、商業秘 密等,安全風險較為突出。
(二)算法模型日趨復雜,可解釋性目標難實現
長期以來可解釋性都是制約人工智能用在司法判決、金融信貸等關鍵 領域的主要因素,時至今日問題尚未解決、且變得更為棘手。由于深度模 型算法的復雜結構是黑盒,人工智能模型天然缺乏呈現決策邏輯進而使人 相信決策準確性的能力。
(三)可靠性問題仍然制約人工智能關鍵領域應用
由于現實場景中環境因素復雜多變,人工智能難以通過有限的訓練數 據覆蓋現實場景中的全部情況,因此模型在受到干擾或攻擊等情況下會發 生性能水平波動,嚴重時甚至可引發安全事故。
(四)濫用誤用人工智能,擾亂生產生活安全秩序
人工智能在對加速社會發展、提升生產效率等方面產生極大促進作用 的同時,也出現了被濫用誤用、惡意使用的現象,引起威脅社會安全、人 身安全等負面事件。
(五)模型和數據成為核心資產,安全保護難度提升
人工智能訓練數據的獲取以及模型開發已經逐漸變成重資產投入、重 人力投入的工作,算法模型、參數、加工后的訓練數據已成為核心資產, 不免遭到覬覦。
(六)網絡意識形態安全面臨新風險
人工智能的目標是模擬、擴展和延伸人類智能,如果人工智能只是單 純追求統計最優解,可能表現得不那么有“人性”;相反,包含一些人類 政治、倫理、道德等方面觀念的人工智能會表現得更像人、更容易被人所 接受。
針對利用人工智能算法從事傳播違法和不良信息,侵害用戶權益,操縱社會輿論等問題,加強安全管理,推進算法推薦技術和深度合成技術依法合理有效利用
日本政府發布了《人工智能戰略2022 》旨在推動人工 智能克服自身社會問題、提高產業競爭力,提出以人為本、多樣性、 可持續三項原則
新加坡資訊通信媒體發展局和個人數據保護委員會共同發布人工智能安全治理評估框架和工具包A .I .VERIFY,結合人工智能系統的技術評估和程序檢查
俄聯邦政府批準《至2024年人工智能和機器人技術監管構 想》為人工 智能和機器人技術的安全應用和法律監管提供指導
歐盟專門立法,試圖對人工智能進行整體監管,針對可能對個人基本 權利和安全產生重大影響的人工智能系統建立全面的風險預防體系
美國監管要求少,主要強調安全原則,指導政府部門 與私營企業合作探索人工智能監管規則,并為人工智能實踐者提供自愿適 用的風險管理工具
擬議法案《人工智能與數據法》敦促各公司在開發和部署人工智 能系統時以減輕傷害和偏見風險為前提,進而維護加拿大民眾的權益
英 國將如何鞏固網絡強國地位,保障網絡安全,提升網絡空間行動能力,明確了英國將積極引領人工智能等七項優先技術領域的安全發展
20211000-T-469; 20230249-T-469; 20221791-T-469 ;T/CESA 1193-2022
GB/T38542-2020,GB/T38671-2020,GB/T40660-2021,GB/T41819-2022,GB/T41807-2022,GB/T41806-2022,GB/T41773-2022,GB/T41871-202220230253-T-469
梳理了人工智能技術與應用發展現狀,分析了人工智能面臨的新的安全風險,結合國內外人工智能安全政策與標準現狀,指出了人工智能安全標準需求
提供工業模型開發環境,支持主流的深度學習框架,支持低代碼,可視化的方式開發工業模型;支持開展工業模型訓練;支持開展模型測試與評估