《人工智能安全治理框架》2.0版
安全⻛险,从技 术、管理两⽅⾯提出防范应对措施。 2.1 安全⻛险分类。通过分析⼈⼯智能技术特性,以及在不同⾏业领 域应⽤场景,梳理⼈⼯智能技术本⾝,及其在应⽤过程中⾯临的各种安全 ⻛险隐患。 在1.0版基础上, 调整更新⻛险类型, 并探索性提出分级应对 原则。 2.2 技术应对措施。针对模型算法、训练数据、算⼒设施、产品服务、 信⼈⼯智能基本准则,引导国际社会共识。 3.⼈⼯智能安全⻛险分类 ⼈⼯智能既存在模型算法缺陷、 数据语料质量问题等技术内⽣安全⻛ 险,也存在技术整合交付应⽤时的⽹络系统、信息内容等⽅⾯应⽤安全⻛ 险,还⾯临技术误⽤、滥⽤、恶⽤冲击现实社会环境、⼈类认知伦理的衍 ⽣安全⻛险,甚⾄是灾难性⻛险。 3.1⼈⼯智能技术内⽣安全⻛险 3.1.1模型算法安全⻛险 (a)可解释性不⾜。 以及服务、交互 过程中,存在未经同意收集、不当使⽤数据和个⼈信息的安全⻛险。 (b)训练数据内容不当。训练数据包含虚假、偏⻅、侵犯知识产权等 违法有害内容,还⾯临攻击者篡改、注⼊错误、误导数据的“投毒”⻛险, 影响模型价值观对⻬,“ 污染”模型概率分布,造成决策输出准确性、可信 度下降,甚⾄输出违法有害信息。 (c)训练数0 魔豆 | 92 页 | 30.37 MB | 1 月前3
共 1 条
- 1