《人工智能安全治理框架》2.0版技术的应⽤,导致⽤⼾难以识别⽣成内容来源及交互对象是否为⼈⼯智能 系统,难以鉴别⽣成内容的真实性,影响⽤⼾判断,还可被⽤于制作传播 虚假信息误导公众、⾮法牟利。 (c)污染⽹络内容⽣态。模型输出的低质不良信息,经⽹络扩散传播、 模型循环引⽤,造成⽹络内容质量的整体下降,甚⾄特定领域、话题的内 容污染。 3.2.3现实安全⻛险 (a)经济社会运⾏安全的新挑战。⼈⼯智能应⽤于能源、电信、⾦融、 安全审核等⽅法确保训练数据内容的安全性, 确保数据来源清 晰、内容合规。 6.1.5 对训练数据进⾏质量和安全性评估, 采取分类模型、 ⼈⼯抽检等 ⽅式,过滤训练数据中的错误、违法不良内容。 6.1.6规范训练数据标注流程,采⽤交叉标注、结果审计等质量控制 ⽅法,提升标注准确性和可靠性,降低个体差异和个⼈偏⻅对标注质量的 人工智能安全治理框架2.0 - 全⾯了解应⽤场景的数据安全和隐私保护要求, 合理限制对数 据的访问权限, 防⽌超范围使⽤数据, 制定数据备份和恢复计划, 并定期 对数据处理流程进⾏检查。 6.2.7采⽤安全护栏等技术⼿段,识别拦截违法不良内容、提⽰词注⼊ 攻击等,防范输出内容超出业务范围。 6.2⼈⼯智能应⽤建设部署的安全指引 人工智能安全治理框架2.0 - 19 -6.3⼈⼯智能应⽤运⾏管理的安全指引 6.3.0 魔豆 | 92 页 | 30.37 MB | 2 月前3
共 1 条
- 1








