《人工智能安全治理框架》2.0版
⼈⼯智能既存在模型算法缺陷、 数据语料质量问题等技术内⽣安全⻛ 险,也存在技术整合交付应⽤时的⽹络系统、信息内容等⽅⾯应⽤安全⻛ 险,还⾯临技术误⽤、滥⽤、恶⽤冲击现实社会环境、⼈类认知伦理的衍 ⽣安全⻛险,甚⾄是灾难性⻛险。 3.1⼈⼯智能技术内⽣安全⻛险 3.1.1模型算法安全⻛险 (a)可解释性不⾜。以深度学习为代表的⼈⼯智能算法运⾏逻辑复杂, 推理过 人工智能安全治理框架2.0 - 7 -3.2.4认知安全⻛险 (a)加剧“信息茧房”效应。 ⼈⼯智能将显著提升信息服务定制化能⼒, 更为准确地收集⽤⼾信息,分析⽤⼾需求、意图、喜好、⾏为习惯,甚⾄特 定时段、特定群体的意识思潮,进⽽推送精准定制化信息服务,加剧⽤⼾所 关注信息的局限性。 (b)助⼒开展认知战。⼈⼯智能被⽤于宣扬恐怖主义、极端主义、有 有 组织犯罪等内容,⼲涉他国内政、社会制度及社会秩序,危害他国主权; 通过社交机器⼈在⽹络空间抢占话语权和议程设置权,左右公众价值观和 思维认知。 3.3 人工智能应用衍生安全风险 3.3.1社会和环境安全⻛险 (a)冲击劳动就业结构。⼈⼯智能带来⽣产⼒、⽣产关系的⼤幅调整, 加速重构传统经济结构,资本、技术与数据在经济活动中的地位全⾯提升,0 魔豆 | 92 页 | 30.37 MB | 1 月前3
共 1 条
- 1