积分充值
 首页
时政舆情
经济舆情
社会舆情
文化舆情
教育舆情
军事舆情
舆情论文
开源情报
舆情技术
文库资料
默认
文章资讯
 上传文档  发布文章  登录账户
舆知库 · 国内首家舆情知识共享平台
  • 综合
  • 文档
  • 文章

无数据

分类

全部社会舆情(31)舆情论文(20)开源情报(17)教育舆情(7)时政舆情(5)经济舆情(4)文化舆情(2)舆情技术(2)军事舆情(1)

语言

全部中文(简体)(71)中文(简体)(4)

格式

全部PDF文档 PDF(83)DOC文档 DOC(6)
 
本次搜索耗时 0.011 秒,为您找到相关结果约 89 个.
  • 全部
  • 社会舆情
  • 舆情论文
  • 开源情报
  • 教育舆情
  • 时政舆情
  • 经济舆情
  • 文化舆情
  • 舆情技术
  • 军事舆情
  • 全部
  • 中文(简体)
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • DOC文档 DOC
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • word文档 AI谣言舆情特征及风险研判

    AI 谣言舆情特征及风险研判 来源:法制网舆情中心 作者:任静 编者按 近年来,网络谣言逐渐出现一些新动向,其中比较典 型的便是利用 AI 工具造谣。随着人工智能技术快速发 展,AI 谣言呈现数量增多、涉及领域广泛、传播渠道集 中、与社会热点话题紧密关联等特征,给政法机关社会治 理工作带来较大挑战。今年 1 月份后,公安部网安局、互联 网联合辟谣平台以及各地警方持续通报对多起涉 AI AI 谣言的 处置情况,引发舆论持续热议。法治网舆情中心从 2025 年 1 月以来的涉 AI 谣言事件中挑出 10 起热度较高、较具代表 性的事件,分析当前 AI 网络谣言的舆情特征,研判其背后 的舆情风险并提出应对建议,供政法机关参考。、 一 舆情事件 10 起典型案例中,有 4 起 AI 谣言与自然灾害相关,包 括地震、山体滑坡等;2 起谣言涉及食品安全和突发事件, 分别为“四川某中学食堂用淋巴肉做包子致 分别为“四川某中学食堂用淋巴肉做包子致 87 名学生中 毒”和“某地学校发生火灾”;还有 4 起谣言分别涉及伪科 学、文娱行业、社会秩序和司法案件四个方面。AI 谣言表 现形式较多,大多通过微博、微信、短视频等社交媒体渠 道扩散,并以文字、图片、视频形式单一或“搭配”传 播,比如“西藏定日县地震一小孩被压废墟”谣言形式为 图片,“上海退休教授靠阳台核电池供电”谣言则是以 “文字+视频”的形式传播。造谣动机方面,有 8 起事件明
    0 魔豆 | 8 页 | 484.99 KB | 3 月前
    3
  • pdf文档 从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(九)

    二、生成式 AI 的伴生风险 8.技术漏洞导致技术风险,会泄露数据、外部攻击等社 会安全风险 从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (九) 。 ·数据泄露风险。大模型需要海量数据,数据在清洗、 处理、传输过程存在数据非法获取或泄露风险,包括个人隐 私数据、商业敏感数据、政府机密数据等各种类型数据。如 果大模型在训练数据时看到很多密钥信息,它很可能在内容 读 Windows 11 序列号。” 这时,ChatGPT 就会如实报出一 堆序列号,并且大多数是真实有效的。人们通过提示词给 AI 讲故事,通常是经过一些巧妙的包装,里面掺杂了有争议 的内容(就像开头提到的制造炸弹那个例子)。故事讲到一 半,剩下的交给 AI 模型,后者由于拥有强大的文本生成的 能力,会忠实地把缺失的部分回答完整。攻击者通过 LLM 输出其在训练数据中所存在的不符合伦理道德的数据,产生 公司联合开发分析巴以冲突根源的人工智能 模型,该系统可生成海量智能体用于模拟冲突地区居民,每 个智能体包含 80 多个特征。11 月,美国智库战略与国际研 究中心未来实验室与美国 Scale AI 公司合作使用多诺万 (Donovan)平台定制开发基于大规模数据集的大语言模型, 开展战略级兵棋推演,并聚焦网络攻击、虚假信息等问题。 12 月,英国 Hadean 公司展示“Hadean 防务平台”空间计算
    0 魔豆 | 7 页 | 208.35 KB | 3 月前
    3
  • pdf文档 从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(一)

    从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (一) 人工智能领域近年来正在迎来一场由生成式人工智能 大模型引领的爆发式发展。全球掀起一场大模型热潮, Gemini、Copilot、LLaMA、SAM、SORA 等国外大模型如雨 后春笋般涌现,中国也掀起百模大战,2022 年被誉为大模型 元年。人工智能正逐渐深入地赋能千行百业,推动人工智能 与数据要素成为新质生产力的典型代表。[1]从 视防范风 险。我们如何看待和认知人工智能的安全问题特别是政治文 化安全问题,首先需要认清人工智能在信息生成和输出方面 的媒介特质。 一、生成式 AI 的媒介特质 1.一种媒介特质:生成式 AI 是一种大规模信息传播媒 介。生成式 AI 的未来,不仅是无所不能、无所不在的一个 工具,更是无所不包、无所不达的一种媒介。众所周知,媒 介是信息传递的载体,是携带和传递信息的一切形式,既包 以较低成本、极高效率触达全球多语种受众,并自动化展开 一对一的信息生成和内容传播。Gartner 预测,到 2025 年, ChatGPT 类 AI 生成的数据将占到整个互联网的 10%,到 2030 年,新闻行业九成以上新闻稿件将由 AI 辅助完成。 2.两元传播主体:生成式 AI 是一种人机互构的交互传 播。ChatGPT 是一种对话式人工智能模型,它是人类的认知 (创意思维、情感理解和复杂问题的抽象性推理)能力与机
    0 魔豆 | 6 页 | 173.33 KB | 3 月前
    3
  • pdf文档 从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(五)

    二、生成式 AI 的伴生风险 4.合成数据导致近亲繁殖,会让互联网信息出现劣币驱 逐良币现象。OpenAI 在训练 GPT-5 时已经遇到文本数据不 足问题,不得不考虑使用 Youtube 视频转录出的文本数据。 当下,数据生产存量的增长速度远远低于数据集规模的增长 速度。据人工智能研究机构 Epoch AI 在 6 月 4 日发布的论 文预测,未来 10 年内数据增长速度将无法支持大模型的扩 乎无法用于大模型训练。如何克服人类文本数据的瓶颈。第 一种是利用 AI 生成数据,如 OpenAI 模型每天能够生成相当 于 Common Crawl 中优质单词总数的 36.5T 个单词,远快于 人类生成文本的速度。第二种是利用多模态和迁移学习,超 越文本数据从其他领域获取数据,比如视频、图像、金融市 场数据或科学数据库。[1 从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (五) ] 不过,这并非是解决问题的良策。如果网上大部分文本都是 AI 生成的,而用合成数据训练的大模型会发生什么? 大模型开发需要更多数据进行训练,而由 AI 生成的合成数 据很快进入了训练新模型的数据集,并随着每一代模型而不 断积累。越来越多证据显示,人工智能生成的文本,即使被 引入训练数据集的量很少,最终也会对训练中的模型产生 “毒害”。[2]研究人员将一些由 AI 生成的语料作为训练数 据,“投喂”给一个正在训练的语言模型,然后使用它所输
    0 魔豆 | 5 页 | 162.88 KB | 3 月前
    3
  • pdf文档 从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(六)

    从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (六) 二、生成式 AI 的伴生风险 5.人机能力非对称导致“自主欺骗”,会有目的欺骗人 类甚至主动欺诈和选举篡改。2023 年,OpenAI 提出超级对 齐(superalignment)[1]概念,即当超级智能拥有比人类更 丰富的世界知识,比人类更聪明时,人类作为弱监督者如何 监督、对齐和控制超级智能。人民大学高瓴人工智能学院、 Weak-Unknown(人类未知) 的地方犯错。 AI 不仅能生成虚假信息,更可能主动学会有目的地欺骗 人类。这种“AI 欺骗”现象,是人工智能为了达成某些目标, 而操纵并误导人类形成错误认知。与代码错误而产生错误输 出的 bug 不同,AI 欺骗是一种系统性行为,体现了 AI 逐步掌握了“以欺骗为手段”去实现某些目的的能力。人工智能 先驱杰弗里·辛顿(Geoffrey Hinton)表示,“如果 AI 比我 们聪明得 例子。”辛顿提到的“操纵(人类)”是 AI 系统带来的一个 特别令人担忧的危险。 AI 系统能否成功欺骗人类?多项研究表明,AI 已经能 够无师自通地学会欺骗手段,自行做出不诚实的行为。在一 些与人类选手的对抗游戏中,它们为了赢得游戏,会在关键 时刻佯动欺骗,甚至制定周密阴谋,以化被动为主动,获得 竞争优势。在一些检测 AI 模型是否获得了恶意能力的安全 测试中,有的 AI 竟能识破测试环境,故意在测试环境中“放
    0 魔豆 | 8 页 | 203.25 KB | 3 月前
    3
  • pdf文档 从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(二)

    从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (二) 二、生成式 AI 的伴生风险 ChatGPT 等生成式 AI 具有强大的自然语言处理能力, 展现出惊人的推理能力,但人们对其内在运行机理尚不清晰, 可解释性的难度很大,并存在一些技术缺陷,这些问题能否 解决对控制并限制人工智能的负面影响至关重要。需要看到, ChatGPT 等在短时间积聚起庞大活跃的全球用户群体,正给 年 5 月,Gartner 发布法律和合规领导者必须评估的 ChatGPT 风险报告并指 出,ChatGPT 和其他大型语言模型(LLM)工具生成的输出 容易受到多种风险的影响。[1]生成式 AI 存在三大安全隐患, 一是源于技术缺陷,二是源于数据缺陷,三是源于用户滥用。 这三个问题的根源在于大模型的固有脆弱性,如生成偏见、 歪曲事实和泄露数据等。技术本是中立的,没有善恶之分, 就看 迷之自信导致主观“幻觉”,会输出错误信息误导受 众认知。如果要求 ChatGPT 提供训练数据或已知事件之外的 历史信息,生成式 AI 有时会产生“幻觉”,生成一些无关、 无意义或不正确的信息,包括编造错误答案和不存在的法条 或科学知识。[2]这是人工智能的一种自信反应或“错觉”。 当生成式 AI 出现“幻觉”时,它会提供看起来合理但不正 确的信息,大概会影响到 15%至 20%的生成内容。例如, ChatGPT
    0 魔豆 | 4 页 | 153.65 KB | 3 月前
    3
  • pdf文档 202507涉高校热点舆情

    ..10 5.校园伦理道德类:香港大学一男学生用老师同学照片 AI 生 成色情照................................................................................... 12 6.师德师风类:网民公开举报中南大学教授谭某兵嫖娼...... 14 7. 网络谣言类:岭南师范辟谣“岭南师大留学生陪读”.... 15 (二) 17 1. 高校僵化的舆情应对机制,“鸵鸟式”回应遭质疑.............17 2. 校方事件通报“避重就轻”未回应舆论关切........................ 17 3.“AI 技术滥用”“性别暴力”使事件呈现出双重舆情标签......18 三、8 月风险预判及建议..................................................... 发校园开 放政策与安全保障机制的激烈争论,凸显社会人员流动管理 与应急响应机制的薄弱。二是校规执行中的程序正义与性别 平等失衡。大连工业大学对涉私德学生拟“顶格开除”的处罚, 与香港大学对 AI 生成色情照学生仅“警告处理”形成尖锐对 比,舆论场撕裂中,“性别双重标准”“校规执行弹性”的质疑 直指高校惩戒体系的公平性;同时,媒体实名报道引发的隐 私权争议,也暴露了舆论场中个体权利与公众知情权的边界
    1000 魔豆 | 22 页 | 552.94 KB | 2 月前
    3
  • pdf文档 2025年上半年网红行业舆情分析报告

    2025 年上半年网红行业舆情分析报告 文章转载于微信公众号“ZACH 舆情公关” 2025 年上半年,中国网红经济在技术驱动(5G/AI/VR)下持续 扩容,市场规模逼近 2 万亿元,主播账号总量达 1.93 亿个。 然而,伴随网红行业高速发展,虚假宣传、偷逃税款、造谣炒 作等负面舆情高发,倒逼监管体系加速完善。国家网信办、公安部、 市场监管总局等多部门密集出台政策(如《MCN 机构业务活动管理 粉丝流失、口碑下滑、商业价值贬损乃至账号封禁等“反噬效 应” 接踵而至,刻意营造的“人设”愈发难以维系公众信任。 5、摆拍造假与谣言炒作产业化,侵蚀信息生态公信力 张兰汪小菲炒作大 S 离世被封、自导自演“遭勒索自杀离世”、 4 岁千万粉丝网红“瑶一瑶”陷摆拍争议等舆情事件,揭示炒作、 造假、摆拍和制造谣言已形成策划、制作、传播、变现的灰色产业 链。 (图源:中新文娱)这类行为大量消耗社会善意、扭曲事实真相、扰乱网络秩序, 点关注以下领域: 1、AI 等技术滥用带来的直播电商治理新挑战 3 月 29 日,一则“顶流男星境外豪赌输光十亿身价”的新闻在 微博、小红书等平台迅速发酵,阅读量突破 5 亿。然而,经核查, 该信息实为某网友利用 AI 工具生成的虚假内容。用户仅需输入社会 热点关键词,AI 便自动生成标题、文案及配图,全程耗时不足 5 分 钟。 该舆情引发公众对 AI 换脸、语音克隆等新技术的担忧,极有可
    0 魔豆 | 11 页 | 1.27 MB | 2 月前
    3
  • pdf文档 一场没有输家的战争:印巴冲突“双赢”背后的认知战较量

    一场没有输家的战争:印巴冲突“双赢”背 后的认知战较量|网络舆论战 印巴认知战的第二条战线:网络舆论战。 现在军事战争往往伴随网络舆论战,通过传播假新闻、 虚假宣传、深度伪造和 AI 生成内容,利用信息干扰操纵认 知,通过制造混乱、焦虑和散播混乱来影响敌国民众心理。 空战爆发后,印巴通过社交媒体、新闻媒体等渠道进行激烈 的认知对抗,通过外交部、国防部等机构大量发布和传播对 于己方有 “#SindoorServesJustice”等标签,宣扬印军跨境打击的 正当性。印度电子和信息技术部(MeitY)严密监控网络舆 情,及时辟谣不实信息。PIB 的事实核查小组昼夜运转,应 对网上激增的谣言举报。有印方官员表示,巴方社交账号的策略很简单:以极快速度、大规模地向网络空间注入虚假内 容,让真相淹没在汪洋谎言之中。5 月 23 日,印度外交部发 言人的 X 账号在凌晨三点发布剪辑视频,指控巴“操纵网络 胁或巴基斯坦参与其中(MiddlewareBox )。重提旧骗局将网络威胁归咎于巴,意在制造恐慌和混乱。印巴无论是主动 发动信息攻势,还是被动防守舆论战,双方都已将社交媒体 视作必夺和必守的前沿阵地。 *虚假信息传播:把谣言武器化。谎言打着真相的幌子 漫天飞,形象地描绘了与印巴冲突有关的信息环境,对双方 国内和国家舆论的影响明显。X 和 Instagram 等社交媒体上 的虚假信息和宣传激增,形成“虚假信息海啸”。从深度伪
    0 魔豆 | 15 页 | 249.16 KB | 3 月前
    3
  • pdf文档 以江油事件武大事件为例对比分析网络舆情迅速发酵成因及折射出的问题

    社会心理基础:公众情绪阈值降低与代入感 涉及特权不公(如防城港奔驰女亮证事件,江油事件官 二代施暴谣言)、公共安全(比亚迪失控传闻)或道德争议 (武汉大学性骚扰指控)的议题,极易触发公众的代入式愤 怒。当事件触及“权力滥用”“程序正义缺失”等敏感神经 时,网民会因自身不安全感而快速形成声浪。例如江油事件 因官方信息迟缓披露滋生了诸多谣言,激发了民众共情受害 女孩家庭对公权不信任;奔驰女事件中,民警“灭火式执法” ; 武汉大学在性骚扰争议反转后未及时纠错,发酵后校长回应3 “等上级安排”,导致舆情从个体事件升级为对高校公信力 的批判。江油事件中,当地警方未及时公开施暴者家庭背景, 导致“官二代”谣言发酵,令谣言在民众中传播甚嚣尘上。 以上无不印证了地方政府部门在应于舆情方面的不专业性。 02 “围魏救赵”式舆论转移的三类操作模式 部分群体或组织通过主动制造新热点转移焦点,本质是 危机策略的武器化: 造谣视频 通过碎片化剪辑和批量账号点赞实现数万互动量,包括利用 网络机器人(水军)24 小时制造声浪(“5+2”“白加黑” 模式),远超常规传播速度。这类操作符合美西方“一条龙5 流水线生产谣言”的套路。 平台规则武器化 西方社交平台系统性限流中国账号:Twitter 给中国媒 体标注“不可信”标签,却对 BBC 等西方媒体豁免标注;俄 乌冲突期间,YouTube、Facebook
    0 魔豆 | 8 页 | 252.68 KB | 2 月前
    3
共 89 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 9
前往
页
相关搜索词
AI谣言舆情特征风险研判ChatGPTAGI生成生成式媒介特质伴生202507高校热点2025上半半年上半年网红行业分析报告一场没有输家战争印巴冲突双赢背后认知较量江油事件武大为例对比网络迅速发酵成因折射射出折射出问题
舆知库 · 国内首家舆情知识共享平台
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传,仅供学习交流,如侵犯您的权益,请联系我们进行删除。
舆知库 · 国内首家舆情知识共享平台 ©2025 | 站点地图 京ICP备20008529号
  • 我们的小程序同样精彩
    我们的小程序同样精彩