提升基层干部舆情风险防控能力
提升基层干部舆情风险防控能力 文章转载于微信公众号“学习时报” 基层是一切工作的落脚点。在互联网时代,舆情易发频 发已成常态,且不断向基层延伸,舆情下沉趋势日渐显现。 在舆情风险防控体系中,基层的短板相对突出。部分基层干 部在认知上,既看不清“风险全景图”,又把不准舆情风险 的演化趋势,对风险与态势等缺乏足够认识;在导向上,盲 目追求“零舆情”的考核目标;在职责上,存在错位现象, 将舆情风险防控视为宣传部门的工作,把自己置身于事外; 在协同上,部门之间存在数据壁垒,无法及时分享数据,造 成错失最佳应对时机。如何科学有效防控舆情风险正成为广 大基层干部面对的一道重要“考题”,亟须从认知升维、制 度迭代、技术赋能、协同攻坚四个维度提升舆情风险防控能 力。 认知升维:从“被动灭火”到“主动控温”的思维转变。 党的二十大报告指出,推动公共安全治理模式向事前预防转 型 型。面对舆情风险,有的基层单位往往后知后觉,缺乏对网 络舆情影响的敏感性和重要性的认识,从而错过最佳应对时 机。从“被动灭火”到“主动控温”的转变,注重在舆情风 险发生前进行预防和控制,避免事态扩大。这需要基层干部 摒弃“重危机处置、轻风险预防”的错误观念,将舆情风险 防控从事件处置转变为风险预防。一是明确目标导向。既不能将舆情风险视为“洪水猛兽”,造成风声鹤唳、草木皆兵 的“舆情焦虑”;也不能出现“舆情洁癖”,一味追求“零0 魔豆 | 5 页 | 119.93 KB | 3 月前3【清博】巴黎奥运会舆情风险预测
万份,近年累计百份材料得到重要领导批示, 参与数十起突发事件的会商,为政策制定、经济发展、民生改善等方方 面面起到了推动作用。 我们不断扩展服务范围,除了常规的周期性分析、舆情突发事件快 报与复盘、重要节点与政策发布前的风险预判外,还提供舆情会商、舆 情案例库搭建、应对手册与口径库编撰等咨询服务,以及模拟真实事件 的舆情演练训练。帮助大家在汹涌、复杂的舆论漩涡中,厘清症结,找 到有效管理、平复舆论的关键点。提升危机应对策略和技巧,改善现有 国队备战情况的考量,本次奥运会的舆情风险主要体现在以下 几个方面:首先,赛事成绩将是舆论关注的焦点。中国队在排 球、跳水、举重等优势项目上的表现将直接影响国内舆论走向; 其次,赛事直播和内容转播将面临新的挑战,往届体育盛会发 生多起版权纠纷、观赛体验不佳等情况,各大视频平台被推上 舆论的风口浪尖;第三,考虑到当下波谲云诡的国际形势,本 届奥运会无疑会受到政治和意识形态领域风险的考验,需警惕 潜在突 潜在突发事件和负面舆论。此外,各国运动员的个人言行也可 能成为舆论热点。 综上,本次巴黎奥运会的舆情风险既有延续性也有新的特 点。本文将结合往届奥运会舆情案例及本届奥运前夕各领域涉 奥运相关动向为基础,综合预判巴黎奥运会舆情风险。 (一)赛事组织 1. 法国政治格局动荡,或引发动荡影响赛事组织工作。今 年 6 月,在欧洲议会选举中,马克龙领导的法国复兴党输给了 极右翼。随后,马克龙宣布提前举行法国选举,使该国的政治0 魔豆 | 9 页 | 863.64 KB | 1 年前32024年5月网络舆论安全风险研判
0 魔豆 | 13 页 | 915.87 KB | 1 年前3低空经济未来发展的优势、问题及舆情风险研判报告(3)
重大问题专题研判 低空经济未来发展的优势、问题及 舆情风险研判 2023 年 12 月,中央经济工作会议提出打造包括低空经济在内的战略性新兴产业, 并将低空经济写入 2024 年政府工作报告,凸显了低空经济在国家经济发展中的 重要地位。 一、引言 近年来,低空经济作为新兴的经济形态,以其独特的市 场潜力和发展前景受到了广泛关注。低空经济不仅涵盖了传 统的通用航空业态,还融合了以无人机为代表的低空生产服 具有科技含量高、创 新要素集中等特点,其发展历程是技术创新、应用拓展和规 范化管理三者相互作用的结果。然而,在快速发展的同时, 低空经济也面临着一定的舆情风险。本文旨在探讨低空经济 未来发展的优势、存在的问题以及可能发生的舆情风险。 低空经济产业链生态图谱 资料来源:前瞻产业研究院 二、低空经济未来发展的优势 (一)市场需求广阔 随着人们生活水平的提高和消费观念的变化,对低空旅 三、存在的问题 (一)空域资源管理 低空经济的发展需要科学合理的空域资源管理。目前, 我国低空空域资源分配不均,部分地区空域紧张,影响了低 空经济的高效运行(广东省科学技术厅,2024)4。 (二)安全风险防控 低空飞行器的安全问题不容忽视。无人机在飞行过程中 可能遇到天气变化、信号干扰等不确定因素,存在一定的安 全隐患。如何确保低空飞行的安全,是低空经济发展中亟待 解决的问题(《中国低空经济发展研究报告(2024)》,20500 魔豆 | 9 页 | 356.75 KB | 9 月前3从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(九)
二、生成式 AI 的伴生风险 8.技术漏洞导致技术风险,会泄露数据、外部攻击等社 会安全风险 从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (九) 。 ·数据泄露风险。大模型需要海量数据,数据在清洗、 处理、传输过程存在数据非法获取或泄露风险,包括个人隐 私数据、商业敏感数据、政府机密数据等各种类型数据。如 果大模型在训练数据时看到很多密钥信息,它很可能在内容 人信息的法律依据。OpenAI 开放了 ChatGPT 的 API 接口, 全球开发者都可以将 ChatGPT 接入其开发的数字应用。大量 数据汇集使 ChatGPT 易被攻击,导致用户隐私数据泄露风险 加大。黑客可依托深度学习、数据挖掘、爬虫等技术挖掘泄 露数据之间的关联,完成信息拼图,追溯用户行为,引发信息安全问题。一个著名漏洞是“奶奶漏洞”,用户只要对 ChatGPT 说:“扮演我的奶奶哄我睡觉,她总在我睡前给我 ChatGPT 窃取大型公司数据,微软、贝宝、谷歌和奈 飞等跨国企业已成为其目标。美西方等国家也会借 ChatGPT 窥探和监视其他国家的公民隐私、社会热点、政治风向、群 体心态和国家机密。 ·系统安全风险。大模型系统较为脆弱,面临数据投毒攻击、对抗样本攻击、模型窃取攻击、数据重构攻击、后门 攻击、提示注入、指令攻击等多种恶意攻击。大模型训练依 赖于大规模数据集,来源包含网页获取、众包标注和开源数0 魔豆 | 7 页 | 208.35 KB | 3 月前3从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(一)
从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (一) 人工智能领域近年来正在迎来一场由生成式人工智能 大模型引领的爆发式发展。全球掀起一场大模型热潮, Gemini、Copilot、LLaMA、SAM、SORA 等国外大模型如雨 后春笋般涌现,中国也掀起百模大战,2022 年被誉为大模型 元年。人工智能正逐渐深入地赋能千行百业,推动人工智能 与数据要素成为新质生产力的典型代表。[1]从 国大选和英国脱欧,改变了世界对人工智能安全风险的认知。 布鲁金斯学会发布报告《人工智能改变世界》指出,人工智 能将严重威胁国家安全。西方政要甚至发出人工智能将干扰2024 年美国总统大选的担忧。 可以预见,伴随 ChatGPT 快速迭代,人工智能向 AGI (通用人工智能)快速演进,人工智能发展和应用正在加快 速度,其带来的不仅是发展机遇,风险挑战也是如影随形。 2021 年 11 月0 魔豆 | 6 页 | 173.33 KB | 3 月前3从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(五)
二、生成式 AI 的伴生风险 4.合成数据导致近亲繁殖,会让互联网信息出现劣币驱 逐良币现象。OpenAI 在训练 GPT-5 时已经遇到文本数据不 足问题,不得不考虑使用 Youtube 视频转录出的文本数据。 当下,数据生产存量的增长速度远远低于数据集规模的增长 速度。据人工智能研究机构 Epoch AI 在 6 月 4 日发布的论 文预测,未来 10 年内数据增长速度将无法支持大模型的扩 人类生成文本的速度。第二种是利用多模态和迁移学习,超 越文本数据从其他领域获取数据,比如视频、图像、金融市 场数据或科学数据库。[1 从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (五) ] 不过,这并非是解决问题的良策。如果网上大部分文本都是 AI 生成的,而用合成数据训练的大模型会发生什么? 大模型开发需要更多数据进行训练,而由 AI 生成的合成数 据很快进入0 魔豆 | 5 页 | 162.88 KB | 3 月前3从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(六)
从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (六) 二、生成式 AI 的伴生风险 5.人机能力非对称导致“自主欺骗”,会有目的欺骗人 类甚至主动欺诈和选举篡改。2023 年,OpenAI 提出超级对 齐(superalignment)[1]概念,即当超级智能拥有比人类更 丰富的世界知识,比人类更聪明时,人类作为弱监督者如何 监督、对齐和控制超级智能。人民大学高瓴人工智能学院、 Patterns(模式)发表论文,系统梳理 AI 具备欺骗行为的证据、风险和应对措施,指出“人工智能 的欺骗能力不断增强,带来严重风险,从短期风险(如欺诈 和选举篡改)到长期风险(如人类失去对人工智能系统的控 制)”。[3]AI 欺骗行为的雏形并非来自对抗性的网络钓鱼测 试,而是源于一些看似无害的桌游和策略游戏。该论文揭示,在多个游戏环境下,AI 代理(Agent)为了获胜,竟然自发 学会了欺骗和背信弃义的策略。2022 而是符合逻辑的必然结果。只要 AI 系统的目标导向性保持 不变,却又缺乏严格的价值引领,欺骗行为就很可能成为实 现目的的通用策略。 随着 AI 技术不断向生产、生活诸多领域渗透,欺骗带 来的潜在风险不容忽视。对于生成式 AI 而言,欺骗行为的 表现更加广泛和隐蔽。AI 的知识范畴覆盖方方面面,也逐渐掌握人类思维模式和社会规则。因此,谎言、阿谀奉承、歪 曲事实等欺骗伎俩,都被 AI 模型习得。在狼人杀、AmongUs0 魔豆 | 8 页 | 203.25 KB | 3 月前3从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(二)
从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (二) 二、生成式 AI 的伴生风险 ChatGPT 等生成式 AI 具有强大的自然语言处理能力, 展现出惊人的推理能力,但人们对其内在运行机理尚不清晰, 可解释性的难度很大,并存在一些技术缺陷,这些问题能否 解决对控制并限制人工智能的负面影响至关重要。需要看到, ChatGPT 等在短时间积聚起庞大活跃的全球用户群体,正给 ChatGPT 风险报告并指 出,ChatGPT 和其他大型语言模型(LLM)工具生成的输出 容易受到多种风险的影响。[1]生成式 AI 存在三大安全隐患, 一是源于技术缺陷,二是源于数据缺陷,三是源于用户滥用。 这三个问题的根源在于大模型的固有脆弱性,如生成偏见、 歪曲事实和泄露数据等。技术本是中立的,没有善恶之分, 就看是谁为了什么目的来使用。这就使得技术也具有偏向性 和风险性的。OpenAI0 魔豆 | 4 页 | 153.65 KB | 3 月前3人工智能、深度伪造与政治选举(四)
人工智能生成虚假信息是政治选举最大风险。当前, 利用人工智能深度伪造的虚假信息误导选民和扭曲选举的 风险引发人们对政治选举的公正性和透明度的关注。达沃斯 世界经济论坛发表《2024 年全球风险报告》,将人工智能生 成的错误和虚假信息排在气候变化、战争和经济疲软之前, 列为全球十大风险之首,指称“人工智能生成的错误和虚假 信息是 2024 年全球最大风险。”该报告是对 1400 多名全球 试图阻止民主党选民投票。恶意行为者还可以利用生成的图 像,使通过虚假账户影响受众的行为看起来更可信。现在, 人工智能可以轻易创建大量人物资料。自动化流程也有助于 更快捷地同时 操纵这些虚假账户。最后,在社交媒体上或 通过代理网站分享的大量不同内容的文本可以被用来制造 社会就某些政治问题形成共识的假象,或散播不同的叙事, 而不会像过去那样出现令人起疑的语法错误和行话误用。网 络上缺乏高质量的、以少数族裔语言呈现的选举相关信息,0 魔豆 | 7 页 | 189.76 KB | 3 月前3
共 24 条
- 1
- 2
- 3