忻州小学查“户口式”收集信息引众怒:教育管理别踩这三大“红线”忻州小学查“户口式”收集信息引众怒:教 育管理别踩这三大“红线” (来源:纵览新闻) 近日,山西忻州长征小学(西校区)的一张“家校联系卡”, 把“家校沟通”这个本该温暖的话题推上了风口浪尖。表格里 “擅长技能”“社会资源”等与教学关联甚微的栏目已让家长犯嘀咕,“是否单亲”这类敏感隐私问题的出现,更是直接触碰 了公众的情绪红线。尽管校方迅速致歉止损,但这场舆情风 波留下的思考,值得所有教育从业者深思——家校沟通的边 波留下的思考,值得所有教育从业者深思——家校沟通的边 界在哪里?学校信息收集的“度”该如何把握? 以下几类“红线”需重点规避,这不仅是对学生和家长的 尊重,更是对教育本质的坚守。 红线一:隐私边界模糊,把“管理便利”凌驾于“个人权 利”之上 “我的家庭情况和孩子上学有什么关系?”这是许多家长 看到“是否单亲”一栏时的直观疑问。在法治观念日益普及的 今天,“隐私权”早已不是抽象的法律概念,而是每个公民的 到特殊保护。 学校收集信息的逻辑,本应是“为了学生发展”而非“为了 管理便利”。诸如学生的健康状况、紧急联系人信息等,是保 障校园安全和教学活动的“必要信息”;而家长的职业细节、 社会资源、家庭结构等内容,除非涉及学生特殊帮扶需求且 经家长主动同意,否则都属于“非必要信息”。 部分学校之所以陷入“查户口”的误区,本质上是把行政 思维带进了教育场景——觉得“多收集点信息总没错”,却忽0 魔豆 | 5 页 | 257.74 KB | 17 天前3
从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(九)发布调查结论,ChatGPT 以及用于收集用户数 据的技术违反欧盟《通用数据保护条例》 (GDPR)。早在 2023 年 3 月,Garante 就宣布禁止使用 ChatGPT,并限制 OpenAI 处理意大利用户信息。因为在 2023 年 3 月,ChatGPT 出现 用户对话数据和付款服务支付信息丢失情况。而且,OpenAI 没有就收集处理用户信息进行告知,缺乏大量收集和存储个 人信息的法律依据。OpenAI0 魔豆 | 7 页 | 208.35 KB | 4 月前3
正确看待与处理互联网上的民情与舆情的舆情分析方法,对收集到的信息进行深入分类与研判,精 准判断哪些属于正常的民意表达,哪些存在演变为舆情的可 能性。对于正常民情,可按照常规流程进行处理与回应;对 于可能转化为舆情的信息,则需启动应急预案,提前做好应 对准备。 (二)积极回应民情,解决群众问题 各地政府纷纷开设网络问政平台,这一举措为民众提供 了便捷的诉求表达渠道。相关部门应安排专业、责任心强的 工作人员,负责收集整理民众在平台上的留言。对于民众反300 魔豆 | 6 页 | 200.11 KB | 2 月前3
历数美国联邦政府的威权化动向在反恐和反间谍的旗号下,联邦政府大幅扩大了对公民的监 控权力。从“爱国者法案”到后续的监控体系建设,美国情报机 构和安全部门获得了几乎不受约束的权限,可以收集个人通话记 录、网络数据、社交媒体信息,甚至利用大数据和人工智能进行 预测性监控。多年前斯诺登揭露的“棱镜计划”显示,美国国家 安全局几乎全面收集民众的电话、邮件与网络记录,这种情况只 在增强,没有减弱。特朗普时期,美国政府以“防止中国渗透” 为由,扩大对华人学者与留学生的电子邮件、社交媒体监控,甚0 魔豆 | 7 页 | 273.49 KB | 2 月前3
《人工智能安全治理框架》2.0版型的开 源,加剧模型缺陷扩散速度、影响范围和修补难度,为不法分⼦训练“作 恶模型”提供便利。 3.1.2 数据安全⻛险 (a)违规收集使⽤数据。⼈⼯智能训练数据的获取,以及服务、交互 过程中,存在未经同意收集、不当使⽤数据和个⼈信息的安全⻛险。 (b)训练数据内容不当。训练数据包含虚假、偏⻅、侵犯知识产权等 违法有害内容,还⾯临攻击 现有管控体系失效,加剧世界各地区和平安全威胁。 人工智能安全治理框架2.0 - 7 -3.2.4认知安全⻛险 (a)加剧“信息茧房”效应。 ⼈⼯智能将显著提升信息服务定制化能⼒, 更为准确地收集⽤⼾信息,分析⽤⼾需求、意图、喜好、⾏为习惯,甚⾄特 定时段、特定群体的意识思潮,进⽽推送精准定制化信息服务,加剧⽤⼾所 关注信息的局限性。 (b)助⼒开展认知战。⼈ 发等问题,加速电⼒、⼟地、⽔ 等能源资源消耗,对资源供需平衡、绿⾊低碳发展带来新的挑战。 3.3.2伦理安全⻛险 (a)加剧社会偏⻅、扩⼤智能鸿沟。利⽤⼈⼯智能收集分析⼈类⾏为、 社会地位、经济状态、个体性格等,对不同⼈群进⾏标识分类、区别对待, 带来系统性、结构性的社会歧视与偏⻅。同时,拉⼤不同地区⼈⼯智能鸿沟。 (b)冲0 魔豆 | 92 页 | 30.37 MB | 2 月前3
互联网企业危机不断的症结着各种风险的考验和社会的压力:产品设计中存在的诱导分享让用户不知不觉的 陷入付费和打赏的陷阱,网络游戏中的低俗、暴力以及令人沉迷的倾向对青少年 可能产生的不利影响,应用产品推广过程中对用户数据信息的过度收集和由此扩 大的隐私泄露风险,业务运营过程中对利益的过度追求和对一些灰色地带有意无 意的放纵…… 这些或明或暗的问题,往往通过重大危机的突然发生、个别用户的网络投诉、 意见领袖的集中炮轰、主流0 魔豆 | 3 页 | 190.24 KB | 5 月前3
关于宗庆后遗产争夺及党员身份争议舆情的综合研判与决策建议负面标签。 (三)防控负面舆情扩散 1.舆情监测与干预 “ ”“ ” 对重点传播 撤销荣誉 党员腐化 等极端话题的自媒体进行 标注监控,必要时启动约谈、限流或依法处置。加强对境外反华 媒体报道的收集与反制,及时在中文舆论场反驳。 2.内部协调与预案 建议中央宣传部与浙江省委宣传部协同,设立专项舆情小 组,每48小时提交研判简报。若舆情出现大规模联署或线下行动 苗头,应由政法系统介入提前稳控。—5—100 魔豆 | 5 页 | 20.53 KB | 4 月前3
开云集团数据泄露背后的奢侈品《数 据安全法》《网络安全法》强调合法、必要、最小化原则, 尤其对跨境传输和敏感信息保护设有严格规范。9 月 16 日国 家网信办公布的执法案例显示,企业因未做安全评估、未加 密存储、超范围收集个人信息等行为被处罚。今年 5 月,迪 奥(上海)因客户数据跨境处理违规亦遭到查处。这表明,—4— 在中国市场运营的奢侈品牌若忽视数据合规,风险不仅限于 可能失去高端客户信任,还可能面临我国的监管处罚。0 魔豆 | 4 页 | 206.11 KB | 2 月前3
从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(二)或科学知识。[2]这是人工智能的一种自信反应或“错觉”。 当生成式 AI 出现“幻觉”时,它会提供看起来合理但不正 确的信息,大概会影响到 15%至 20%的生成内容。例如, ChatGPT 会快速收集大量新闻资料并完成新闻撰写,但是生 成的新闻内容并不能完全反映实际情况,对于事实性错误也 能“一本正经胡说八道”。2023 年 2 月 8 日的《纽约时报》 报道,美国新闻可信度评估与研究机构0 魔豆 | 4 页 | 153.65 KB | 4 月前3
突发事件网络舆情研究综述发酵和快速蔓延,对政府工作、社会稳定以及公众的正常 生活都会产生很大的影响。因此,如何在突发事件发生时, 提高多方有效应对网络舆情的能力,成为有待解决的重要 课题。基于中国知网(CNKI)所提供的文献,收集并整理了 2009 年至 2024 年国内学者对突发事件网络舆情研究的文 献资料,使用 CiteSpace 知识图谱软件作为工具进行可视图 的构建,系统分析过去不同领域和不同学者的研究内容和 里剔除综述型和评述型文献、各年份期刊会议文献、与“网 络舆情”和“突发事件”无关的泛义词等,保证样本数据 的精确性和分析结果的准确性,最终得到 401 篇有效中文 文献样本。 (二)发文量年限分布 对收集整理到的中文文献数据样本在 CiteSpace 软件 中进行时间年限分布分析,得出结果如图 1 所示。该图一 方面反映出 2009 年至 2024 年里突发事件网络舆情不同年份的研究占比;另一方面也体现出学术界对突发事件网络0 魔豆 | 11 页 | 508.02 KB | 1 月前3
共 39 条
- 1
- 2
- 3
- 4








