👀 家人们,每天看行情、刷大佬观点,却从来不开口说两句?你的观点可能比你想的更有价值!
广场新人 & 回归福利正式上线!不管你是第一次发帖还是久违回归,我们都直接送你奖励!🎁
每月 $20,000 奖金等你来领!
📅 活动时间: 长期有效(月底结算)
💎 参与方式:
用户需为首次发帖的新用户或一个月未发帖的回归用户。
发帖时必须带上话题标签: #我在广场发首帖 。
内容不限:币圈新闻、行情分析、晒单吐槽、币种推荐皆可。
💰 奖励机制:
必得奖:发帖体验券
每位有效发帖用户都可获得 $50 仓位体验券。(注:每月奖池上限 $20,000,先到先得!如果大家太热情,我们会继续加码!)
进阶奖:发帖双王争霸
月度发帖王: 当月发帖数量最多的用户,额外奖励 50U。
月度互动王: 当月帖子互动量(点赞+评论+转发+分享)最高的用户,额外奖励 50U。
📝 发帖要求:
帖子字数需 大于30字,拒绝纯表情或无意义字符。
内容需积极健康,符合社区规范,严禁广告引流及违规内容。
💡 你的观点可能会启发无数人,你的第一次分享也许就是成为“广场大V”的起点,现在就开始广场创作之旅吧!
核污水排海引热议!日政府被曝出动 AI 武器,实时监控全网「虚假信息」
来源:新智元
编辑:Aeneas 好困
这几天,日本正式开始向太平洋排放核污染水的消息,引起了广泛的关注。
而就在排放之前,有媒体报道称,日本政府从去年起便开始利用AI工具监控任何与福岛核电站计划排放核污水有关的言论。
今年6月,该AI发现了一份韩国媒体的报道,声称日本外务省高级官员向国际原子能机构(IAEA)进行了巨额政治献金。
值得注意的是,该框架不仅包括面向日本受众的信息,还包括其他国家和地区针对日本的信息。
事件回顾
2011年3月,地震和海啸摧毁了福岛第一核电站的冷却系统,导致三个反应堆中的核燃料熔毁,放射性物质不断泄漏。随之而来的大面积污染,迫使数万人撤离。
为了抑制爆炸后过热的反应堆堆芯,自那以后,已经有超过130万立方米的海水被用于冷却。
这些受污染的水也被收集起来,并存储在该场地上的1000多个不锈钢储罐中。
在造成污染的64种放射性元素中,主要对人类健康构成威胁的放射性元素为:碳-14,碘-131,铯-137,锶-90,钴-60和氚-3。
为了处理这些核污水,东京电力公司(TEPCO)采用了自行研发的先进液体处理系统(ALPS),过程分为共沉淀、吸附和物理过滤等五个阶段。
2021年4月,日本政府正式批准将这些经过处理的核污水排入大海。
尽管多个国家和国际组织对此表示担忧,但这并没有阻止日本对该计划的推进。
与此同时,日本外务省也开始使用AI来监控网上关于核污水中含有放射性物质的报道,并通过制作大量宣传材料来稀释这些信息的浓度。
7月21日,日本外务省在推特上发布的一则动画视频,就用日语、英语、法语、西班牙语、俄语、阿拉伯语、中文和韩语,解释了核污水处理过程中采取的安全防护措施。
视频解释了工厂的水如何通过高级液体处理系统(ALPS)按照监管标准进行净化。并且强调,在被释放到更广泛的海洋区域之前,排放的核污水已经被海水稀释了100倍。
AI监控言论
实际上,这种监控互联网舆论的技术,在AI领域早已有了非常深入和广泛的探索。
其中最为热门的,便是利用算法、机器学习模型和人工的组合来应对社交媒体中发布的「虚假新闻」。
2018年的一项Twitter研究显示,虚假新闻报道被人类转发的可能性比真实新闻高70%。
与此同时,真实新闻需要大约6倍的时间才能在1500人的群体中传播,而且大部分时候的传播范围很少能超过1000人。相比之下,热门的虚假新闻却可以传播到多达10万人。
Sphere是第一个能够一次性扫描数十万引用,来检查它们是否支持相应声明的AI模型。
当Sphere发现可疑来源时,就会推荐更强大的来源或更正,来帮助提高条目的准确性。
Sphere的研发,标志着Meta为解决平台上的错误信息所做的努力。
几年来,Meta一直因为Facebook、Instagram和WhatsApp上传播的错误信息,遭受着用户和监管机构的严厉批评。CEO小扎甚至被召到国会面前讨论这个问题。
发现假新闻,探索社交媒体传播模式
在欧洲,还有一个Fandango项目,他们在构建软件工具,帮助记者和事实核查员检测假新闻。
另外,系统还会根据已经被事实核查员标记的假消息,寻找到具有类似词语和观点的网页或者社交媒体帖子。
这个项目叫做GoodNews,颠覆了传统的假新闻AI探测工具。
另外,很多时候假新闻可能是图像,使用自然语言处理技术很难进行分析。
结果表明,假新闻在Facebook上的分享量可能远远多于点赞数,而普通帖子的点赞数往往多于分享量。通过发现这样的模式,GoodNews就会将可信度分数附加到新闻项目上。
由此,他们训练了AI算法,教会模型哪些故事是假的,哪些不是。
除了单纯的文本外,如Stable Diffusion等视觉生成模型的快速发展,也让DeepFake问题愈发严峻。
在多模态媒体篡改中,各类新闻报道的图片中重要人物的人脸(下图中法国总统人脸)被替换,文字中关键短语或者单词被篡改(下图中正面短语「is welcome to」被篡改为负面短语「is forced to resign」)。
目前,该工作已被CVPR 2023收录。
此模型建立在基于双塔结构的多模态语义融合与推理的模型架构上,并将多模态篡改的检测与定位细粒度层次化地通过浅层与深层篡改推理来实现。
在浅层篡改推理中,通过篡改感知的对比学习(Manipulation-Aware Contrastive Learning)来对齐图像编码器和文本编码器提取出的图像和文本单模态的语义特征。同时将单模态嵌入特征利用交叉注意力机制进行信息交互,并设计局部块注意力聚合机制(Local Patch Attentional Aggregation)来定位图像篡改区域;
在深层篡改推理中,利用多模态聚合器中的模态感知交叉注意力机制进一步融合多模态语义特征。在此基础上,进行特殊的多模态序列标记(multi-modal sequence tagging)和多模态多标签分类(multi-modal multi-label classification)来定位文本篡改单词并检测更细粒度的篡改类型。
实验结果表明研究团队提出的HAMMER与多模态和单模态检测方法相比,都能更准确地检测并定位多模态媒体篡改。