OpenAI 公布2024选举虚假信息打击计划

2024-01-19 发布 · 浏览45次 · 点赞0次 · 收藏0次

据统计,2024 年预计将有 50 多个国家举行大选,虚假信息的威胁成为人们关注的焦点。

人工智能聊天机器人 ChatGPT 和图像生成器 DALL-E 的开发商 OpenAI 近日宣布了一项新的措施,以防止在今年大选之前再次出现虚假信息滥用和误导事件。

本周一(1月15日),该公司宣布正在与美国历史最悠久的无党派公职人员专业组织——全美国务卿协会(NASS)合作,防止 ChatGPT 在 11 月美国总统大选前向用户输出一些错误信息。

例如,当被问及有关选举的问题时,如在哪里投票,OpenAI 的聊天机器人将引导用户访问美国投票信息的权威网站 CanIVote.org。该公司认为,这项工作的经验教训将为我们在其他国家和地区的工作提供借鉴。

利用加密水印打击深度伪造

为了防止深度伪造,OpenAI 还表示将对其最新版人工智能图像生成器 DALL-E 3 生成的图像实施内容出处和真实性联盟(Coalition for Content Provenance and Authenticity,C2PA)的数字证书。

C2PA 是联合发展基金会(Joint Development Foundation)的一个项目,该基金会是一家总部位于华盛顿的非营利组织,其主要举措是内容真实性倡议(CAI)和起源项目,通过实施加密内容出处标准来应对数字时代的虚假信息和操纵行为。

包括 Adobe、X 和《纽约时报》在内的几家大公司都是该联盟的成员,并积极支持该标准的制定。

OpenAI 表示,它正在试验一种出处分类器,这是一种用于检测由 DALL-E 生成的图像的新工具。据其内部测试显示,即使图像经过常见类型的修改,早期结果也很有希望。他们计划将其提供给第一批测试者--包括记者、平台和研究人员--以征求反馈意见。

谷歌 DeepMind 也开发了类似的工具,利用 SynthID 对人工智能生成的图像和音频进行数字水印处理。Meta 也在尝试为其图像生成器开发类似的水印工具,不过马克-扎克伯格的公司很少分享相关信息。

OpenAI 称在发布新系统之前会对其进行红队测试,让用户和外部合作伙伴参与反馈,并建立安全缓解措施,以降低潜在的危害。

打击虚假信息具有挑战性

基于人工智能的文本分析平台 Copyleaks 的联合创始人兼首席执行官阿隆-亚明(Alon Yamin)在接受 Infosecurity 采访时表示十分鼓励 OpenAI 致力于打击虚假信息的行为,但实施起来可能具有挑战性。

他表示,今年的大选被认为是近代史上最大的选举年之一,不仅是在美国,在全世界范围内,人们都非常担心人工智能会被滥用于政*活动等,这种担心是完全有道理的。但正如我们多年来在社交媒体上看到的那样,由于用户群规模庞大,这些行动可能难以实施。

在英国,下一次大选应在 2024 年年中至 2025 年 1 月之间举行,信息专员办公室(ICO)于 1 月 15 日启动了关于生成式人工智能的系列咨询。

OpenAI 公布2024选举虚假信息打击计划 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自51CTO,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。