tradingkey.logo

人工智能被用来操纵选举,OpenAI 发出警报

Cryptopolitan2024年10月11日 00:47

OpenAI 的报告称,其模型正被用来影响选举。它还表示,它已经取缔了 20 多个依靠其 AI 模型进行此类恶意活动的操作。 OpenAI 报告《关于破坏人工智能欺骗性使用的最新信息》还强调,在涉及政治内容时需要保持警惕。

该文件显示了 OpenAI 模型成为扰乱选举和传播政治错误信息的主要工具的趋势。不良行为者通常由国家资助,他们将这些人工智能模型用于各种活动,包括在社交媒体上生成虚假角色的内容和恶意软件逆向工程。

OpenAI 在人工智能选举和政治中的影响力与日俱增

8 月下旬,OpenAI 扰乱了伊朗的一场活动,该活动正在制作社交媒体内容,以影响美国大选、委内瑞拉政治、加沙冲突和以色列的观点。据报道,一些随后被禁止的账户也发布了有关卢旺达选举的​​信息。

它还发现一家以色列公司也参与试图操纵印度的民调结果。

然而,OpenAI 指出,这些活动并没有像病毒一样传播开来,也没有培养出大量的受众。与这些活动相关的社交媒体帖子获得的trac度微乎其微。这可能表明通过人工智能驱动的错误信息活动来影响公众舆论是困难的。

从历史上看,政治运动通常是由竞选方的错误信息推动的。然而,人工智能的出现对政治体系的完整性带来了不同的威胁。 世界经济论坛(WEF)表示,2024年是历史性的选举年,有50个国家举行选举。

日常使用的法学硕士已经有能力更快、更有说服力地制造和传播错误信息。

监管和协作努力

针对这一潜在威胁,OpenAI 表示正在与相关利益相关者合作,共享威胁情报。它预计这种协作方法足以监管错误信息渠道并促进道德的人工智能使用,特别是在政治背景下。

OpenAI 报告称,“尽管此次行动缺乏有意义的受众参与,但我们认真对待任何在外国影响力行动中使用我们的服务的努力。”

该人工智能公司还强调,必须建立强大的安全防御措施,以防止国家支持的网络攻击者利用人工智能发起欺骗性和破坏性的在线活动。

世界经济论坛还强调了制定人工智能法规的必要性,并表示:“关于可互操作标准和基线监管要求的国际协议将在促进创新和提高人工智能安全方面发挥重要作用。”

开发有效的框架需要 OpenAI 等科技公司、公共部门和私人利益相关者之间建立战略伙伴关系,这将有助于实施符合道德的人工智能系统。

审核人Esteban Ma
免责声明: 本文内容仅代表作者个人观点,不代表Tradingkey官方立场,也不能作为投资建议。文章内容仅做参考,读者不应以本文作为任何投资依据。 Tradingkey对任何以本文为交易依据的结果不承担责任。 Tradingkey亦不能保证本文内容的准确性。在做出任何投资决定之前,您应该寻求独立财务顾问的建议,以确保您了解风险。