OpenAI 的报告称,其模型正被用来影响选举。它还表示,它已经取缔了 20 多个依靠其 AI 模型进行此类恶意活动的操作。 OpenAI 报告《关于破坏人工智能欺骗性使用的最新信息》还强调,在涉及政治内容时需要保持警惕。
该文件显示了 OpenAI 模型成为扰乱选举和传播政治错误信息的主要工具的趋势。不良行为者通常由国家资助,他们将这些人工智能模型用于各种活动,包括在社交媒体上生成虚假角色的内容和恶意软件逆向工程。
8 月下旬,OpenAI 扰乱了伊朗的一场活动,该活动正在制作社交媒体内容,以影响美国大选、委内瑞拉政治、加沙冲突和以色列的观点。据报道,一些随后被禁止的账户也发布了有关卢旺达选举的信息。
它还发现一家以色列公司也参与试图操纵印度的民调结果。
然而,OpenAI 指出,这些活动并没有像病毒一样传播开来,也没有培养出大量的受众。与这些活动相关的社交媒体帖子获得的trac度微乎其微。这可能表明通过人工智能驱动的错误信息活动来影响公众舆论是困难的。
从历史上看,政治运动通常是由竞选方的错误信息推动的。然而,人工智能的出现对政治体系的完整性带来了不同的威胁。 世界经济论坛(WEF)表示,2024年是历史性的选举年,有50个国家举行选举。
日常使用的法学硕士已经有能力更快、更有说服力地制造和传播错误信息。
针对这一潜在威胁,OpenAI 表示正在与相关利益相关者合作,共享威胁情报。它预计这种协作方法足以监管错误信息渠道并促进道德的人工智能使用,特别是在政治背景下。
OpenAI 报告称,“尽管此次行动缺乏有意义的受众参与,但我们认真对待任何在外国影响力行动中使用我们的服务的努力。”
该人工智能公司还强调,必须建立强大的安全防御措施,以防止国家支持的网络攻击者利用人工智能发起欺骗性和破坏性的在线活动。
世界经济论坛还强调了制定人工智能法规的必要性,并表示:“关于可互操作标准和基线监管要求的国际协议将在促进创新和提高人工智能安全方面发挥重要作用。”
开发有效的框架需要 OpenAI 等科技公司、公共部门和私人利益相关者之间建立战略伙伴关系,这将有助于实施符合道德的人工智能系统。