, “Uma atualização sobre a interrupção do uso enganoso de IA”, também enfatizou a necessidade de vigilância ao interagir com conteúdo político.
O documento mostrou uma tendência com os modelos da OpenAI se tornando uma ferramenta importante para perturbar eleições e espalhar desinformação política. Os maus atores, que muitas vezes são patrocinados pelo Estado, usam esses modelos de IA para diversas atividades, incluindo a geração de conteúdo para personas falsas nas redes sociais e engenharia reversa de malware.
No final de agosto, a OpenAI interrompeu uma campanha iraniana que produzia conteúdo nas redes sociais para influenciar opiniões nas eleições dos EUA, na política venezuelana, no conflito de Gaza e em Israel. Informou que algumas contas, que foram posteriormente banidas, também publicavam sobre as eleições no Ruanda.
Também descobriu que uma empresa israelense também estava envolvida na tentativa de manipular os resultados das pesquisas na Índia.
No entanto, a OpenAI observou que estas atividades não se tornaram virais nem cultivaram públicos substanciais. Postagens nas redes sociais relacionadas a essas campanhas ganharam trac mínima. Isto pode indicar a dificuldade em influenciar a opinião pública através de campanhas de desinformação alimentadas pela IA.
Historicamente, as campanhas políticas são geralmente alimentadas por desinformação dos partidos políticos. No entanto, o advento da IA apresenta uma ameaça diferente à integridade dos sistemas políticos. O Fórum Económico Mundial (WEF) afirmou que 2024 é um ano histórico para eleições, com 50 países a realizarem eleições.
Os LLMs de uso diário já têm a capacidade de criar e espalhar informações erradas de forma mais rápida e convincente.
Em resposta a esta ameaça potencial, a OpenAI disse que está trabalhando com as partes interessadas relevantes, compartilhando inteligência sobre ameaças. Espera que esta abordagem colaborativa seja suficiente para policiar os canais de desinformação e promover a utilização ética da IA, especialmente em contextos políticos.
A OpenAI relata: “Apesar da falta de envolvimento significativo do público resultante desta operação, levamos a sério quaisquer esforços para usar nossos serviços em operações de influência estrangeira”.
A empresa de IA também sublinhou que devem ser construídas defesas de segurança robustas para evitar ciberataques patrocinados pelo Estado, que utilizam a IA para criar campanhas online enganosas e perturbadoras.
O FEM também destacou a necessidade de implementar regulamentações sobre IA, dizendo: “Acordos internacionais sobre padrões interoperáveis e requisitos regulatórios básicos desempenharão um papel importante para permitir a inovação e melhorar a segurança da IA”.
O desenvolvimento de quadros eficazes requer parcerias estratégicas entre empresas tecnológicas como a OpenAI, o setor público e partes interessadas privadas, que ajudarão a implementar sistemas éticos de IA.