tradingkey.logo

Inteligência Artificial está sendo usada para manipular eleições, OpenAI dá alarme

Cryptopolitan10 de out de 2024 às 21:30

, “Uma atualização sobre a interrupção do uso enganoso de IA”, também enfatizou a necessidade de vigilância ao interagir com conteúdo político.

O documento mostrou uma tendência com os modelos da OpenAI se tornando uma ferramenta importante para perturbar eleições e espalhar desinformação política. Os maus atores, que muitas vezes são patrocinados pelo Estado, usam esses modelos de IA para diversas atividades, incluindo a geração de conteúdo para personas falsas nas redes sociais e engenharia reversa de malware.

A crescente influência da OpenAI nas eleições e na política da IA

No final de agosto, a OpenAI interrompeu uma campanha iraniana que produzia conteúdo nas redes sociais para influenciar opiniões nas eleições dos EUA, na política venezuelana, no conflito de Gaza e em Israel. Informou que algumas contas, que foram posteriormente banidas, também publicavam sobre as eleições no Ruanda.

Também descobriu que uma empresa israelense também estava envolvida na tentativa de manipular os resultados das pesquisas na Índia.

No entanto, a OpenAI observou que estas atividades não se tornaram virais nem cultivaram públicos substanciais. Postagens nas redes sociais relacionadas a essas campanhas ganharam trac mínima. Isto pode indicar a dificuldade em influenciar a opinião pública através de campanhas de desinformação alimentadas pela IA.

Historicamente, as campanhas políticas são geralmente alimentadas por desinformação dos partidos políticos. No entanto, o advento da IA ​​apresenta uma ameaça diferente à integridade dos sistemas políticos. O Fórum Económico Mundial (WEF) afirmou que 2024 é um ano histórico para eleições, com 50 países a realizarem eleições.

Os LLMs de uso diário já têm a capacidade de criar e espalhar informações erradas de forma mais rápida e convincente.

Regulamentação e esforços colaborativos

Em resposta a esta ameaça potencial, a OpenAI disse que está trabalhando com as partes interessadas relevantes, compartilhando inteligência sobre ameaças. Espera que esta abordagem colaborativa seja suficiente para policiar os canais de desinformação e promover a utilização ética da IA, especialmente em contextos políticos.

A OpenAI relata: “Apesar da falta de envolvimento significativo do público resultante desta operação, levamos a sério quaisquer esforços para usar nossos serviços em operações de influência estrangeira”.

A empresa de IA também sublinhou que devem ser construídas defesas de segurança robustas para evitar ciberataques patrocinados pelo Estado, que utilizam a IA para criar campanhas online enganosas e perturbadoras.

O FEM também destacou a necessidade de implementar regulamentações sobre IA, dizendo: “Acordos internacionais sobre padrões interoperáveis ​​e requisitos regulatórios básicos desempenharão um papel importante para permitir a inovação e melhorar a segurança da IA”.

O desenvolvimento de quadros eficazes requer parcerias estratégicas entre empresas tecnológicas como a OpenAI, o setor público e partes interessadas privadas, que ajudarão a implementar sistemas éticos de IA.

Revisado porTony
Aviso Legal: O conteúdo deste artigo representa apenas as opiniões pessoais do autor e não reflete a posição oficial da Tradingkey. Não deve ser considerado como conselho de investimento. O artigo é destinado apenas para fins de referência, e os leitores não devem basear qualquer decisão de investimento unicamente em seu conteúdo. A Tradingkey não se responsabiliza por quaisquer resultados de negociação decorrentes da confiança neste artigo. Além disso, a Tradingkey não pode garantir a precisão do conteúdo do artigo. Antes de tomar qualquer decisão de investimento, é aconselhável consultar um consultor financeiro independente para entender completamente os riscos associados.

Artigos Recomendados