A OpenAI, a empresa por trás do ChatGPT, anunciou que baniu um conjunto de contas do ChatGPT vinculadas a uma operação de influência iraniana que estava gerando conteúdo sobre a eleição presidencial dos EUA. De acordo com a postagem de blog da empresa, a operação criou artigos e postagens de mídia social gerados por IA, embora não pareça ter alcançado muito público.
Esta não é a primeira vez que a OpenAI bane contas vinculadas a atores afiliados ao estado usando o ChatGPT de forma maliciosa. Em maio, a empresa interrompeu cinco campanhas usando o ChatGPT para tentar manipular a opinião pública.
Esses episódios lembram os esforços anteriores de atores estatais usando plataformas de mídia social como Facebook e Twitter para tentar influenciar ciclos eleitorais. Agora, grupos semelhantes (ou talvez os mesmos) estão usando a IA generativa para inundar canais sociais com desinformação. Assim como as empresas de mídia social, a OpenAI parece estar adotando uma abordagem de "whack-a-mole", banindo contas associadas a esses esforços conforme eles surgem.
Relatório da Microsoft Threat Intelligence
A investigação da OpenAI sobre esse conjunto de contas se beneficiou de um relatório da Microsoft Threat Intelligence publicado na semana passada, que identificou o grupo (que ela chama de Storm-2035) como parte de uma campanha mais ampla para influenciar as eleições dos EUA em operação desde 2020.
De acordo com a Microsoft, o Storm-2035 é uma rede iraniana com vários sites imitando veículos de notícias e "envolvendo ativamente grupos de eleitores dos EUA em extremos opostos do espectro político com mensagens polarizadas sobre questões como os candidatos presidenciais dos EUA, direitos LGBTQ e o conflito Israel-Hamas". O objetivo, como provou ser em outras operações, não é necessariamente promover uma política ou outra, mas semear dissidência e conflito.
Contas e conteúdo do Storm-2035
A OpenAI identificou cinco frentes de sites para o Storm-2035, apresentando-se como veículos de notícias progressistas e conservadores com nomes de domínio convincentes como "evenpolitics.com". O grupo usou o ChatGPT para redigir vários artigos longos, incluindo um alegando que "X censura os tweets de Trump", o que a plataforma de Elon Musk certamente não fez (na verdade, Musk está encorajando o ex-presidente Donald Trump a se envolver mais no X).
Nas mídias sociais, a OpenAI identificou uma dúzia de contas X e uma conta do Instagram controladas por essa operação. A empresa diz que o ChatGPT foi usado para reescrever vários comentários políticos, que foram então postados nessas plataformas. Um desses tuítes falsamente, e confusamente, alegou que Kamala Harris atribui "aumento dos custos de imigração" às mudanças climáticas, seguido por "#DumpKamala".
Impacto limitado
A OpenAI diz que não viu evidências de que os artigos do Storm-2035 foram amplamente compartilhados e notou que a maioria de suas postagens nas redes sociais recebeu poucas ou nenhuma curtida, compartilhamento ou comentário. Esse é frequentemente o caso com essas operações, que são rápidas e baratas de serem iniciadas usando ferramentas de IA como o ChatGPT.
Espere ver muito mais avisos como esse conforme a eleição se aproxima e as disputas partidárias online se intensificam. A OpenAI e outras empresas de tecnologia terão que continuar vigilantes para combater a desinformação e a manipulação política usando IA generativa.