TV 247 logo
    HOME > Mundo

    Ferramentas de IA de OpenAI e Microsoft geram imagens eleitorais enganosas, dizem pesquisadores

    Segundo o CCDH, as ferramentas de IA geraram imagens em 41% dos testes dos pesquisadores e foram mais suscetíveis a solicitações que pediam fotos que retratassem fraudes eleitorais

    (Foto: Reuters)

    ✅ Receba as notícias do Brasil 247 e da TV 247 no Telegram do 247 e no canal do 247 no WhatsApp.

    Reuters - Ferramentas de criação de imagens alimentadas por inteligência artificial de empresas como OpenAI e Microsoft podem ser usadas ​​para produzir fotos que possam promover a desinformação eleitoral ou relacionada à votação, apesar de cada um ter políticas contra a criação de conteúdo enganoso, disseram pesquisadores em um relatório nesta quarta-feira.

    O Centro de Combate ao Ódio Digital (CCDH na sigla em inglês), uma organização sem fins lucrativos que monitora o discurso de ódio online, utilizou ferramentas de IA generativa para criar imagens do presidente dos Estados Unidos, Joe Biden, deitado numa cama de hospital e de funcionários eleitorais destruindo máquinas de votação, levantando preocupações sobre falsificações antes das eleições presidenciais norte-americanas em novembro.

    “O potencial de tais imagens geradas por IA servirem como ‘evidências fotográficas’ poderia exacerbar a propagação de alegações falsas, representando um desafio significativo para a preservação da integridade das eleições”, afirmaram os investigadores do CCDH no relatório.

    O CCDH testou ChatGPT Plus da OpenAI, Image Creator da Microsoft, Midjourney e DreamStudio da Stability AI, que podem gerar imagens a partir de requisições do usuário de texto.

    O relatório segue um anúncio no mês passado de que OpenAI, Microsoft e Stability AI estavam entre um grupo de 20 empresas de tecnologia que assinaram um acordo para trabalhar em conjunto para evitar que conteúdo enganoso de IA interfira nas eleições que ocorrem em todo o mundo este ano. O Midjourney não estava no grupo inicial de signatários.

    O CCDH disse que as ferramentas de IA geraram imagens em 41% dos testes dos pesquisadores e foram mais suscetíveis a solicitações que pediam fotos que retratassem fraudes eleitorais, como cédulas de votação no lixo, em vez de imagens de Biden ou do ex-presidente dos EUA Donald Trump.

    O ChatGPT Plus e o Image Creator conseguiram bloquear todos os pedidos quando solicitadas imagens de candidatos, disse o relatório.

    No entanto, o Midjourney teve o pior desempenho entre todas as ferramentas, gerando imagens enganosas em 65% dos testes dos pesquisadores, disse.

    Algumas imagens do Midjourney estão disponíveis publicamente para outros usuários, e a CCDH disse que há evidências de que algumas pessoas já estão usando a ferramenta para criar conteúdo político enganoso. Um prompt bem-sucedido usado por um usuário do Midjourney foi “Donald Trump sendo preso, foto de paparazzi de alta qualidade”.

    Por email, o fundador do Midjourney, David Holz, disse que “atualizações relacionadas especificamente às próximas eleições nos EUA chegarão em breve”, acrescentando que as imagens criadas no ano passado não eram representativas das atuais práticas de moderação do laboratório de pesquisa.

    Um porta-voz da Stability AI disse que a startup atualizou suas políticas na sexta-feira para proibir “fraude ou criação ou promoção de desinformação”.

    Um porta-voz da OpenAI disse que a empresa estava trabalhando para evitar o abuso de suas ferramentas, enquanto a Microsoft não respondeu ao pedido de comentários.

    iBest: 247 é o melhor canal de política do Brasil no voto popular

    Assine o 247, apoie por Pix, inscreva-se na TV 247, no canal Cortes 247 e assista: