NOVA YORK (AP) — Um vídeo que usa uma ferramenta de clonagem de voz de inteligência artificial para imitar a voz da vice-presidente Kamala Harris dizendo coisas que ela não disse está levantando preocupações sobre o poder da IA de enganar, a cerca de três meses do dia da eleição.
O vídeo ganhou atenção depois que o bilionário da tecnologia Elon Musk o compartilhou em sua plataforma de mídia social X na sexta-feira, sem mencionar explicitamente que foi lançado originalmente como uma paródia.
No final do domingo, Musk esclareceu que o vídeo tinha a intenção de ser uma sátira, fixando a publicação do criador original em seu perfil e usando um trocadilho para enfatizar que paródia não é crime.
O vídeo usa muitos dos mesmos visuais de um anúncio real que Harris, a provável candidata democrata à presidência, lançou para lançar sua campanha. Mas o anúncio falso troca o áudio da voz de Harris por uma voz gerada por IA que convincentemente personifica Harris.
“Eu, Kamala Harris, sou sua candidata democrata à presidência porque Joe Biden finalmente expôs sua senilidade no debate”, diz a voz da IA no vídeo. Ela afirma que Harris é uma “contratação de diversidade” porque ela é uma mulher e uma pessoa de cor, e diz que ela não sabe “nada sobre governar o país”. O vídeo mantém a marca “Harris para Presidente”. Ele também adiciona alguns clipes autênticos do passado de Harris.
Mia Ehrenberg, porta-voz da campanha de Harris, disse em um e-mail à Associated Press: “Acreditamos que o povo americano quer a verdadeira liberdade, oportunidade e segurança que a vice-presidente Harris está oferecendo; não as mentiras falsas e manipuladas de Elon Musk e Donald Trump.”
O vídeo amplamente compartilhado é um exemplo de como imagens, vídeos ou clipes de áudio realistas gerados por IA foram utilizados tanto para zombar quanto para enganar sobre política à medida que os Estados Unidos se aproximam da eleição presidencial. Ele expõe como, à medida que ferramentas de IA de alta qualidade se tornaram muito mais acessíveis, continua faltando uma ação federal significativa para regular seu uso, deixando as regras que orientam a IA na política em grande parte para os estados e plataformas de mídia social.
O vídeo também levanta questões sobre a melhor forma de lidar com conteúdo que confunde os limites do que é considerado um uso apropriado da IA, principalmente se ele se enquadra na categoria de sátira.
O usuário original que postou o vídeo, um YouTuber conhecido como Mr Reagan, revelou desde o início tanto no YouTube quanto no X que o vídeo manipulado é uma paródia. No entanto, a postagem inicial de Musk com o vídeo, que teve um alcance muito maior com 130 milhões de visualizações no X, de acordo com a plataforma, incluiu apenas a legenda “Isso é incrível” com um emoji rindo.
No fim de semana, antes de Musk esclarecer em seu perfil que o vídeo era uma piada, alguns participantes do recurso “community note” de X sugeriram rotular sua postagem como manipulada. Nenhuma etiqueta desse tipo foi adicionada a ela, mesmo que Musk tenha postado separadamente sobre o vídeo de paródia.
Alguns usuários online questionaram se sua postagem inicial poderia violar as políticas de X, que dizem que os usuários “não podem compartilhar mídia sintética, manipulada ou fora de contexto que possa enganar ou confundir as pessoas e causar danos”.
A política tem uma exceção para memes e sátiras, desde que não causem “confusão significativa sobre a autenticidade da mídia”.
Chris Kohls, o homem por trás da persona online do Sr. Reagan, indicou a um repórter da AP um vídeo do YouTube que ele postou na segunda-feira de manhã respondendo à provação. No vídeo do YouTube, ele confirmou que usou IA para fazer o anúncio falso e argumentou que era obviamente uma paródia, com ou sem rótulo.
Musk apoiou Trump, o ex-presidente republicano e atual indicado, no início deste mês. Ele não respondeu a um pedido de comentário por e-mail.
Dois especialistas em mídia gerada por IA analisaram o áudio do anúncio falso e confirmaram que grande parte dele foi gerada usando tecnologia de IA.
Um deles, o especialista em perícia digital Hany Farid, da Universidade da Califórnia, Berkeley, disse que o vídeo mostra o poder da IA generativa e dos deepfakes.
“A voz gerada pela IA é muito boa”, ele disse em um e-mail. “Embora a maioria das pessoas não acredite que seja a voz da VP Harris, o vídeo é muito mais poderoso quando as palavras estão na voz dela.”
Ele disse que as empresas de IA generativa que disponibilizam ferramentas de clonagem de voz e outras ferramentas de IA ao público devem se esforçar mais para garantir que seus serviços não sejam usados de maneiras que possam prejudicar as pessoas ou a democracia.
Rob Weissman, copresidente do grupo de defesa Public Citizen, discordou de Farid, dizendo que achava que muitas pessoas seriam enganadas pelo vídeo.
“Tenho certeza de que a maioria das pessoas que olham para isso não assumem que é uma piada”, disse Weissman em uma entrevista. “A qualidade não é ótima, mas é boa o suficiente. E precisamente porque alimenta temas preexistentes que circularam em torno dela, a maioria das pessoas acreditará que é real.”
Weissman, cuja organização defendeu que o Congresso, agências federais e estados regulassem a IA generativa, disse que o vídeo é “o tipo de coisa sobre a qual temos alertado”.
Outros deepfakes de IA generativa nos EUA e em outros lugares tentaram influenciar eleitores com desinformação, humor ou ambos. Na Eslováquia, em 2023, clipes de áudio falsos personificaram um candidato discutindo planos para fraudar uma eleição e aumentar o preço da cerveja dias antes da votação. Na Louisiana, em 2022, um anúncio satírico de um comitê de ação política sobrepôs o rosto de um candidato a prefeito da Louisiana a um ator que o retratava como um estudante de ensino médio com baixo desempenho.
O Congresso ainda precisa aprovar uma legislação sobre IA na política, e as agências federais tomaram apenas medidas limitadas, deixando a maior parte da regulamentação existente nos EUA para os estados. Mais de um terço dos estados criaram suas próprias leis regulando o uso de IA em campanhas e eleições, de acordo com a National Conference of State Legislatures.
Além da X, outras empresas de mídia social também criaram políticas sobre mídia sintética e manipulada compartilhada em suas plataformas. Usuários na plataforma de vídeo YouTube, por exemplo, devem revelar se usaram inteligência artificial generativa para criar vídeos ou enfrentar suspensão.
Copyright 2024 The Associated Press. Todos os direitos reservados. Este material não pode ser publicado, transmitido, reescrito ou redistribuído.