A reportagem especial exibida na tarde desta terça-feira, 14, no Fique Alerta, da TV Pajuçara, alerta para o uso indevido da Inteligência Artificial (IA) na web. Uma ferramenta que pode ser mecanismo de divertimento, como a possibilidade de ilustrar a imagem do repórter Bruno Protasio, autor da reportagem, no rosto do icônico personagem Jack Sparrow (Johnny Depp), do filme Piratas do Caribe.
LEIA TAMBÉM
O problema, no entanto, é quando criminosos passam a utilizar a tecnologia como arma para difamar, caluniar e praticar outros crimes contra as pessoas na internet. É a chamada "Deepfake".
"Basta pegar um vídeo de qualquer pessoa na rede social que tenha a voz e, por ali, já consigo tirar o timbre daquela voz digitalmente e passar para um outro texto que eu quero. Como também posso pegar uma imagem e colocar em uma outra imagem sem que aquela pessoa perceba. Ou seja, não preciso nem ter contato ou conhecer aquela pessoa para fazer algo", explicou Francisco Abud, mestre em informática.
Na manhã do dia 19 de abril, a Polícia Civil de Alagoas cumpriu mandados de busca e apreensão contra adolescentes suspeitos de manipularem imagens pornográficas com os rostos de menores de idade. Todos os jovens têm entre 15 e 17 anos, com poder aquisitivo entre médio e alto padrão, e residem em Maceió e Marechal Deodoro, Litoral Sul do estado.
"Claro que inicialmente vai ser usado muito na questão da pornografia, mas também na questão de outros crimes contra a honra, por exemplo, fazendo com que você apareça praticando algum tipo de crime, que seria calúnia, difamação", detalhou o delegado Sidney Tenório, da delegacia de Crimes Cibernéticos.
Conforme o início desta matéria, há os casos em que a Inteligência Artificial é utilizada com autorização, seja para entretenimento como também publicidade. O novo uniforme do Vasco da Gama, por exemplo, foi divulgado com a voz de Roberto Dinamite, ídolo do clube. O detalhe é que Dinamite faleceu em janeiro do ano passado e o vídeo foi divulgado só há um mês. No canto da imagem está a confirmação do uso da Inteligência Artificial para recriar a voz do ídolo vascaíno.
Casos de Deepfake pelo mundo - Dentre os crimes constatados internacionalmente há exemplos famosos. Uma das vítimas foi a cantora norte-americana Taylor Swift, que teve imagens falsas e sexualmente explícitas divulgadas nas redes sociais. Um dos registros chegou a ser visto 47 milhões de vezes no X, antigo Twitter, antes de ser removido da plataforma.
O estelionato é outro crime que pode ser praticado com a IA. Na China, o funcionário de uma multinacional transferiu 25 milhões de dólares depois de usar a Deepfake para forjar o rosto de um diretor financeiro da empresa durante uma reunião por videoconferência.
No Brasil, políticos também têm sido alvos de criminosos. O prefeito da cidade de Crissiumal, no Rio Grande do Sul, teve um áudio falso criado com a voz dele, que viralizou nas redes sociais.
"Fomos surpreendidos com uma gravação fake news tentando imitar minha voz como se eu estivesse dirigindo palavras depreciativas aos nossos seguidores", disse o prefeito Marco Aurélio Nedel.
Tribunais eleitorais fecham o cerco - O Tribunal Superior Eleitoral (TSE) regulamentou, em fevereiro, de maneira inédita, o uso da inteligência artificial (IA) na propaganda de partidos, coligações, federações partidárias, candidatas e candidatos nas Eleições Municipais de 2024.
"Essa chamada Deepfake é terminantemente vedado e pode acarretar consequências graves, porque a nova resolução do TSE estipula inclusive que pode ser configurado abuso do uso dos meios de comunicação social e isso pode ensejar a cassação do registro do diploma de um candidato eventualmente eleito", afirmou o desembargador Milton Ferreira Neto.
A Polícia Federal realizou, no mesmo mês, uma operação e identificou a possível participação de designers e empresas de publicidade.
"Nosso corpo técnico já tem uma expertise para tentar fazer essa perícia e afirmar que determinados vídeos têm alterações, foram feitas edições. A Deep Fake é uma coisa muito nova, inclusive, os softwares são novos. Mas esperamos que ocorrendo isso durante as eleições, estaremos preparados para dar uma pronta resposta", comentou o delegado Rodrigo Bittencourt, da Polícia Federal.
A reportagem da TV Pajuçara apontou que o relatório de uma empresa internacional especializada no combate de fraudes revelou um dado preocupante sobre o período eleitoral. No Brasil, entre 2022 e 2023, as deepfakes cresceram 830%, o que representa quase metade dos casos de toda a América Latina.
"As grandes empresas de tecnologia, as chamadas big techs, fizeram um acordo, porque esse ano teremos eleições em cerca de 40 países. Elas fizeram um acordo justamente para serem contra as deepfakes para essas eleições, que é algo crescente em todo o mundo, não só no Brasil. E uma das coisas que elas estão colocando é uma forma de identificar automaticamente essas deep fakes geradas por IA. Elas estão se preparando para que as próprias redes sociais, ao identificarem que o conteúdo é da deepfake, simplesmente excluam aquele vídeo", pontuou Francisco Abud.
O Tribunal Regional Eleitoral de Alagoas (TRE-AL) formou uma força-tarefa para combater esses conteúdos que podem prejudicar candidatos e eleitores. "Nesse núcleo temos agido em cooperação com diversas instituições: Polícia Federal, Polícia Civil, Polícia Militar, Sindicato dos Jornalistas e Ordem dos Advogados Brasil. Todas instituições cooperando entre si e trocando informações para que possamos, juntos, combater essa mácula no processo eleitoral, que é a desinformação", desembargador Milton Ferreira Neto.
Ainda que investigar os milhares de conteúdos falsos nas redes sociais seja uma árdua tarefa, a polícia alerta que quem também compartilha esse material está cometendo crime.
"A legislação sempre avançou um pouco, como ela sabe da dificuldade que temos muitas vezes em chegar no criador, porque quando a coisa vai para a rede social perde o controle e a gente teria que fazer um trabalho quase de regresso ao infinito para chegar em quem criou. O próprio legislador vem e pune também aquela pessoa que transmitiu. Se você recebeu qualquer tipo de imagem, seja pornográfica, caluniosa, difamatória, de uma outra pessoa, você não compartilha", alertou o delegado Sidney Tenório.