Meta retira acesso à ferramenta de IA do WhatsApp após decisão de autoridade de dados

Publicado em 17/07/2024, às 23h50
Foto: Reprodução/Pixabay
Foto: Reprodução/Pixabay

Por Pedro S. Texeira/FolhaPress

Pessoas ouvidas pela reportagem e usuários de redes sociais relatam que perderam acesso, no WhatsApp, ao criador de figurinhas com inteligência artificial, testado no Brasil desde o fim de maio.

A medida foi percebida por usuários após a Autoridade Nacional de Proteção de Dados (ANPD) suspender, no último dia 2, a validade do trecho da política de privacidade da Meta -a dona de Facebook, WhatsApp e Instagram- referente ao desenvolvimento de modelos de IA generativa, como o ChatGPT.

A empresa avisava que utilizaria conteúdo público dos usuários (textos, fotos e vídeos) para desenvolver grandes modelos de linguagem.

À reportagem, um porta-voz da Meta disse que a empresa decidiu "suspender ferramentas de IA generativa que estavam ativas no Brasil", enquanto trabalha para responder às perguntas da ANPD sobre a tecnologia.

No último dia 10, a ANPD rejeitou um pedido da Meta para reconsiderar a medida cautelar. A big tech então ganhou mais cinco dias úteis a partir de então para mostrar que suspendeu a política de tratamento de dados para treinamento de IAs.

Na ocasião da primeira notificação da autoridade de dados, a big tech havia dito que a decisão da autoridade brasileira atrasaria a chegada dos benefícios da inteligência artificial ao país.

Além do gerador de figurinhas do WhatsApp, o fundador do Facebook, Mark Zuckerberg, havia avisado que o pacote de inteligência artificial da empresa, o Meta AI, que seria integrado a todas as plataformas da empresa, chegaria ao Brasil e à Europa em julho.

A tecnologia já está disponível em alguns países de idioma inglês, como Estados Unidos, Inglaterra, Austrália e países africanos.

A Meta também suspendeu o uso de dados dos usuários de Facebook e Instagram para treinar modelos de inteligência artificial na Europa, após o regulador da União Europeia sediado na Irlanda pedir explicações à empresa em 14 de junho.

Na ocasião, a empresa também adiou a chegada do Meta AI aos usuários europeus.

Nos Estados Unidos, onde não há legislação de proteção de dados, usuários reclamam de negativas da Meta ao pedido de oposição ao uso de dados pessoais para treinamento de IAs generativas, de acordo com o New York Times.

À reportagem, a ANPD disse que a instauração do processo de fiscalização em face da Meta foi realizada considerando o impacto do uso dos dados para treinamento de IA sobre os direitos dos titulares e sobre crianças e adolescentes.

"Destacamos, também, a grande quantidade de pessoas impactadas pela operação de tratamento: apenas no Brasil, o Facebook possui cerca de 102 milhões de usuários ativos, fora os usuários das demais redes do grupo."

"Havia, ainda, a possibilidade do tratamento de dados de terceiros não usuários das plataformas", acrescenta a autoridade, que diz também que outros processos poderão ser instaurados a fim de averiguar o uso de dados pessoais para fins de treinamento de IA generativa.

O professor de direito digital FGV Luca Belli lembra que a primeira multa aplicada pela ANPD em sua história, direcionada à operadora de telemarketing Telekall, envolvia a raspagem de dados pessoais sem consulta aos titulares.

Esse processo também faz parte do desenvolvimento de plataformas de IA generativa, que necessita de uma quantidade massiva de informações para direcionar o algoritmo a entregar as respostas mais adequadas, na etapa chamada de treinamento.

"Quando eu perguntei ao ChatGPT quem era Luca Belli, ele descreveu vários detalhes da minha vida, entre várias alucinações e mentiras", disse o professor.

Para o docente, a ANPD detém o mandato para fiscalizar como as empresas de inteligência artificial usam dados pessoais. "Essa utilização nem sempre vai estar de acordo com o legítimo interesse do usuário, como decidiu a autoridade brasileira no caso da Meta, o que coloca o procedimento em desconformidade com a LGPD [Lei Geral de Proteção de Dados]", diz.

A Folha de S.Paulo ainda havia mostrado que a IA geradora figurinhas de WhatsApp reproduzia estereótipos considerados racistas, como associar pessoas negras a fuzis. Além disso, mostrava políticos dentro de arquétipos que ganharam popularidade, como "Bolsonaro grosso" e "Lula paz e amor".

Gostou? Compartilhe