Engenheiro é afastado após sugerir que Inteligência Artificial teria ganhado vida

Publicado em 13/06/2022, às 12h23
Reprodução
Reprodução

Por Tudocelular.com

Um engenheiro do Google causou polêmica e foi afastado, por meio de uma licença remunerada, após afirmar que um sistema de chatbot com inteligência artificial teria alcançado a senciência —isto é, a capacidade de sentir de forma consciente. Ao afirmar isso, e formular textos e documentos sobre o sistema, o funcionário teria supostamente violado as políticas de confidencialidade da empresa.

O engenheiro Blake Lemoine trabalha para a organização de IA Responsável do Google, e investigava se seu modelo LaMDA gera linguagem discriminatória ou discurso de ódio, relata reportagem do The Washington Post. As preocupações dele aumentaram quando viu o sistema respondendo sobre seus próprios direitos em relação à ética da robótica. A transcrição das conversas foi publicada em uma postagem no seu Medium, onde argumenta a experiência subjetiva da máquina.

No seus testes, Lemoine teria convidado um advogado para representar o sistema de IA e conversou com um representante do Comitê Judiciário da Câmara sobre alegadas atividades antiéticas no Google, quebrando assim as políticas de confidencialidade.

A gigante das buscas anunciou publicamente o LaMDA no Google I/O no ano passado, que deve melhorar seus assistentes de IA de conversação e tornar as conversas mais naturais. A empresa já usa tecnologia de modelo de idioma semelhante para o recurso Smart Compose do Gmail ou para consultas em mecanismos de pesquisa.

Em uma declaração ao Washington Post, um porta-voz do Google disse que não há “nenhuma evidência” de que o sistema tenha de fato "ganhado vida".

“Nossa equipe —incluindo especialistas em ética e tecnólogos— revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações. Ele foi informado de que não havia evidências de que o LaMDA fosse senciente (e muitas evidências contra isso)”, disse o porta-voz Brian Gabriel.

Em outras palavras, o Google acredita em grande parte que os sistemas já são avançados o suficiente para imitarem as conversas e os jeitos humanos, mas daí para ter sentimentos, há uma grande distância. Um linguista ouvido pelo Washigton Post também reiterou essa percepção.

“Agora temos máquinas que podem gerar palavras sem pensar, mas não aprendemos como parar de imaginar uma mente por trás delas”, disse Emily M. Bender, professora da Universidade de Washington.

Gostou? Compartilhe