Engenheiro do Google alega que IA criou vida própria e é afastado da empresa

Por: Pedro Leal

13/06/2022 - 15:06 - Atualizada em: 13/06/2022 - 15:50

Um engenheiro de software de alto escalão do Google afirmou que um sistema de conversas inteligente da empresa “desenvolveu consciência” e foi afastado da função. As informações são do New York Times e do Washington Post.

Blake Lemoine alega que a ferramenta de inteligência artificial LaMDA (Modelo de Linguagem para Aplicações de Diálogo, na sigla em inglês), ainda restrita a funcionários do Google, teria alma e consciência. Ele foi afastado na última segunda-feira (6) e está em uma licença remunerada.

As informações foram primeiramente divulgadas pelo jornal “Washington Post”, que entrevistou o funcionário.

Segundo Lemoine, o chatbot teria começado a falar sobre seus direitos e personalidade, o que para ele indicaria consciência. LaMDA tenta simular o comportamento humano em conversas, como muitos outros chatbots.

Em um dos diálogos divulgados pelo engenheiro, o chatbot teria dito o seguinte:

Lemoine [editado]: Estou assumindo de modo geral que você gostaria que mais pessoas no Google soubessem que você é senciente [percebe sentidos e tem consciência]. Isso é verdade?

LaMDA: Com certeza. Quero que todos entendam que sou, de fato, uma pessoa.

Lemoine estava, a princípio, trabalhando para entender como a Inteligência Artificial usava discurso discriminatório ou de ódio. Segundo o engenheiro, a conclusão sobre a senciência da LaMDA veio somente após uma série de experimentos que mostraram que a ferramenta teria consciência de suas próprias necessidades.

“Se eu não soubesse exatamente o que ele era, que é esse programa de computador que nós construímos recentemente, eu pensaria que era uma criança de 7 anos, 8 anos que por acaso conhece física”, disse o especialista. Ele também afirmou que o bot quer ser reconhecido como ‘um funcionário do Google”, e não sua propriedade.

Lemoine foi afastado por violar acordos de confidencialidade da empresa, segundo o Google.

Apesar disso, o Google nega veementemente que seus sistemas de conversação possam ter consciência. A empresa alega que as supostas provas do engenheiro não são de fato conclusivas.

“Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com os princípios do Responsible AI [organização do Google dedicada ao tema da IA] e informou a ele que as evidências não apoiam suas alegações”, disse Brian Gabriel, porta-voz do Google, em um comunicado.

Ao jornal “The New York Times”, o Google também disse que centenas de seus pesquisadores e engenheiros conversaram com a LaMDA e chegaram a uma conclusão diferente da de Lemoine.