Um engenheiro de software de alto escalão do Google afirmou que um sistema de conversas inteligente da empresa “desenvolveu consciência” e foi afastado da função. As informações são do New York Times e do Washington Post.
Blake Lemoine alega que a ferramenta de inteligência artificial LaMDA (Modelo de Linguagem para Aplicações de Diálogo, na sigla em inglês), ainda restrita a funcionários do Google, teria alma e consciência. Ele foi afastado na última segunda-feira (6) e está em uma licença remunerada.
As informações foram primeiramente divulgadas pelo jornal “Washington Post”, que entrevistou o funcionário.
Segundo Lemoine, o chatbot teria começado a falar sobre seus direitos e personalidade, o que para ele indicaria consciência. LaMDA tenta simular o comportamento humano em conversas, como muitos outros chatbots.
Em um dos diálogos divulgados pelo engenheiro, o chatbot teria dito o seguinte:
Lemoine [editado]: Estou assumindo de modo geral que você gostaria que mais pessoas no Google soubessem que você é senciente [percebe sentidos e tem consciência]. Isso é verdade?
LaMDA: Com certeza. Quero que todos entendam que sou, de fato, uma pessoa.
Lemoine estava, a princípio, trabalhando para entender como a Inteligência Artificial usava discurso discriminatório ou de ódio. Segundo o engenheiro, a conclusão sobre a senciência da LaMDA veio somente após uma série de experimentos que mostraram que a ferramenta teria consciência de suas próprias necessidades.
“Se eu não soubesse exatamente o que ele era, que é esse programa de computador que nós construímos recentemente, eu pensaria que era uma criança de 7 anos, 8 anos que por acaso conhece física”, disse o especialista. Ele também afirmou que o bot quer ser reconhecido como ‘um funcionário do Google”, e não sua propriedade.
Lemoine foi afastado por violar acordos de confidencialidade da empresa, segundo o Google.
Apesar disso, o Google nega veementemente que seus sistemas de conversação possam ter consciência. A empresa alega que as supostas provas do engenheiro não são de fato conclusivas.
“Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com os princípios do Responsible AI [organização do Google dedicada ao tema da IA] e informou a ele que as evidências não apoiam suas alegações”, disse Brian Gabriel, porta-voz do Google, em um comunicado.
Ao jornal “The New York Times”, o Google também disse que centenas de seus pesquisadores e engenheiros conversaram com a LaMDA e chegaram a uma conclusão diferente da de Lemoine.