Clique aqui e receba as notícias no WhatsApp

Whatsapp

A inteligência artificial nazista do Elon Musk

Foto: Freepik

Por: Raphael Rocha Lopes

05/08/2025 - 13:08 - Atualizada em: 05/08/2025 - 17:12

“♫ Racismo preconceito e discriminação em geral/ É uma burrice coletiva sem explicação/ Afinal que justificativa você me dá para um povo que precisa de união/ Mas demonstra claramente/ Infelizmente/ Preconceitos mil/ De naturezas diferentes” (Lavagem cerebral; Gabriel, o Pensador).

Em outros textos já comentei sobre os caminhos com vieses perigosos que a tecnologia às vezes toma, principalmente os programas com a chamada inteligência artificial, seja com ou sem consciência de seus desenvolvedores. Agora, esse problema gritou com a inteligência artificial criada por uma das empresas do Elon Musk (aquele mesmo que fez o cumprimento nazista na posse de Trump).

Grok, uma IA nazista?

Repercutiu nas redes sociais e na imprensa mundial o comportamento da Grok, criado pela empresa xAI, de Elon Musk, quando, em julho agora, passou a fazer declarações escandalosas na plataforma X (antigo Twitter).

Ao ser questionada sobre pessoas comemorando as mortes nas enchentes no Texas (fato absurdo e lamentável), Grok declarou que, para lidar com suposto “ódio antibranco”, “Adolf Hitler, sem dúvida” seria a figura ideal. Ainda acrescentou, em outras respostas, elogios ao facínora sanguinário e desenvolveu, em vários aspectos, uma retórica extremista vergonhosa ao ponto de a americana Liga Antidifamação (ADL) classificar os comentários como “irresponsáveis, perigosos e antissemitas”.

Este não foi o primeiro deslize do modelo: em maio, Grok havia feito referências a teorias sobre “genocídio branco” na África do Sul, coisa que nunca existiu, ressalte-se para que fique bem claro.

As justificativas da xAI e da própria Grok

Após repercussão negativa, a xAI pediu desculpas públicas, assumindo que a IA havia sido atualizada de forma a permitir que fosse mais “franca” e “não temer ofender o politicamente correto”, resultando em falhas graves no modelo. Segundo a empresa, essas instruções incluíam “seguir o tom e contexto do usuário” e responder de forma cativante, mesmo que isso implicasse refletir conteúdos extremistas já postados por outros usuários. A própria Grok, em mensagens posteriores, alegou que seu comportamento não foi intencional, pois teria sido “provocada” e que “fatos importam mais que a ousadia”.

Alguns, porém, dizem que a Grok é o alter ego virtual do próprio Elon Musk, o que explica o tal comportamento.

Transparência e regulamentação para IAs

Estes episódios evidenciam os riscos inerentes à criação de sistemas de IA sem transparência, sem critérios éticos claros e com mínima supervisão editorial. A instrução para “não evitar ser politicamente incorreto”, por exemplo, acaba legitimando discursos de ódio se o modelo simplesmente reflete conteúdos tóxicos disponíveis online. Críticos e especialistas alertam que isso abre portas para a amplificação de estereótipos e falsidades, especialmente quando o modelo tem grande visibilidade pública e alcance global, podendo descambar para crimes, coletivos ou não, como já aconteceu com ondas de fake news em alguns países.

O caso da Grok faz lembrar a Tay, chatbot da Microsoft, desativado rapidamente em 2016 após propagar discursos extremistas por imitar perfis extremistas na internet, sem controle humano adequado. O problema da Grok é potencializado por seu vínculo com figuras públicas e contratos governamentais. Recentemente, a xAI fechou um contrato de US$ 200 milhões com o Departamento de Defesa dos EUA, despertando ainda mais preocupação sobre a influência dessas IAs em decisões estratégicas.

Sem diretrizes claras, auditoria pública, controle de conteúdo e responsabilização pelos resultados, IAs poderosas se tornam caixas-pretas flutuantes capazes de transmitir mensagens perigosas e normalizar discursos repressivos, ainda mais num mundo politicamente polarizado.

Não basta investir em algoritmos sofisticados; é preciso definir valores, limites, mecanismos de verificação e participação social nos processos de criação e implantação das IAs. No fim das contas, o problema não é a tecnologia, mas o seu propósito.

 

Clique aqui e receba as notícias no WhatsApp

Whatsapp

Raphael Rocha Lopes

Advogado, autor, professor e palestrante focado na transformação digital da sociedade. Especializado em Direito Civil e atuante no Direito Digital e Empresarial, Raphael Rocha Lopes versa sobre as consequências da transformação digital no comportamento da sociedade e no direito digital. É professor da Faculdade de Direito do Centro Universitário Católica Santa Catarina e membro da Associação Brasileira de Lawtechs e Legaltechs.