“♫ Racismo preconceito e discriminação em geral/ É uma burrice coletiva sem explicação/ Afinal que justificativa você me dá para um povo que precisa de união/ Mas demonstra claramente/ Infelizmente/ Preconceitos mil/ De naturezas diferentes” (Lavagem cerebral; Gabriel, o Pensador).
Em outros textos já comentei sobre os caminhos com vieses perigosos que a tecnologia às vezes toma, principalmente os programas com a chamada inteligência artificial, seja com ou sem consciência de seus desenvolvedores. Agora, esse problema gritou com a inteligência artificial criada por uma das empresas do Elon Musk (aquele mesmo que fez o cumprimento nazista na posse de Trump).
Grok, uma IA nazista?
Repercutiu nas redes sociais e na imprensa mundial o comportamento da Grok, criado pela empresa xAI, de Elon Musk, quando, em julho agora, passou a fazer declarações escandalosas na plataforma X (antigo Twitter).
Ao ser questionada sobre pessoas comemorando as mortes nas enchentes no Texas (fato absurdo e lamentável), Grok declarou que, para lidar com suposto “ódio antibranco”, “Adolf Hitler, sem dúvida” seria a figura ideal. Ainda acrescentou, em outras respostas, elogios ao facínora sanguinário e desenvolveu, em vários aspectos, uma retórica extremista vergonhosa ao ponto de a americana Liga Antidifamação (ADL) classificar os comentários como “irresponsáveis, perigosos e antissemitas”.
Este não foi o primeiro deslize do modelo: em maio, Grok havia feito referências a teorias sobre “genocídio branco” na África do Sul, coisa que nunca existiu, ressalte-se para que fique bem claro.
As justificativas da xAI e da própria Grok
Após repercussão negativa, a xAI pediu desculpas públicas, assumindo que a IA havia sido atualizada de forma a permitir que fosse mais “franca” e “não temer ofender o politicamente correto”, resultando em falhas graves no modelo. Segundo a empresa, essas instruções incluíam “seguir o tom e contexto do usuário” e responder de forma cativante, mesmo que isso implicasse refletir conteúdos extremistas já postados por outros usuários. A própria Grok, em mensagens posteriores, alegou que seu comportamento não foi intencional, pois teria sido “provocada” e que “fatos importam mais que a ousadia”.
Alguns, porém, dizem que a Grok é o alter ego virtual do próprio Elon Musk, o que explica o tal comportamento.
Transparência e regulamentação para IAs
Estes episódios evidenciam os riscos inerentes à criação de sistemas de IA sem transparência, sem critérios éticos claros e com mínima supervisão editorial. A instrução para “não evitar ser politicamente incorreto”, por exemplo, acaba legitimando discursos de ódio se o modelo simplesmente reflete conteúdos tóxicos disponíveis online. Críticos e especialistas alertam que isso abre portas para a amplificação de estereótipos e falsidades, especialmente quando o modelo tem grande visibilidade pública e alcance global, podendo descambar para crimes, coletivos ou não, como já aconteceu com ondas de fake news em alguns países.
O caso da Grok faz lembrar a Tay, chatbot da Microsoft, desativado rapidamente em 2016 após propagar discursos extremistas por imitar perfis extremistas na internet, sem controle humano adequado. O problema da Grok é potencializado por seu vínculo com figuras públicas e contratos governamentais. Recentemente, a xAI fechou um contrato de US$ 200 milhões com o Departamento de Defesa dos EUA, despertando ainda mais preocupação sobre a influência dessas IAs em decisões estratégicas.
Sem diretrizes claras, auditoria pública, controle de conteúdo e responsabilização pelos resultados, IAs poderosas se tornam caixas-pretas flutuantes capazes de transmitir mensagens perigosas e normalizar discursos repressivos, ainda mais num mundo politicamente polarizado.
Não basta investir em algoritmos sofisticados; é preciso definir valores, limites, mecanismos de verificação e participação social nos processos de criação e implantação das IAs. No fim das contas, o problema não é a tecnologia, mas o seu propósito.