“♫ Que não é, o que não pode ser que/ Não é o que não pode ser que não é/ O que não pode ser que não/ É o que não pode ser que não” (O quê, Titãs).

No filme Minority Report, de 2002, estrelado por Tom Cruise e dirigido por Steve Spielberg, baseado em um conto do onipresente ficcional Philip Dick, a polícia prende os criminosos antes de cometerem os crimes com base em informações de três videntes chamados de precogs. A história se passa no ano de 2054.

Estamos entrando em 2022.

Precogs digitais

Programas com inteligência artificial vinham sendo utilizados nos EUA para definição de penas e avaliação de possíveis reincidências. Afora o grave aspecto, na minha opinião, de tais sistemas não terem seus códigos abertos por supostas questões de sigilo comercial, houve ainda a constatação de tendências racistas, com erros muitos mais frequentes contra as minorias étnicas.

Talvez o programa funcione bem. Talvez não. O fato é que com o crescimento das controvérsias e número de possíveis erros, houve um freio no seu uso.

Por outro lado, a polícia de Nova Iorque estava usando um programa de computador para identificar padrões. Neste caso, há apenas análise de dados, sem predição, o que se torna, se não propriamente mais eficiente do que a ação humana, indiscutivelmente mais ágil. O que é bastante conveniente nas investigações criminais.

Reconhecimento facial

Outra polêmica, ainda na esfera policial, é o uso de reconhecimento facial para identificação de supostos criminosos. Sem contar a bizarra atitude da polícia de Nova Iorque, que inseriu no sistema a foto do ator Woody Harrelson para identificar um ladrão de cerveja porque o suspeito se parecia com ele, também há outras controvérsias.

Tanto nos EUA quanto no Reino Unido estudos apontaram um certo viés racista nos algoritmos de identificação de suspeitos reconhecidos por programas de identificação facial. Os erros ocorriam com mais frequência contra negros, e mais ainda contra mulheres negras.

Um documentário interessante sobre esses vieses racista e machista, de maneira geral, é o Coded Bias, da Netflix, que tem como ponto de partida as pesquisas da cientista Joy Buolamwini, do MIT.

Juízes e promotores

A inteligência artificial está crescendo em todos os segmentos, como se percebe claramente. E há movimentos fortes para incluí-la diretamente no judiciário e no ministério público.

A Estônia está desenvolvendo, há alguns anos, um juiz robô com o objetivo de mediar pequenas causas. No Brasil, o STF usa o Victor, um programa utilizado especialmente para acelerar a identificação de temas de repercussão geral de maior incidência. Nos Estados, os Tribunais igualmente estão desenvolvendo seus robôs para agilizar a triagem de determinados processos.

Agora na China, o Ministério Público também está sendo “robotizado”. O governo está desenvolvendo um programa com inteligência artificial que poderá, apenas com informações verbais, analisar se o caso merece ou não ser levado adiante, sob o ponto de vista criminal.

Está claro que cada vez mais estamos nas mãos da tecnologia. Se isso será bom ou ruim, o futuro nos dirá.