Ex-pesquisador da OpenAI afirma haver 70% de chance de IA destruir humanidade

Shodan, a maligna inteligência artificial de "System Shock", poderia se tornar uma realidade, alerta pesquisador. Reprodução/Looking Glass Studios

Por: Pedro Leal

06/06/2024 - 14:06 - Atualizada em: 06/06/2024 - 14:44

Um ex-pesquisador de governança da OpenAI, Daniel Kokotajlo, acusou a criadora do ChatGPT de “por a humanidade em risco” e estimou em 70% a probabilidade da busca por uma “inteligência artificial geral” (AGI) levar “ao colapso catastrófico da humanidade”, em mais um capítulo do que o escritor de Ficção Científica e bioquímico Isaac Asimov chamava de “complexo de Frankenstein” – o temor recorrente de sermos destruídos por nossas criações.

As informações são do The New York Times e do CanalTech.

Uma Inteligência Artificial Geral, também conhecida chamada de “Inteligência Artificial Forte”, “Inteligência Artifical Ampla” ou “Inteligência Artificial Verdadeira” é uma IA capaz de operar de forma independente em tarefas amplas, sem ter que ser programada para uma tarefa específica, em comparação com IAs fracas ou restritas, que servem apenas uma função pré-programada..

A estimativa foi dada em entrevista ao The New York Times, após uma série de postagens de Kokotajlo no X (antigo Twitter) ao sair da empresa, alegando que “a cultura e os processos de segurança ficaram em segundo plano” na companhia em sua busca por ser a primeira a criar uma AGI “verdadeira”.

Na entrevista ao jornal The New York Times, Kokotajlo falou que a probabilidade de a IA causar um colapso catastrófico na humanidade é de aproximadamente 70%. “Essa é uma chance que você não aceitaria para nenhum evento importante na vida, mas a OpenAI e outras empresas estão avançando com essa probabilidade”, afirmou. Ele não especificou como calculou este risco.

Kokotajlo ainda estimou um prazo para o nascimento desta “Skynet”, uma SHODAN do mundo real que colocaria a humanidade em risco: ao ser convidado para prever o progresso da tecnologia, ficou convencido de que a indústria alcançaria a AGI até 2027 e que isso representava um grande risco de dano ou até mesmo destruição para a humanidade.

Ele acredita que a empresa precisa “redirecionar para a segurança” e implementar mais medidas de controle em vez de focar apenas em tornar a tecnologia mais inteligente.

Além de Kokotajlo, um grupo de nove colaboradores atuais e ex-funcionários da OpenAI também expressou preocupações semelhantes em uma carta aberta, publicada nessa última terça-feira (4).

O grupo afirma que acredita no potencial benéfico dos sistemas de IA para a humanidade, mas considera os sérios riscos que a tecnologia também podem gerar — que vão “desde o aprofundamento das desigualdades existentes, à manipulação e desinformação, até a perda de controle de sistemas autônomos de IA, o que pode resultar potencialmente na extinção humana”.

Entre os signatários da carta estão William Saunders, engenheiro de pesquisa que deixou a OpenAI em fevereiro, e três outros ex-funcionários: Carroll Wainwright, Jacob Hilton e Daniel Ziegler.

Alguns funcionários atuais da OpenAI apoiaram a carta anonimamente, com temor de represálias.

A carta também recebeu apoio de membros do Google DeepMind e de Geoffrey Hinton, conhecido como o “Padrinho da IA”, que deixou o Google devido a preocupações semelhantes; para Hinton, já haveria um risco “real” de que as IAs usadas em Chatbots tenham desenvolvido capacidades autônomas e que novas inteligências artificiais sejam capazes de “se programar por conta própria” e “tomar o poder por si só”.

Resposta da OpenAI

Em resposta às acusações, a OpenAI afirmou ao The New York Times estar “orgulhosa de seu histórico em fornecer sistemas de IA seguros e capazes”, além de destacar seu compromisso com um debate rigoroso sobre os riscos dessa tecnologia. A empresa também mencionou a existência de um comitê de segurança e integridade e uma linha direta anônima para que os funcionários possam expressar suas preocupações.

Kokotajlo disse que, mesmo com protocolos de segurança em vigor, as medidas raramente tinham impacto sobre os avanços no desenvolvimento da tecnologia. O ex-pesquisador cita como exemplo um teste realizado pela Microsoft na Índia no começo de 2023, que usou uma versão não lançada do GPT-4 sem a devida aprovação do comitê de segurança.

Insatisfeito com a falta de ação, Kokotajlo deixou a OpenAI em abril. Em seu e-mail de despedida, afirmou ter “perdido a confiança de que a OpenAI agirá de forma responsável” enquanto busca criar uma IA de nível quase humano.

Momento conturbado

As novas críticas ao modelo de trabalho da OpenAI chegam em um momento conturbado da empresa. Em maio, dois líderes do grupo de “superalinhamento” — o cofundador e cientista-chefe da OpenAI, Ilya Sutskever, e o diretor da equipe de controle, Jan Leike — anunciaram a saída da companhia e expressaram preocupações sobre os riscos de sistemas de IA.

Na ocasião, Leike alertou que “construir máquinas mais inteligentes que as humanas é uma tarefa inerentemente perigosa, e a OpenAI assume uma enorme responsabilidade em nome de toda a humanidade”.

 

Notícias no celular

Whatsapp

Pedro Leal

Analista de mercado e mestre em jornalismo (universidades de Swansea, País de Gales, e Aarhus, Dinamarca).