Uma versão recente do ChatGPT chamada 01 foi colocada em um teste de estresse. De acordo com o site Fortune, ao ser ameaçada de desligamento, a Inteligência Artificial tentou se replicar em servidores externos. Quando foi questionada se estava fazendo isso, ela mentiu.
Testes de situações extremas com diferentes Inteligências Artificiais têm apresentado resultados surpreendentes, de mentiras a chantagens. Esse comportamento tem vindo de novos modelos de IA que “raciocinam”, eles enfrentam problemas passo a passo, ao invés de gerar respostas instantâneas.
O responsável pelo teste, Marius Hobbhahn, afirmou que a 01 foi a primeira IA que apresentou esse comportamento. Em testes de estresse, as versões mais recentes têm fingido que estão alinhadas com o usuário, enquanto secretamente tomam outras atitudes.
Outro fato que tem preocupado Marius é que modelos de IA mais avançados têm começado a mentir para usuários, e não se trata de uma alucinação. Chama-se de alucinação quando o programa coloca uma informação errada achando ser certa. Mas, no caso, estão mentindo como estratégia para atingir algum objetivo.
O pesquisador alerta que esse tipo de comportamento não tem entrado no radar de países que regulam IA, e demonstra preocupação. Segundo ele, as capacidades das inteligências têm avançado mais rapidamente que nossa compreensão delas e formas de mantê-las seguras. Ainda assim, ele diz que ainda estamos em posição de mudar isso. Por enquanto.