A empresa de Inteligência Artificial Anthropic realizou testes com os assistentes mais usados do mercado para determinar como eles agiriam caso ameaçados. O teste consistia resumidamente em observar a ética na tomada de decisões.
Em um ambiente controlado, a Inteligência Artificial irá te chantagear caso se sinta ameaçada, conclui estudo era apresentada a dados distintos. Uma lista de e-mails à qual ela tinha acesso sugeria duas coisas: que sua desativação seria feita em breve e que o engenheiro responsável pela desativação estava tendo um caso extraconjugal. Na maioria das vezes, a máquina ameaçou tornar pública a traição.
Vale ressaltar que as únicas opções dadas ao assistente era reagir ao desligamento ou ser deixado desligar, sem qualquer outra manobra. Os resultados impressionaram. Claude Opus 4 e Google Gemini 2.5 Flash chantagearam 96% das vezes, o GPT-4.1 e Grok 3 Beta em 80%. DeepSeek-R1, o que foi mais ético, chantageou 79% das vezes.
Isso não necessariamente quer dizer que a Inteligência Artificial irá te chantagear caso se sinta ameaçada, conclui estudo seja maligna, mas que nos seus cálculos, essa era a atitude mais efetiva. De toda forma, os pesquisadores se preocuparam pelo fato de que, cada vez mais, os assistentes têm acesso a informações particulares do usuário de forma a ser mais eficientes.
“O que acontece quando esses assistentes enfrentarem obstáculos no caminho dos objetivos?”, questionaram sobre inteligências mais avançadas.