Mais um caso de uso do ChatGPT para fins de saúde que dá errado. De acordo com o site Annals of Internal Medicine, um senhor de 60 anos foi internado após contaminação com brometo de sódio.
O paciente recorreu ao chatbot para reduzir seu consumo de sal comum (cloreto de sódio) e a inteligência artificial acabou sugerindo o brometo de sódio, por sua semelhança químicas.
O composto, que é tóxico, é facilmente encontrado em desinfetantes de piscina. Também fica no corpo humano por até 14 dias após o consumo. O homem apresentou alucinações e precisou de internação.
O acontecimento fez com que médicos novamente reforçam a necessidade de desconfiar de apps de IA para fins mais sérios como medicina.