Um homem de 60 anos chega ao hospital confuso, paranoico, com alucinações. Durante três meses, substituiu o sal de cozinha por brometo de sódio, convencido pela Inteligência Artificial de que seria “mais saudável”.
O delírio químico tem nome antigo, bromismo, e parecia banido à poeira da história da farmacologia. Voltou pela porta lateral do século XXI: a das respostas prontas geradas por uma Inteligência Artificial (IA) conversacional, recebidas como receita de consultório.
O evento foi descrito como caso clínico nos Annals of Internal Medicine, e rapidamente repercutiu, tornando-se parábola dos tempos: a máquina fala como médico e o leigo escuta como paciente. O resultado foi internação, psicose e uma lição sobre aquilo que confundimos, isto é, informação com verossimilhança de verdade.
A questão central, porém, não é demonizar a tecnologia. É compreender o desequilíbrio estrutural que a tornou abre-te Sésamo para milhões: filas longas, consultas rápidas, desigualdade de acesso, uma infodemia que nos esgota, e a estética convincente do texto perfeito.
Em 2024, a Organização Mundial da Saúde (OMS) publicou diretrizes específicas para grandes modelos multimodais em saúde: mais de quarenta recomendações que vão de avaliação independente e transparência de dados a mecanismos de responsabilização e monitoramento pós-implantação. O recado é inequívoco: sem governança, a promessa vira risco.
Quais os riscos? Dois se destacam!
O primeiro é a alucinação. Não a do paciente, mas a da própria máquina: respostas factualmente falsas, escritas com serenidade acadêmica, muitas vezes com citações inventadas.
O segundo risco é a autoridade performativa. Quando a linguagem de um modelo simula precisão estatística e tom especialista, ela empresta legitimidade a conteúdos inseguros.
Convém, porém, distinguir papéis. Há evidências de que modelos de linguagem acertam muito em tarefas delimitadas.
Por exemplo, responder perguntas complexas ou auxiliar triagens documentais, e que seu desempenho melhora quando inseridos em fluxos com revisão humana. Mas o “muito” técnico não equivale ao “suficiente” terapêutico: pequenos erros em saúde podem ser fatais.
O caso do bromismo, nesse sentido, é menos um “acidente” e mais um experimento social involuntário que deixou ver rachaduras: uma plataforma generalista, sem rotas claras de emergência para temas de alto risco; um usuário com literacia em saúde insuficiente para perceber o abismo entre “substituto químico” e “alimento”; um ambiente digital que premia a resposta rápida, não o consentimento informado.
A ciência sugere caminhos: a OMS propõe que sistemas voltados à saúde adotem rótulos explícitos, desencorajem automedicação, façam triagem de intenção (redirecionando consultas clínicas para profissionais), registrem incidentes e reportem falhas publicamente.
É um léxico de segurança que já conhecemos em aviação e medicamentos; precisamos importá-lo, com urgência, para o software que fala como gente.
Quando plataformas intermediam nossa relação com o próprio corpo, deslocam-se fronteiras entre autonomia e tutela. No setor da saúde, autonomia nunca significou solidão; significou decisão informada em diálogo entre pluriprofissionais.
O que vemos é uma autonomia precarizada, em que o indivíduo, pressionado por custos, tempo e angústia, se agarra ao conselho mais acessível; que, não raro, é o da máquina. E a máquina, a despeito do brilho, não toma pulso, não ausculta, não examina, e muitas vezes não entende o contexto: ela apenas prediz palavras plausíveis.
A sedução da chamada “cura digital” repousa na promessa de respostas instantâneas, algoritmos que parecem decifrar sintomas e oferecer atalhos terapêuticos em instante frenético que a gente quer.
Mas essa promessa, quando adotada de forma ingênua, traz colaterais silenciosos: da automedicação perigosa ao atraso em diagnósticos graves, do aumento da ansiedade à falsa sensação de autonomia.
É aqui que o princípio bioético em latim primum non nocere, isto é, antes de tudo, não causar dano, deveria ser evocado como farol.
Se cada intervenção médica deve ser julgada por sua capacidade de não ferir, também as tecnologias de saúde digital precisam ser reguladas, avaliadas e supervisionadas por esse critério elementar. Sem essa direção, a cura digital pode se transformar em iatrogenia algorítmica.
Queremos modelos auditados, estudos reprodutíveis, métricas de dano, comitês de segurança e rotas de “interrupção” quando a conversa entra em zona vermelha (substâncias químicas, dosagens, interrupção de medicamentos, sinais de alarme).
O episódio do brometo teve um desfecho positivo porque houve hospital, equipe, hidratação, reposição eletrolítica e tempo. Poderia ter terminado pior. Fica a lição: o problema não é perguntar à IA; é obedecê-la como se fosse prescrição.
Proponho uma regra simples para o leitor: se a resposta da máquina mexe com o seu corpo, quer dizer, com a química do que você ingere, com a interrupção de um remédio ou com a leitura de um sintoma grave; transforme a curiosidade em consulta. Algoritmos podem ser excelentes bibliotecários; profissional de saúde, ainda precisa ser gente.
A inteligência artificial já se instalou como parte inescapável do ecossistema da saúde. Mas cabe a nós decidir se ela será microscópio, digo, lente que ilumina a ciência, ou charlatão, isto é, oráculo que fabrica ficções científicas atraentes sem compromisso com a verdade.
Na infância, brincar de prescrição de dieta, treino, remédio, sessão de terapia, fisioterapia, cirurgia, obturação, enfim, pode ser divertido e até pedagógico. Entretanto, estender para a vida adulta seguindo condutas prescritas por uma máquina cuja limitação do cuidado reside justamente na ausência do fator humano; é salto cego rumo ao desfiladeiro da desinformação disfarçada de ciência.
Alimentação saudável é força e proteção. Informação é prevenção. Você tem alguma dúvida sobre saúde, alimentação e nutrição? Envie um e-mail para dr.clayton@metafisicos.com.br e poderei responder sua pergunta futuramente. Nenhum conteúdo desta coluna, independentemente da data, deve ser usado como substituto de uma consulta com um profissional de saúde qualificado e devidamente registrado no seu Conselho de Categoria correspondente.
*Clayton Camargos é sanitarista pós-graduado pela Escola Nacional de Saúde Pública – ENSP/Fiocruz. Desde 2002, ex-gerente da Central Nacional de Regulação de Alta Complexidade (CNRAC) do Ministério da Saúde. Subsecretário de Planejamento em Saúde (SUPLAN) da Secretaria de Estado de Saúde do Distrito Federal (SES-DF). Consultor técnico para Coordenação-Geral de Fomento à Pesquisa Em Saúde da Secretaria de Ciência, Tecnologia e Insumos Estratégicos (SCTIE) do Ministério da Saúde. Coordenador Nacional de Promoção da Saúde (COPROM) da Diretoria de Serviços (DISER) da Fundação de Seguridade Social. Docente das graduações de Medicina, Nutrição e Educação Física, e coordenador dos estágios supervisionados em nutrição clínica e em nutrição esportiva do Departamento de Nutrição, e diretor do curso sequencial de Vigilância Sanitária da Universidade Católica de Brasília (UCB). Atualmente é proprietário da clínica Metafísicos.
CRN-1 2970.