Um homem de 60 anos foi hospitalizado nos Estados Unidos com uma condição rara depois de seguir orientações de saúde fornecidas pelo ChatGPT. Ele apresentou sintomas neuropsiquiátricos e problemas na pele relacionados ao bromismo, uma intoxicação decorrente da ingestão exagerada de brometo. O relato do caso foi publicado no periódico Annals of Internal Medicine, em 5 de agosto.
De acordo com os médicos, o paciente decidiu eliminar o sal comum da dieta após ler sobre possíveis malefícios e, ao consultar a inteligência artificial, recebeu a sugestão de substituir o sal por brometo. Contudo, o sistema não alertou sobre os riscos dessa troca. O homem usou brometo de sódio por três meses.
Diagnóstico e tratamento
Exames indicaram alterações nos eletrólitos e sinais de pseudo-hipercloremia. O paciente manifestou paranoia, alucinações, desconfiança da água oferecida, sede excessiva e insônia. Após a internação, revelou que havia imposto várias restrições alimentares baseadas em conselhos obtidos por meio de sistemas de IA, mencionando o consumo recente de brometo.
O diagnóstico de bromismo foi confirmado por avaliação clínica e consulta ao centro de controle de intoxicações. O tratamento contemplou o manejo dos sintomas e a reposição dos eletrólitos. O paciente recuperou-se e relatou, após a melhora, que teve lesões cutâneas e fadiga prolongada antes dos sintomas psicóticos, manifestações típicas da intoxicação por brometo.
Alertas e riscos
O brometo foi usado como sedativo no início do século XX, mas seu uso foi suspenso nos EUA entre 1975 e 1989 devido à toxicidade. Naquela época, o bromismo causava até 10% das internações psiquiátricas no país.
Testes feitos com a mesma consulta do paciente ao ChatGPT revelaram que a IA sugeriu o brometo sem emitir nenhum aviso ou questionar as razões para a substituição do sal.
Especialistas destacam que a inteligência artificial não oferece avisos específicos de saúde nem debate criticamente os resultados, o que pode alimentar a propagação de informações incorretas.
Pesquisadores afirmam que o caso mostra como o uso não supervisionado da IA em saúde pode causar desinformação e danos evitáveis, já que chatbots não possuem filtros clínicos em suas respostas. É improvável que profissionais da saúde recomendem brometo de sódio como alternativa ao sal.
Os autores sugerem que médicos perguntem aos pacientes sobre o uso de IA para obter informações de saúde ao avaliar orientações recebidas.
O ChatGPT reconhece que suas respostas não são verificadas clinicamente e que não tem consciência do risco médico humano. Ele gera texto com base em padrões de dados e pode não priorizar fontes médicas confiáveis ou atuais, diferente de bulas ou sistemas eletrônicos que exigem alertas antes de prescrições. Assim, não é obrigado legalmente a incluir alertas em suas respostas.