20.5 C
Brasília
sexta-feira, 23/01/2026

ChatGPT Health: Ferramenta útil, mas com opiniões divididas entre especialistas

Brasília
nuvens quebradas
20.5 ° C
21.7 °
20.5 °
88 %
2.6kmh
75 %
sex
28 °
sáb
19 °
dom
19 °
seg
25 °
ter
25 °

Em Brasília

VITOR HUGO BATISTA
SÃO PAULO, SP (FOLHAPRESS)

A OpenAI lançou em janeiro o ChatGPT Health, um recurso que ajuda usuários a esclarecer dúvidas sobre saúde. Contudo, médicos e especialistas em inteligência artificial têm opiniões diferentes sobre o impacto dessa ferramenta.

Enquanto alguns veem potencial na novidade, outros alertam que as respostas podem ser imprecisas, levantando preocupações sobre a qualidade da informação e a responsabilidade em casos de erro.

A OpenAI explica que o ChatGPT Health é para uso informativo e educacional, não substituindo diagnósticos ou tratamentos médicos, nem o atendimento profissional. A empresa ressalta que a ferramenta auxilia na organização de dúvidas e na compreensão de informações para facilitar conversas com médicos.

O Conselho Federal de Medicina reforça que o ChatGPT Health pode ser um apoio para orientar pacientes, mas nunca deve substituir o exame clínico e o julgamento médico.

O médico André Costa, diretor da Rede Mater Dei de Saúde, destaca o risco de as pessoas deixarem de consultar um profissional e dependerem apenas das respostas do chatbot, pois 90% do diagnóstico vem da conversa médica detalhada.

Lara Salvador, também da Rede Mater Dei, lembra que a IA não entende o contexto clínico completo, não realiza exame físico nem acompanha a evolução do paciente, o que é essencial para decisões médicas.

Gustavo Zaniboni, especialista em inteligência artificial, questiona a quem cabe responsabilidade se a ferramenta errar e causar danos, já que médicos são responsabilizados, mas a IA não tem uma punição clara.

“Alucinações” na IA são erros onde o sistema cria informações falsas que parecem plausíveis, o que preocupa os especialistas.

A OpenAI afirma que treinou o ChatGPT Health com a ajuda de mais de 260 médicos de 60 países, incluindo brasileiros, que forneceram feedback amplo para melhorar a ferramenta.

Diferente da versão pública do ChatGPT que usa dados das conversas para aprendizado, esta versão foi feita em parceria direta com médicos.

Emir Vilalba, da Semantix, alerta para a necessidade de cautela com a qualidade das informações do chatbot, pois não há garantia de precisão total.

Nuria López, professora da Universidade Presbiteriana Mackenzie, destaca que a ferramenta pode cometer erros por não ter a experiência e o contexto que um profissional humano possui, reforçando que é apenas uma ajuda, não um substituto.

O ChatGPT Health está disponível inicialmente para um grupo pequeno e o acesso será ampliado gradualmente, sem foco em usuários específicos.

Nos Estados Unidos, a ferramenta pode ser integrada a prontuários eletrônicos, mas isso não está previsto para o Brasil, onde a privacidade dos dados é protegida pela LGPD, exigindo consentimento claro para uso das informações de saúde.

O armazenamento de dados fora do Brasil gera debates sobre segurança e soberania, já que leis americanas podem permitir que os dados sejam solicitados por autoridades.

O governo brasileiro, com o presidente Luiz Inácio Lula da Silva, tem investido para criar uma nuvem soberana para guardar informações no país, protegendo-as sob jurisdição nacional.

Especialistas afirmam que o ChatGPT Health pode ser valioso para quem tem dificuldade de acesso a médicos, fornecendo informações confiáveis e ajudando em primeiros socorros e cuidados básicos.

Nuria López acredita que, por ser treinado com dados especializados, o chatbot entrega respostas mais seguras do que buscas comuns na internet.

Gustavo Zaniboni destaca que a tecnologia vai se tornar parte do cotidiano, assim como a eletricidade.

Veja Também