VITOR HUGO BATISTA
SÃO PAULO, SP (FOLHAPRESS)
A OpenAI lançou em janeiro o ChatGPT Health, um recurso que ajuda usuários a esclarecer dúvidas sobre saúde. Contudo, médicos e especialistas em inteligência artificial têm opiniões diferentes sobre o impacto dessa ferramenta.
Enquanto alguns veem potencial na novidade, outros alertam que as respostas podem ser imprecisas, levantando preocupações sobre a qualidade da informação e a responsabilidade em casos de erro.
A OpenAI explica que o ChatGPT Health é para uso informativo e educacional, não substituindo diagnósticos ou tratamentos médicos, nem o atendimento profissional. A empresa ressalta que a ferramenta auxilia na organização de dúvidas e na compreensão de informações para facilitar conversas com médicos.
O Conselho Federal de Medicina reforça que o ChatGPT Health pode ser um apoio para orientar pacientes, mas nunca deve substituir o exame clínico e o julgamento médico.
O médico André Costa, diretor da Rede Mater Dei de Saúde, destaca o risco de as pessoas deixarem de consultar um profissional e dependerem apenas das respostas do chatbot, pois 90% do diagnóstico vem da conversa médica detalhada.
Lara Salvador, também da Rede Mater Dei, lembra que a IA não entende o contexto clínico completo, não realiza exame físico nem acompanha a evolução do paciente, o que é essencial para decisões médicas.
Gustavo Zaniboni, especialista em inteligência artificial, questiona a quem cabe responsabilidade se a ferramenta errar e causar danos, já que médicos são responsabilizados, mas a IA não tem uma punição clara.
“Alucinações” na IA são erros onde o sistema cria informações falsas que parecem plausíveis, o que preocupa os especialistas.
A OpenAI afirma que treinou o ChatGPT Health com a ajuda de mais de 260 médicos de 60 países, incluindo brasileiros, que forneceram feedback amplo para melhorar a ferramenta.
Diferente da versão pública do ChatGPT que usa dados das conversas para aprendizado, esta versão foi feita em parceria direta com médicos.
Emir Vilalba, da Semantix, alerta para a necessidade de cautela com a qualidade das informações do chatbot, pois não há garantia de precisão total.
Nuria López, professora da Universidade Presbiteriana Mackenzie, destaca que a ferramenta pode cometer erros por não ter a experiência e o contexto que um profissional humano possui, reforçando que é apenas uma ajuda, não um substituto.
O ChatGPT Health está disponível inicialmente para um grupo pequeno e o acesso será ampliado gradualmente, sem foco em usuários específicos.
Nos Estados Unidos, a ferramenta pode ser integrada a prontuários eletrônicos, mas isso não está previsto para o Brasil, onde a privacidade dos dados é protegida pela LGPD, exigindo consentimento claro para uso das informações de saúde.
O armazenamento de dados fora do Brasil gera debates sobre segurança e soberania, já que leis americanas podem permitir que os dados sejam solicitados por autoridades.
O governo brasileiro, com o presidente Luiz Inácio Lula da Silva, tem investido para criar uma nuvem soberana para guardar informações no país, protegendo-as sob jurisdição nacional.
Especialistas afirmam que o ChatGPT Health pode ser valioso para quem tem dificuldade de acesso a médicos, fornecendo informações confiáveis e ajudando em primeiros socorros e cuidados básicos.
Nuria López acredita que, por ser treinado com dados especializados, o chatbot entrega respostas mais seguras do que buscas comuns na internet.
Gustavo Zaniboni destaca que a tecnologia vai se tornar parte do cotidiano, assim como a eletricidade.
