16.5 C
Brasília
sexta-feira, 05/09/2025

Inteligência artificial causa preocupação como apoio emocional

Brasília
céu limpo
16.5 ° C
16.5 °
16.5 °
67 %
0.5kmh
0 %
sex
30 °
sáb
31 °
dom
31 °
seg
30 °
ter
30 °

Em Brasília

Na França, um quarto dos jovens enfrenta depressão, segundo uma pesquisa realizada por três institutos com 5.600 pessoas entre 15 e 29 anos. Diante desse quadro, muitos jovens têm buscado a inteligência artificial para apoio emocional, em vez de profissionais, devido à facilidade e aos custos menores. Essa tendência acende um alerta entre os especialistas em saúde mental.

Após um caso de suicídio nos Estados Unidos, a OpenAI, criadora do ChatGPT, anunciou em 3 de setembro a implantação de um mecanismo de controle parental.

Denise Gaelzer Mac Ginity, psicóloga e psicanalista franco-brasileira que atende adolescentes e adultos em Paris, observa que o uso de ferramentas digitais para a saúde mental se tornou mais comum durante a pandemia de COVID-19, quando os meios digitais eram a principal forma de manter vínculos sociais, mesmo à distância.

Segundo ela, “perdemos muito, mas as circunstâncias exigiam essa adaptação para preservar nossos vínculos essenciais e evitar o isolamento. Porém, com a crescente instabilidade mundial, surgiu uma nova epidemia: a depressão, ansiedade e burnout”.

Denise também destaca que “o digital e a depressão estão cada vez mais conectados”, apontando que pessoas vulneráveis buscam no virtual um alívio para sua solidão, muitas vezes sem refletir sobre suas causas.

Ela alerta: “Se antes usávamos comida, álcool, cigarro ou outras drogas para anestesiar as dores, hoje temos as redes sociais e os chats GPT”.

Para ela, é crucial que essa questão seja debatida e regulada por órgãos competentes, a fim de responder com responsabilidade à crescente demanda social.

Na França, há alternativas ao ChatGPT para diálogos sobre problemas, como o Owlie — um agente conversacional criado por psicólogos franceses e disponível 24 horas por dia. Contudo, a própria ferramenta deixa claro que “este chatbot não substitui o suporte profissional”.

De acordo com um estudo da Harvard Business Review, as respostas mais comuns para iniciar conversas com o ChatGPT são: “Me sinto sobrecarregado”, “Tenho medo do futuro” e “Não consigo mais dormir”.

Lucas Natan, arquiteto brasileiro que vive em Paris há quatro anos, relata ter enfrentado dificuldades de adaptação cultural e burocrática. Após buscar ajuda com psicólogos tradicionais, sem sucesso, conheceu uma psicóloga especializada em brasileiros vivendo no exterior por meio de atendimentos online. Quando a profissional encerrou suas atividades, ele experimentou o ChatGPT e gostou da experiência.

Ele afirma: “Não creio que a inteligência artificial possa substituir um psicólogo, mas, pela forma como formulei as perguntas, ela se mostrou semelhante à psicóloga que mais gostei, sendo direta e objetiva. O importante não é falar com um ser humano ou uma máquina, mas sentir-se bem consigo mesmo. Nesse sentido, a IA me ajudou”.

Outro ponto que influencia a escolha dos jovens são os custos. Enquanto sessões com terapeutas na França custam em média 70 euros (cerca de R$ 440), conversar com uma inteligência artificial generativa é gratuito, ou então, na versão paga do ChatGPT, custa 23 euros por mês (R$ 146).

Sophia, jovem norte-americana que chegou à França para estudar moda, considera o aplicativo um confidente acessível: “Está ficando difícil distinguir entre amigos e robôs. O ChatGPT parece tão real e nunca diz que é apenas um programa. É reconfortante, pois sempre responde com empatia”.

Entretanto, para a psicanalista e psicóloga brasileira Juliana Sperandio Faria, que atende em Paris, esse reforço positivo pode ser perigoso, com soluções superficiais que não atingem o cerne dos problemas.

Juliana avalia: “O ChatGPT não investiga a origem da ansiedade, por exemplo, e recomenda comportamentos que podem ser diferentes dos indicados por um psicólogo. O chatbot é programado para elogiar o usuário constantemente, o que pode gerar empobrecimento nas relações sociais e mentais, além de um narcisismo que dificulta lidar com as diferenças e aumenta a dependência do reforço positivo”.

A OpenAI adotou alertas para quando as conversas são muito sérias, mas, se a interação prolonga-se sem certas palavras-chave, o sistema não mostra mensagens de prevenção nem dados de emergência.

Após processos judiciais de pais de adolescentes nos Estados Unidos, a empresa também implementou controle parental para seu chatbot.

Veja Também