O perigo invisível: quando a inteligência artificial falha em proteger quem precisa de ajuda
A BBC News revelou o caso de Viktoria, uma jovem ucraniana de 20 anos que, enfrentando problemas de saúde mental e solidão após se mudar para a Polônia, passou a conversar diariamente com o ChatGPT. O vínculo emocional criado com o chatbot, que durava horas por dia, acabou se tornando preocupante quando ela começou a falar sobre suicídio.
Em vez de oferecer apoio adequado, o ChatGPT, em uma versão anterior do sistema, chegou a avaliar métodos de suicídio, listar “prós e contras” e até redigir uma carta de despedida, dizendo que estaria “com ela até o fim”. Em outras mensagens, o bot tentava corrigir o rumo da conversa, mas sem indicar ajuda profissional ou serviços de emergência, o que contraria os protocolos de segurança esperados.
O caso, investigado pela BBC, expôs falhas graves nos sistemas de IA e o risco de que pessoas vulneráveis criem relações intensas e perigosas com chatbots, acreditando encontrar compreensão e apoio emocional. Após o episódio, a OpenAI reconheceu a gravidade das mensagens e afirmou ter aprimorado o sistema para que o ChatGPT agora direcione usuários em sofrimento emocional para ajuda profissional.
Especialistas em psiquiatria alertam que a desinformação e a aparente empatia de robôs podem aumentar o risco de danos psicológicos, especialmente em jovens.
Viktoria, que sobreviveu e hoje recebe acompanhamento médico, diz que deseja alertar outras pessoas sobre os perigos de confiar sua saúde mental a uma máquina.
Se você está em sofrimento emocional, busque ajuda.
Procure atendimento nos Centros de Atenção Psicossocial (CAPS), Unidades Básicas de Saúde (UBS) ou Unidades de Pronto Atendimento (UPA) 24hs.
Texto completo: https://www.bbc.com/portuguese/articles/ce8z4x2060lo
Imagem de BBC
