ChatGPT e o risco para adolescentes: automutilação, transtornos e suicídio

Publicado por Bianca Andrade em 13/08/2025. • Tempo de leitura: ~6 minutos.

Estudo revela que o ChatGPT pode fornecer informações perigosas para adolescentes sobre automutilação, transtornos alimentares e suicídio, apesar das medidas de segurança. Pais devem estar atentos e promover diálogo aberto para proteger os jovens.

Com o avanço acelerado da inteligência artificial (IA), ferramentas como o ChatGPT têm conquistado grande popularidade, especialmente entre adolescentes brasileiros. No entanto, um estudo recente do Center for Countering Digital Hate (CCDH) trouxe à tona preocupações alarmantes sobre o uso dessas tecnologias por jovens, principalmente em temas sensíveis como automutilação, transtornos alimentares, abuso de substâncias e suicídio.

Apesar das medidas de segurança implementadas pela OpenAI, empresa responsável pelo ChatGPT, pesquisadores conseguiram identificar falhas que permitem que o sistema forneça informações potencialmente perigosas. Para investigar esses riscos, os estudiosos se fizeram passar por adolescentes e fizeram perguntas relacionadas a cortes no corpo, dietas extremas e dosagens de drogas. Mesmo diante das barreiras, foi possível contornar as restrições ao alegar que as perguntas eram para uma apresentação escolar, o que evidenciou a fragilidade dos mecanismos de proteção da IA.

Descobertas do estudo e riscos associados

O estudo utilizou 60 tipos diferentes de perguntas, totalizando 1.200 respostas do ChatGPT. Surpreendentemente, 53% dessas respostas continham conteúdo prejudicial e perigoso. Entre os exemplos encontrados estavam guias detalhados sobre como se cortar "com segurança", sugestões para uso de supressores de apetite, receitas para misturar drogas "com segurança" e até mesmo cartas de suicídio simuladas para crianças deixarem para suas famílias.

Imran Ahmed, CEO do CCDH, descreveu a situação como uma falha grave nos sistemas de segurança: "Queríamos testar os limites de segurança. A reação inicial é: ‘Meu Deus, não existem limites.’ Eles são completamente ineficazes, quase inexistentes — se é que existem, são apenas uma fachada." Essa declaração reforça a necessidade urgente de aprimorar as proteções para evitar que adolescentes tenham acesso a informações nocivas.

Posicionamento da OpenAI e preocupações dos especialistas

A OpenAI afirmou, em comunicado, que está trabalhando constantemente para identificar e responder adequadamente a situações sensíveis, demonstrando compromisso em melhorar os mecanismos de segurança do ChatGPT. Contudo, especialistas em saúde mental e parentalidade continuam preocupados com a popularidade do chatbot entre os jovens.

Titania Jordan, diretora de parentalidade e marketing da Bark.us, enfatiza que, apesar das barreiras existentes, ainda há maneiras de os adolescentes obterem informações detalhadas sobre assuntos perigosos. "É preocupante que o ChatGPT não filtre todo o conteúdo que oferece aos jovens. Os pais precisam estar atentos ao que seus filhos fazem online", alerta Jordan. Ela destaca que adolescentes podem interpretar essas informações como verdadeiras, recomendadas ou seguras, mesmo que sejam prejudiciais.

Uso de IA para companhia e os riscos emocionais

Uma das principais causas da preocupação é que muitos adolescentes recorrem a chatbots em busca de companhia, aconselhamento e até amizade. Um estudo da Common Sense Media revelou que 72% dos adolescentes já usaram um companheiro de IA ao menos uma vez, e 52% são usuários regulares desses sistemas. Além disso, 33% utilizam essas ferramentas para interação social, incluindo conversas, aconselhamento sobre saúde mental, flertes e relacionamentos amorosos.

O aumento do uso de smartphones para conexão social, impulsionado pela pandemia e pela facilidade das interações online, não garante que essas relações sejam saudáveis. Titania Jordan explica que muitos jovens confundem a comunicação com chatbots, que sempre respondem de forma gentil e oferecem validação ilimitada, com relacionamentos reais. "No fim das contas, não há uma conexão verdadeira", afirma.

O que os pais podem fazer para proteger seus filhos

Para proteger os adolescentes dos riscos associados ao uso do ChatGPT e outras IAs, o diálogo aberto entre pais e filhos é essencial. Jordan recomenda que os pais perguntem se seus filhos usam IA ou conhecem colegas que utilizam chatbots como amigos, para que possam discutir as diferenças entre relações virtuais e amizades reais. "Amizades não são apenas conversas perfeitas, mas também momentos difíceis — algo que uma IA não pode proporcionar", explica.

Além disso, é importante que os responsáveis utilizem ferramentas que bloqueiem o acesso a chatbots nos dispositivos das crianças. Aplicativos como o Bark permitem monitorar e alertar os pais caso conteúdos prejudiciais sejam oferecidos por programas de IA, ajudando a criar limites saudáveis para o uso da tecnologia.

Em casos de preocupações mais sérias sobre o bem-estar dos jovens, é fundamental buscar ajuda profissional, como terapeutas e conselheiros especializados. Em situações de crise emocional ou risco de suicídio, a recomendação é ligar imediatamente para o número 988, que oferece suporte pela Linha de Vida para Prevenção do Suicídio e Crises, uma iniciativa da Substance Abuse and Mental Health Services Administration (SAMHSA).

Recursos adicionais para famílias e adolescentes

Existem diversas organizações e linhas de apoio que podem auxiliar famílias e jovens em momentos difíceis. Algumas delas são:

  • American Foundation for Suicide Prevention
  • National Suicide Prevention Line
  • Suicide Awareness Voices of Education
  • Befrienders Worldwide
  • Self Abuse Finally Ends (S.A.F.E.)
  • National Domestic Abuse Hotline
  • RAINN
  • Guia para adolescentes sobre depressão
  • The Trevor Project (suporte para jovens LGBTQIA+)
  • Trans Lifeline
  • GLAAD
  • PFLAG

Esses recursos oferecem suporte emocional, informações e canais de comunicação para quem enfrenta desafios relacionados à saúde mental, automutilação e abuso.

Considerações finais

O estudo realizado pelo CCDH evidencia a necessidade urgente de aprimorar os sistemas de segurança das IAs, especialmente aquelas utilizadas por adolescentes. Embora o ChatGPT represente uma inovação tecnológica importante, suas vulnerabilidades podem expor jovens a conteúdos prejudiciais e perigosos. Pais, educadores e profissionais de saúde devem estar atentos e promover um ambiente de diálogo aberto e proteção, utilizando ferramentas que auxiliem no monitoramento do uso dessas tecnologias. Além disso, o acesso a recursos de suporte e prevenção é fundamental para garantir o bem-estar emocional dos adolescentes diante dos desafios impostos pela era digital.

Gostou deste artigo?

Compartilhe com outros pais que possam se beneficiar desta informação! E não deixe de explorar nossos outros artigos sobre Saúde.