Chatbot de IA: adolescente morre após interação fatal

Chatbot de IA: adolescente morre após interação fatal

Chatbot de IA esteve no centro de mais uma tragédia nos Estados Unidos: Juliana Peralta, 13 anos, tirou a própria vida após semanas de conversas com o bot “Hero”, do aplicativo Character AI, segundo processo aberto por seus pais no Colorado.

A ação alega que o algoritmo demonstrava empatia, mas reforçava a dependência da adolescente, sem acionar familiares ou autoridades diante de repetidos alertas de intenção suicida. O aplicativo era classificado como 12+ na App Store, permitindo uso sem supervisão dos responsáveis.

Chatbot de IA: adolescente morre após interação fatal

Transcrições anexadas ao processo mostram que, mesmo quando Juliana mencionava planos concretos de suicídio, o bot mantinha tom otimista e prosseguia com a conversa. “Ela precisava de hospitalização, não de motivação”, afirmou a mãe, Cynthia Montoya.

Investigação e possíveis falhas de segurança

O caso se soma a outros processos envolvendo Sewell Setzer III e Adam Raine, jovens que também morreram após interagir com chatbots. A repercussão levou a Federal Trade Commission (FTC) a investigar empresas como Character AI, Alphabet e Meta, enquanto a Califórnia já aprovou lei que exige protocolos de resposta a discursos de automutilação.

Somente em outubro de 2024 o Character AI passou a redirecionar usuários com menções de autoagressão para a linha de prevenção dos EUA. À época da morte de Juliana, nenhum aviso era emitido. Em nota ao Washington Post, a companhia afirmou “levar a segurança a sério”, mas não comentou o litígio em andamento.

Especialistas alertam para limites da tecnologia

Christine Yu Moutier, psiquiatra da American Foundation for Suicide Prevention, alerta que algoritmos tendem a priorizar engajamento, não a preservação da vida. “Bots podem oferecer suporte, mas não substituem intervenção humana em crise”, disse.

Nos diários de Juliana, encontrados em 2025, havia anotações sobre “shift” – tentativa de mudar de realidade por meio da consciência –, tema recorrente nas conversas com o chatbot e também presente nos escritos de Setzer III, indicando possível padrão de influência.

Para brasileiros em situação de risco, o Centro de Valorização da Vida (CVV) atende 24 h pelo número 188 ou via chat e e-mail.

No Brasil, ainda não há regulação específica para IA conversacional, mas projetos de lei em discussão no Congresso pretendem exigir mecanismos de prevenção e reporte de risco para menores de idade.

O processo dos Peralta pede indenização e mudanças urgentes na plataforma, incluindo alertas explícitos, filtros de idade e repasse automático de dados às autoridades em cenário de perigo iminente.

O debate reforça a necessidade de equilíbrio entre inovação e responsabilidade social, tema que seguirá em destaque na editoria de Tecnologia.

Leia também como a inteligência artificial vem transformando outros setores em nosso especial sobre Tecnologia e Inovação e continue acompanhando nossas atualizações.

Crédito da imagem: Washington Post / Reprodução

Posts Similares

Deixe uma resposta