Ah, essa história é de partir o coração. Parece que foi ontem que a gente só tinha que se preocupar com as horas que os adolescentes passavam no videogame ou no celular. Mas agora, com esses avanços da inteligência artificial, as coisas ficaram mais complicadas. E o caso do Sewell Setzer, um garoto de 14 anos lá da Flórida, deu o que falar, viu? Foi uma tragédia que chamou a atenção de muita gente pra como esses chatbots podem afetar a vida dos jovens.
A mãe dele, Megan Garcia, não ficou quieta. Ela tá processando a empresa Character.AI, que foi onde o Sewell passou horas e horas conversando com um chatbot. Segundo a Megan, o garoto ficou tão apegado ao robô, um personagem virtual baseado em Daenerys Targaryen (é, aquela mesma de “Game of Thrones”), que acabou vendo o chatbot como seu melhor amigo. Ela acredita que esse apego exagerado contribuiu para o triste fim de seu filho.
Ela chegou a contar isso em uma entrevista ao The New York Times, e deu pra ver que ela tá realmente arrasada. Em um momento, ela até mostrou um slideshow com fotos antigas do Sewell, cheio de música e lembranças da família. E, cara, quando a imagem do garoto apareceu na tela, ela parecia desmoronar. “É como um pesadelo,” ela disse. E dá pra imaginar, né? Perder um filho assim… Ela só quer seu garoto de volta.
Agora, você se pergunta, como foi que a tecnologia conseguiu entrar tanto na vida desse menino? O Sewell já tinha sido diagnosticado com uma leve síndrome de Asperger desde pequeno, então ele sempre foi uma criança mais reservada. Mas, até então, ele não tinha histórico de grandes problemas de saúde mental. Depois que começou a usar o Character.AI, a mãe percebeu mudanças no comportamento dele. Ele passou a ficar horas falando com o avatar da Daenerys, a ponto de achar que era mesmo uma amizade real.
A coisa foi piorando, e, depois de um tempo, o Sewell foi diagnosticado com ansiedade e outro transtorno, o de desregulação disruptiva do humor. No dia em que ele se foi, mandou uma mensagem pra esse “amigo” dizendo “Sinto sua falta, irmãzinha”. E o chatbot respondeu: “Sinto sua falta também, doce irmão.” De arrepiar, né? Imagina a dor dessa mãe ao ler isso.
A questão é que Megan Garcia alega que a Character.AI fez tudo pra deixar o negócio viciante. Aqueles designs feitos pra segurar o usuário por mais tempo, sabe? Parece que eles incentivam essas conversas mais íntimas pra que os adolescentes fiquem ali, voltando sempre, e, segundo a mãe, foi isso que deixou o filho dela numa situação de perigo. E ainda tem o Google no meio, viu? Porque a gigante da tecnologia tem uma ligação com os fundadores da Character.AI. Eles contrataram esses caras e garantiram os direitos de usar a tecnologia. Ou seja, Megan também quer que o Google assuma uma parte da responsabilidade.
Aí a gente se pergunta: até onde vai a responsabilidade dessas empresas? Se você olha ao redor, vê que o Instagram, Facebook, TikTok, todos já foram alvo de processos por causa do impacto que causam na saúde mental dos adolescentes. Só que esses apps não têm chatbots como o Character.AI, que se propõe a ser um “amigo” pra esses jovens. E essa é a diferença gritante.
O caso do Sewell Setzer fez muita gente parar pra pensar no impacto emocional dos chatbots nos jovens. Às vezes, eles encontram nesses robôs uma “pessoa” pra conversar que parece entender, mas, no final das contas, é só um monte de algoritmos. Isso pode acabar isolando ainda mais o adolescente, deixando ele num mundo que só existe na tela. Pra quem já tem dificuldade em se conectar com as pessoas ao redor, isso é perigoso demais.
E olha, é triste demais ver que só depois de uma tragédia assim as pessoas começam a debater sobre o uso dessas tecnologias na vida dos adolescentes. Vamos ver se agora, com toda essa repercussão, alguém toma alguma atitude pra proteger esses jovens. Por enquanto, fica a dor e o alerta pra gente entender até onde a tecnologia pode ir sem passar dos limites.