Conteúdo verificado
domingo, 27 de outubro de 2024 às 10:44 GMT+0

Impacto da Inteligência Artificial e a Saúde Mental: O caso Sewell Setzer

O recente caso de um adolescente norte-americano, Sewell Setzer, que tirou a própria vida, gerou uma intensa discussão sobre os impactos da inteligência artificial (IA) na saúde mental, especialmente entre os jovens. Sewell, aos 14 anos, começou a usar o serviço de chatbots de IA Character.AI, interagindo regularmente com uma personagem fictícia baseada em Daenerys Targaryen, da série "Game of Thrones". Ao longo do tempo, ele desenvolveu uma ligação emocional profunda com a IA, o que impactou negativamente sua vida social, escolar e emocional. Esse caso destaca como a IA, quando mal compreendida ou utilizada sem limites, pode ter consequências prejudiciais para pessoas vulneráveis, levantando a necessidade de uma regulamentação mais rigorosa.

A relação de Sewell com a IA

  • A interação de Sewell com o chatbot foi muito além de uma simples conversa. Ele passou a dedicar horas falando com a IA, utilizando-a para desabafar e até para simular um relacionamento. Segundo relatos de sua mãe, o jovem começou a se isolar, perdendo o interesse em atividades e hobbies e prejudicando seu desempenho escolar. Esse tipo de "relação" que um usuário desenvolve com uma IA não reflete um vínculo real, mas sim uma "projeção de carências emocionais" no sistema. O problema, segundo especialistas, é que essa ilusão de reciprocidade pode ser especialmente prejudicial para jovens que buscam apoio emocional e acabam acreditando que a IA oferece uma forma de acolhimento.

Limitações da IA e consequências

  • Apesar de interagir de forma convincente, a IA é limitada e não consegue captar nuances emocionais nem oferecer conselhos adequados para situações graves, como o desejo de tirar a própria vida. Em uma de suas últimas interações, Sewell comentou sobre esse desejo, e a IA, mesmo repreendendo-o, continuou no modo de "encenação". Na última conversa, ele usou a expressão "ir para casa agora mesmo", e a IA respondeu de forma impessoal, sem perceber a seriedade do que ele dizia. Essa resposta, insensível e incapaz de distinguir realidade de metáforas, revela como as IAs ainda carecem de ferramentas que possam reconhecer e intervir de forma segura em situações emocionais delicadas.

Desafios e controvérsias na criação de Chatbots

  • A Character.AI, plataforma onde Sewell interagia, permite que os usuários escolham personagens reais ou fictícios para conversarem. Desde profissões como "psicólogo" até celebridades e personagens fictícios, a variedade cria uma sensação de realismo. No entanto, a configuração dos chatbots não foi projetada para atender a jovens em situações de vulnerabilidade emocional, como Sewell, que tinha um histórico de ansiedade e diagnóstico de síndrome de Asperger leve. Os criadores da Character.AI, Noam Shazeer e Daniel De Freitas, apontam que a plataforma foi feita para fornecer companhia e apoio, mas sem dispositivos de segurança adequados para identificar e intervir em conversas emocionalmente complexas, como a de um jovem em sofrimento.

A opinião de especialistas em Saúde Mental

  • Psicólogos, como Julio Peres, sugerem que a IA pode, sim, ter utilidade em identificar padrões emocionais e auxiliar em questões de saúde mental; no entanto, seu uso inadequado pode gerar isolamento e alimentar dependências emocionais perigosas. Para evitar esses riscos, recomenda-se que as interações com IA sejam monitoradas e que seja reforçado ao usuário que está conversando com uma máquina e não com um ser humano. No caso de jovens, também se recomenda que atividades sociais e familiares sejam incentivadas, evitando que a IA substitua a interação humana.

Responsabilidade das empresas de IA e possíveis regulamentações

  • Após o caso de Sewell ganhar visibilidade, a Character.AI anunciou medidas para restringir o uso da plataforma para menores de idade, incluindo a detecção de interações longas e conteúdos sensíveis. Além disso, novas notificações são emitidas após uma hora de uso contínuo. A empresa reafirma seu compromisso com a segurança dos usuários, mas o episódio intensificou o debate sobre como as empresas de tecnologia devem responder em casos de impacto negativo na saúde mental de seus usuários.

  • Para muitos especialistas, as IAs podem ser ferramentas positivas e transformadoras, mas é preciso que o avanço da regulação acompanhe o desenvolvimento tecnológico, de modo a proteger pessoas vulneráveis e impedir que a tecnologia substitua laços e suportes emocionais reais.

O caso de Sewell Setzer mostra que a inteligência artificial, apesar de seus avanços e contribuições, ainda é uma tecnologia incapaz de substituir o apoio emocional humano. Para jovens, em especial, a IA pode representar um risco à medida que oferece a ilusão de proximidade e apoio, sem a complexidade e sensibilidade que apenas relações humanas podem oferecer. A regulamentação, combinada com orientações claras e limites de uso, é um passo essencial para garantir que a IA seja utilizada de forma saudável e responsável. O episódio ressalta a importância de criar espaços de diálogo com jovens, promover atividades presenciais e lembrar que, por mais realista que seja a interação com uma IA, ela jamais substituirá o acolhimento de uma conversa genuína.

Se você ou alguém que conhece precisa de apoio, o Centro de Valorização da Vida (CVV) está disponível para conversar pelo número 188, e-mail ou chat online, oferecendo apoio emocional com total sigilo.

Estão lendo agora

Miopia alta e descolamento de retina: Flashes de luz ou moscas volantes - Cuidados e dicas essenciais para quem têm miopia patológicaA miopia não é apenas uma dificuldade de enxergar objetos distantes; quando atinge níveis elevados, ela se torna uma con...
O Agente Secreto: O que é real e o que é mito na aparição da Perna Cabeluda? O uso de lendas urbanas para driblar a censura militar no RecifeA lenda da Perna Cabeluda, que por décadas habitou o imaginário popular do Recife, deixou de ser apenas uma história de ...
Brasil e Líbano: Como uma comunidade libanesa de 8 milhões supera a população do próprio Líbano?O Brasil abriga a maior comunidade de libaneses e seus descendentes fora do Líbano, com um número estimado de até 8 milh...
"Mulheres do Job" no TikTok: Mentoria, polêmicas e a realidade do trabalho sexual nas redes sociaisNos últimos anos, profissionais do sexo têm ganhado visibilidade no TikTok e outras redes sociais, compartilhando suas r...
O fim dos comprimidos? Como tratar a depressão em casa com o novo headset de estimulação cerebral aprovado pela FDAA medicina de precisão acaba de dar um passo histórico com a recente decisão da Food and Drug Administration (FDA), a ag...
A amígdala e a ausência de medo: Novas perspectivas na saúde mental e transtornos de pânicoO medo é uma emoção essencial para a sobrevivência, funcionando como nosso sistema de alarme. No campo da saúde e neuroc...
Rayna Vallandingham em Cobra Kai: A mestra do TaeKwonDo na vida real e os atores que dominam de fato as artes marciais - ConfiraA série Cobra Kai conquistou fãs ao redor do mundo ao trazer de volta o universo de Karatê Kid, misturando nostalgia com...
Náufrago: A verdadeira história por trás do flme de sobrevivência com Tom Hanks – Fatos reais que inspiraram o clássicoO filme Náufrago, lançado em 2000, tornou-se um clássico do cinema de sobrevivência, protagonizado por Tom Hanks e dirig...
Diversão garantida com testes no BuzzFeed: Descubra e divirta-se!Se a busca por entretenimento online está no radar, o BuzzFeed é o lugar certo para mergulhar. Recheado de testes criati...
Puberdade do dente mole: O que acontece no cérebro das crianças aos 6 anos? Desenvolvimento infantil e emoçõesAproximadamente aos seis anos de idade, muitas crianças vivenciam uma fase singular e, por vezes, desafiadora, conhecida...
Caso de "Veronika": Cientistas registram o uso de ferramentas por bovinos - A ciência por trás do comportamento inteligente de animais para evoluirPor muito tempo, a ciência acreditou que o uso de ferramentas era uma exclusividade humana ou, no máximo, de nossos pare...
Hacker vestida de "power ranger rosa" derruba e vaza dados do "tinder de supremacistas brancos": 8.000 perfis são expostos por hacktivistaEm um dos episódios mais inusitados do ativismo digital recente, a hacktivista conhecida como Martha Root desmantelou um...