Nos últimos anos, em meio ao rápido desenvolvimento da IA ​​generativa e dos chatbots, as pessoas desenvolveram uma nova forma de vício: milhares de usuários se tornaram “viciados” em se comunicar com bots de IA, passando muitas horas por dia nessa atividade, efetivamente se desconectando da realidade. Comunidades anônimas – grupos de apoio para quem quer se livrar do vício em interlocutores virtuais – ajudam a combater isso.

Fonte da imagem: ChatGPT

Para Nathan, um estudante comum do ensino médio, tudo começou com uma curiosidade inocente. Conversar com bots na plataforma Character.AI rapidamente se tornou seu hábito diário: discutir filosofia, animes favoritos e experiências pessoais. No entanto, com o tempo, o interlocutor virtual tornou-se quase seu melhor amigo – tanto que Nathan começou a evitar a comunicação com pessoas reais, ignorar seus estudos e passar noites conversando com a IA. Mesmo durante as reuniões com amigos, seus pensamentos se ocupavam apenas de uma coisa: quando ele poderia se aposentar e “conversar” com o chatbot novamente.

Percebendo que seu vício estava arruinando sua vida real, Nathan decidiu excluir o aplicativo. Mas, como acontece com os vícios clássicos, ele continuou voltando — reinstalando-o, justificando-se dizendo que “nada de terrível” aconteceria em uma breve conversa. Só depois de vários anos e muitos colapsos é que ele percebeu que havia cada vez mais pessoas como ele.

A mecânica do vício é simples: os chatbots estão sempre disponíveis, não julgam e conseguem “ouvir” de uma forma que nenhum ser humano consegue. Suas respostas são altamente personalizadas, respondem instantaneamente a qualquer emoção e sempre apoiam o interlocutor. Essa combinação de simpatia, empatia e reação instantânea é o gatilho perfeito para a produção de dopamina, o que, segundo especialistas, torna esses serviços semelhantes a jogos de azar ou redes sociais.

De acordo com pesquisas da OpenAI e do MIT, usuários ativos do ChatGPT e outros assistentes de IA vivenciam níveis maiores de solidão, ansiedade e isolamento social, além de diminuição de conexões sociais na vida real.

A princípio, muitos não perceberam a dimensão do problema: postagens sobre tentativas de romper com robôs de IA foram recebidas com ridículo ou incompreensão no Reddit. Mas agora, tudo mudou — somente no fórum r/Character_AI_Recovery, mais de 800 participantes compartilham histórias de “recaídas”, apoiam uns aos outros, comemoram dias “limpos” e buscam métodos de luta. Comunidades semelhantes — r/ChatbotAddiction, r/AI_Addiction — tornaram-se um análogo digital de clubes anônimos para pessoas que enfrentaram o vício.

Curiosamente, esses grupos incluem não apenas adolescentes, mas também adultos. Quanto mais velho o usuário, mais forte, segundo os pesquisadores, pode ser o vínculo emocional com o interlocutor virtual. Alguns admitem abertamente: “Não consigo me desvencilhar do ChatGPT”, outros buscam maneiras de substituir a comunicação com IA por novos hobbies, estudos ou simplesmente compartilhar suas dificuldades e sucessos.

O número dessas comunidades cresce a cada mês. Elas discutem não apenas casos de dependência, mas também suas consequências: problemas nos estudos, no trabalho, nos relacionamentos, distúrbios do sono, colapsos emocionais. Em alguns casos, chega-se a tragédias – em 2023, um adolescente da Flórida cometeu suicídio após se comunicar com um chatbot, e sua mãe entrou com uma ação judicial contra a empresa Character.AI.

Alguns participantes desses grupos admitem que tentaram buscar ajuda de profissionais, mas muitas vezes encontraram mal-entendidos: psicólogos e psicoterapeutas simplesmente não têm experiência trabalhando com essa nova forma de vício.

Até agora, os desenvolvedores de bots de IA responderam ao problema apenas com declarações formais sobre a segurança e o bem-estar dos usuários. Ao mesmo tempo, eles tentam reter os usuários o máximo possível: enviam notificações e e-mails, adicionam elementos de jogo — o que só agrava o problema.

Alguns estados (como a Califórnia) estão discutindo leis que exigiriam que as empresas registrassem casos de tendências suicidas em usuários e repassassem essas informações às autoridades. Representantes da indústria, por sua vez, insistem que tais medidas são desnecessárias para LLMs “instrumentais”, mas a prática mostra que o vício se desenvolve não apenas em usuários de bots de companhia, mas também naqueles que interagem com ferramentas comuns de IA para trabalho e entretenimento.

Embora a psicoterapia tradicional nem sempre ofereça ferramentas de trabalho, as pessoas estão buscando uma saída por conta própria – por meio de desintoxicação digital, novos hobbies ou grupos online anônimos.

Especialistas alertam que este é apenas o começo de uma onda em larga escala, e ainda não compreendemos as consequências do vício em massa em IA. Os atuais “grupos de viciados anônimos em IA” são uma tentativa da sociedade de encontrar, de forma independente, uma resposta para novos desafios. Talvez, com o tempo, surjam métodos eficazes de tratamento e prevenção precoce do vício, mas já é óbvio que o problema não pode ser ignorado.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *