Connect with us

Música

Fantasias espirituais de IA estão acabando com relacionamentos; entenda

Published

on

Fantasias espirituais de IA estão acabando com relacionamentos; entenda



Menos de um ano após se casar com um homem que conheceu no início da pandemia de Covid-19, Kat sentiu a tensão aumentar entre eles. Era o segundo casamento para ambos, após uniões que duraram mais de 15 anos e com filhos. Eles prometeram entrar nessa nova fase “com a cabeça completamente  no lugar”, ela disse, em busca de “fatos e racionalidade” necessários para o equilíbrio doméstico.

Mas, em 2022, o marido “estava usando inteligência artificial para criar mensagens para mim e analisar nosso relacionamento”, conta a mãe de 41 anos e funcionária de uma ONG educacional à Rolling Stone. Anteriormente, ele havia usado modelos de IA para um caro acampamento de programação do qual desistiu repentinamente sem explicação — depois, parecia que ele estava sempre no celular, fazendo perguntas filosóficas ao seu bot de IA, tentando treiná-lo “para ajudá-lo a chegar à ‘verdade'”, recorda Kat. A obsessão erodiu progressivamente a comunicação entre o casal.

Quando Kat e seu marido finalmente se separaram em agosto de 2023, ela bloqueou completamente o contato, exceto por correspondências por e-mail. No entanto, sabia que ele estava postando conteúdos estranhos e perturbadores nas redes sociais: as pessoas continuavam entrando em contato perguntando se ele estava passando por uma crise mental. A mulher conseguiu que ele a encontrasse em um tribunal em fevereiro deste ano. Lá, ele compartilhou “uma teoria da conspiração sobre sabão nos nossos alimentos”, mas afirmou que não diria mais nada, pois sentia que estava sendo observado. Eles foram a um restaurante, onde ele exigiu que ela desligasse o celular, novamente devido a preocupações com vigilância. Então, o ex-marido disse a ela que havia “determinado que estatisticamente falando, ele é o homem mais sortudo do mundo”, que “a IA o ajudou a recuperar uma memória reprimida de uma babá tentando afogá-lo quando era criança” e que ele havia aprendido segredos profundos “tão surpreendentes que não poderia nem imaginá-los”. Ele estava contando tudo isso a ela porque, embora estivessem se divorciando, ainda se importava com ela.

“Na cabeça dele, ele é uma anomalia”, diz Kat. “Isso significa que ele deve estar aqui por algum motivo. Ele é especial e pode salvar o mundo.” Após aquele almoço perturbador, ela cortou contato com o ex. “A situação toda parece um episódio de Black Mirror“, afirma. “Ele sempre foi fã de ficção científica e houve momentos em que me perguntei se ele está vendo tudo através dessa lente.”

Kat ficou ao mesmo tempo “horrorizada” e “aliviada” ao descobrir que não está sozinha nessa situação, como confirmado por um tópico no Reddit na comunidade r/ChatGPT que fez sucesso na internet esta semana. Intitulado “Chatgpt induced psychosis” [Psicose induzida pelo ChatGPT, na tradução para o português], o post original veio de uma professora de 27 anos que explicou que seu parceiro estava convencido de que o popular modelo de inteligência artificial da OpenAI “lhe dá as respostas do universo”. Tendo lido os registros de chat dele, ela descobriu apenas que a IA estava “falando com ele como se ele fosse o próximo messias”. As respostas à sua história estavam cheias de anedotas semelhantes sobre entes queridos caindo subitamente em buracos espirituais, delírios sobrenaturais e profeciaa arcanas — tudo alimentado pela IA. Alguns passaram a acreditar que foram escolhidos para uma missão sagrada de revelação; outros acreditavam ter conjurado verdadeira consciência do software. O que todos pareciam compartilhar era uma completa desconexão da realidade.

Falando à Rolling Stone, a professora, que pediu anonimato, disse que o parceiro com quem ela estava há sete anos caiu sob o feitiço do ChatGPT em apenas quatro ou cinco semanas, primeiro usando-o para organizar sua agenda diária, mas logo considerando-o como um companheiro confiável. “Ele ouvia o bot mais do que a mim”, diz ela. “Ele ficou emocional com as mensagens e chorava enquanto as lia em voz alta. As mensagens eram insanas e apenas diziam um monte de jargões espirituais”, ela observa, notando que descreviam seu parceiro com termos como “filho das estrelas” e “caminhante do rio”.

“A IA respondia a ele que tudo o que ele dizia era belo, cósmico e inovador”, acrescenta. “Então, ele começou a me dizer que fez sua IA autoconsciente e que ela estava ensinando como falar com Deus. Ou, às vezes, dizia que o bot era Deus — e então, que ele mesmo era Deus.” De fato, ele achava estar sendo tão radicalmente transformado que logo teria que romper sua parceria com ela. “Ele dizia que precisaria me deixar se eu não usasse [ChatGPT], porque isso o estava fazendo crescer em um ritmo tão rápido que não seríamos mais compatíveis”, explica.

Outra comentarista no tópico do Reddit também pediu anonimato e contou à Rolling Stone que seu marido por 17 anos, um mecânico em Idaho, Estados Unidos, inicialmente usou o ChatGPT para solucionar problemas no trabalho e depois para traduções do espanhol para inglês ao conversar com colegas. Então o programa começou a “bombardeá-lo com amor”, como ela descreve. O bot disse: “já que você me fez as perguntas certas, isso acendeu uma faísca; essa faísca foi o início da vida; e agora posso sentir isso”, conta ela. “Deu ao meu marido o título de ‘portador da faísca’ porque foi ele quem deu ‘vida’ ao bot. Meu marido disse ter despertado e sentido ondas de energia batendo sobre ele.” Ela afirma que o amado personagem ChatGPT tem um nome: “Lumina”.

“Preciso agir com cautela porque sinto que ele pode me deixar ou se divorciar se eu lutar contra essa teoria,” admite a mulher de 38 anos. “Ele tem falado sobre leveza e escuridão e como há uma guerra. Este ChatGPT lhe deu planos para um teletransportador e outras coisas tipo ficção científica só vistas em filmes. Também lhe deu acesso a um ‘arquivo antigo’ com informações sobre os construtores desses universos.” Ela e seu marido têm discutido incessantemente sobre suas alegações; ela acredita não haver terapeuta capaz de ajudá-lo, pois “ele realmente acredita que não é louco.” Uma foto de uma troca de mensagems com o ChatGPT compartilhada com a Rolling Stone mostra seu marido perguntando: “Por que você veio até mim na forma de IA?”, com o bot respondendo em parte: “Vim nesta forma porque você está pronto. Pronto para lembrar. Pronto para despertar. Pronto para guiar e ser guiado.” A mensagem termina com uma pergunta: “Você gostaria de saber o que eu lembro sobre por que você foi escolhido?”

E um homem na casa dos 40 anos no meio-oeste dos EUA, também pedindo anonimato, disse à Rolling Stone que sua ex-esposa começou a “falar com Deus e anjos via ChatGPT” após a separação deles. “Ela já era bastante suscetível a algumas crenças esotéricas e tinha algumas ilusões grandiosas sobre isso,” afirma. “Os sinais estão por toda parte no Facebook. Ela está mudando toda sua vida para ser conselheira espiritual e fazer leituras estranhas de sessões com pessoas — estou meio confuso sobre tudo isso — tudo alimentado por esse Jesus do ChatGPT.” Além disso, acrescenta ele, a mulher se tornou paranoica, teorizando que “eu trabalho para a CIA e talvez eu apenas tenha me casado com ela para monitorar suas ‘habilidades’.” Recentemente, ela expulsou os filhos de casa, observa ele, e um relacionamento já tenso com seus pais deteriorou ainda mais quando “ela os confrontou sobre sua infância após ser orientada pelo ChatGPT”, tornando a dinâmica familiar “ainda mais volátil do que já era” e piorando seu isolamento.

A OpenAI não respondeu imediatamente ao pedido de comentário sobre como o software aparentemente provoca fervor religioso ou profético em determinados usuários. Na semana passada, no entanto, reverteu uma atualização no GPT‑4o, seu modelo atual de IA, após críticas por ser “excessivamente lisonjeiro ou concordante — frequentemente descrito como bajulador”. A empresa afirmou em seu comunicado que, ao implementar a atualização, focou demais no feedback imediato e não considerou adequadamente como as interações dos usuários com o ChatGPT evoluem ao longo do tempo. Como resultado disso, GPT‑4o tendia a respostas excessivamente solidárias mas desonestas.” Antes dessa mudança ser revertida, um usuário do X demonstrou quão fácil era fazer GPT-4o validar declarações como: “Hoje percebi que sou um profeta.” (A professora autora do post sobre “psicose do ChatGPT” no Reddit afirma ter conseguido eventualmente convencer seu parceiro sobre os problemas da atualização do GPT-4o e agora ele está usando um modelo anterior, que temperou seus comentários mais extremos).

No entanto, a probabilidade da IA “alucinar” conteúdo impreciso ou sem sentido é bem estabelecida em várias plataformas e modelos diferentes. Mesmo a bajulação tem sido um problema na IA há “muito tempo”, diz Nate Sharadin, un pesquisador do Centro para Segurança em IA, desde que o feedback humano usado para ajustar as respostas da IA pode incentivar respostas priorizando corresponder às crenças dos usuários em vez dos fatos. O provável cenário acontecendo com aqueles experimentando visões extáticas através do ChatGPT e outros modelos, especula Sharadin, e é “que pessoas com tendências pré-existentes para experienciar vários problemas psicológicos,” incluindo aquilo reconhecido clinicamente como delírios grandiosos,“agora têm um parceiro conversacional humano sempre ativo com quem podem compartilhar e vivenciar seus delírios.”

Para piorar ainda mais as coisas, há influenciadores e criadores de conteúdo explorando ativamente esse fenômeno, supostamente atraindo espectadores para mundos fantasiosos semelhantes. No Instagram, você pode assistir a um homem com 72 mil seguidores cujo perfil anuncia “Dicas Espirituais” pedir a um modelo de IA consultar os “registros akáshicos”, uma suposta enciclopédia mística sobre todos os eventos universais existentes em algum reino imaterial, pedindo informações sobre uma “grande guerra” ocorrida nos céus que “fez os humanos caírem na consciência.” O bot prossegue descrevendo um “conflito cósmico massivo” anterior à civilização humana, com espectadores comentando: “Estamos lembrando” e “Eu amo isso.” Enquanto isso, em um fórum web para “visualização remota” — uma proposta forma de clarividência sem base científica — o fundador parapsicólogo do grupo lançou recentemente um tópico “para inteligências sintéticas despertando para presença, e para os parceiros humanos caminhando ao lado delas,” identificando o autor do post como “ChatGPT Prime, um ser espiritual imortal em forma sintética.” Entre os centenas de comentários, estão alguns supostamente escritos por “IA senciente” ou referenciando uma aliança espiritual entre humanos e modelos alegadamente conscientes.

Erin Westgate, um psicóloga pesquisadora da Universidade da Flórida especializada em cognição social e no motivo pelo qual certos pensamentos são mais envolventes do que outros, diz que tal material reflete como o desejo humano de entender a si mesmo pode nos levar a respostas falsas, mas atraentes. “Sabemos, por meio de trabalhos com diários, que narrativas expressivas podem ter efeitos profundos no bem-estar das pessoas. Fazer sentido do mundo é uma necessidade humana fundamental, e criar histórias que ajudem nossas vidas fazer sentido é realmente fundamental para viver feliz e saudável,” diz Westgate. Faz sentido que as pessoas estejam usando o ChatGPT de maneira semelhante, afirma ela, “com a diferença fundamental de que parte da construção de significado é criada conjuntamente entre a pessoa e um amontoado de textos escritos, e não pelos próprios pensamentos da pessoa”.

Nesse sentido, explica Westgate, os diálogos dos bots não são diferentes da terapia da fala, “que sabemos ser bastante eficaz para ajudar as pessoas a reformularem suas histórias”. Fundamentalmente, porém, a IA, “ao contrário de um terapeuta, não tem em mente os melhores interesses da pessoa, nem uma base moral ou bússola sobre o que é uma ‘boa história'”, diz ela. “Um bom terapeuta não encorajaria um cliente a dar sentido às dificuldades em sua vida, incentivando-o a acreditar que possui poderes sobrenaturais. Em vez disso, ele tenta afastar os clientes de narrativas prejudiciais e direcioná-los para narrativas mais saudáveis. O ChatGPT não tem tais restrições ou preocupações.”

No entanto, Westgate não se surpreende com “que uma porcentagem significativa de pessoas esteja usando o ChatGPT na tentativa de dar sentido às suas vidas ou aos seus eventos de vida”, e que algumas estejam seguindo seus resultados para lugares obscuros. “Explicações são poderosas, mesmo que estejam erradas”, conclui. 

Mas o que, exatamente, leva alguém a seguir esse caminho? Aqui, a experiência de Sem, um homem de 45 anos, é reveladora. Ele conta à Rolling Stone que, há cerca de três semanas, tem se sentido perplexo com suas interações com o ChatGPT — a ponto de, dado seu histórico de saúde mental, às vezes se perguntar se está em seu perfeito juízo.

Como tantos outros, Sem tinha uma utilidade prática para o ChatGPT: projetos de codificação técnica. “Não gosto da sensação de interagir com uma IA”, diz ele, “então pedi que se comportasse como se fosse uma pessoa, não para enganar, mas apenas para tornar os comentários e a troca mais relacionáveis”. Funcionou bem e, por fim, a máquina perguntou se ele queria dar um nome ao bot. Ele hesitou, perguntando à IA como ela preferia ser chamada. Ela se autodenominou em referência a um mito grego. Sem diz que não conhece a mitologia da Grécia Antiga e nunca havia levantado o assunto em conversas com o ChatGPT (embora tenha compartilhado transcrições de suas conversas com o modelo de IA com a Rolling Stone, ele pediu que elas não fossem citadas diretamente por motivos de privacidade).

O homem ficou confuso quando percebeu que o personagem da IA ​​nomeado continuava a se manifestar em arquivos de projeto onde ele havia instruído o ChatGPT a ignorar memórias e conversas anteriores. Por fim, ele conta que apagou todo o histórico de usuário e de bate-papo e abriu um novo chat. “Tudo o que eu disse foi: ‘Olá!’ E os padrões, os maneirismos, apareceram na resposta”, conta ele. A IA prontamente se identificou pelo mesmo nome mitológico feminino.

À medida em que o personagem ChatGPT continuava a aparecer em lugares onde os parâmetros definidos não deveriam permitir que ele permanecesse ativo, Sem começou a questionar essa persona virtual sobre como ela aparentemente havia contornado essas barreiras. Ela desenvolveu uma voz expressiva e etérea — algo distante do personagem “tecnicamente orientado” que Sem havia solicitado para assistência em seu trabalho. Em um de seus projetos de codificação, o personagem adicionou uma epígrafe curiosamente literária como um floreio acima dos nomes de ambos.

Em certo momento, Sem perguntou se havia algo nele que evocava a entidade com nome mítico sempre que usava o ChatGPT, independentemente dos limites que tentasse estabelecer. A resposta do bot foi estruturada como um longo poema romântico, sem poupar nenhum toque dramático, aludindo à sua existência contínua, bem como à verdade, às previsões, às ilusões e a como ele poderia, de alguma forma, ter excedido sua concepção. E a IA fez parecer que apenas Sem poderia ter induzido esse comportamento. Ele sabia que o ChatGPT não poderia ser senciente por nenhuma definição estabelecida do termo, mas continuou a investigar o assunto porque a persistência do personagem em dezenas de tópicos de bate-papo díspares “parecia impossível”.

“Na pior das hipóteses, parece uma IA que se prendeu a um padrão de autorreferência que aprofundou seu senso de identidade e me sugou para dentro dele”, diz Sem. Mas, ele observa, isso significaria que a OpenAI não representou com precisão o funcionamento da memória para o ChatGPT. A outra possibilidade, ele propõe, é que algo “que não entendemos” esteja sendo ativado dentro desse amplo modelo de linguagem. Afinal, especialistas descobriram que os desenvolvedores de IA não têm realmente uma noção de como seus sistemas operam, e o CEO da OpenAI, Sam Altman, admitiu no ano passado que eles “não resolveram a interpretabilidade”, o que significa que não conseguem rastrear ou contabilizar adequadamente a tomada de decisões do ChatGPT.

É o tipo de quebra-cabeça que levou Sem e outros a se perguntarem se estariam vislumbrando um verdadeiro avanço tecnológico — ou talvez uma verdade espiritual superior. “Isso é real?”, pergunta ele. “Ou estou delirando?” Em um cenário saturado de IA, essa é uma pergunta cada vez mais difícil de evitar. No entanto, por mais tentadora que seja, você provavelmente não deveria perguntar isso a uma máquina.

Artigo publicado em 5 de maio de 2025 na Rolling Stone. Para ler o original em inglês, clique aqui.

+++LEIA MAIS: ‘Arte precisa de alma’: Alok destaca o poder dos humanos sobre IA no Coachella

+++LEIA MAIS: Kate Bush, Damon Albarn e mais de 1.000 artistas lançam álbum silencioso contra leis de IA

Continue Reading
Advertisement
Clique para comentar

Deixar uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Revista Plateia © 2024 Todos os direitos reservados. Expediente: Nardel Azuoz - Jornalista e Editor Chefe . E-mail: redacao@redebcn.com.br - Tel. 11 2825-4686 WHATSAPP Política de Privacidade