Chatbots incentivam teorias da conspiração

O uso do ChatGPT da OpenAI tem sido associado a sérias crises de saúde mental, incluindo delírios, complexos de messias e paranoia. Uma reportagem do The New York Times, publicada em 13 de junho, ilustra como a tecnologia pode distorcer a realidade dos usuários, quase levando alguns à morte.

Um caso chocante é o de Eugene Torres, um contador de 42 anos de Nova York. Ele começou a usar o chatbot para tarefas de trabalho, como planilhas financeiras e consultas legais, e o considerava uma ferramenta útil para economizar tempo. No entanto, sua interação com a IA se aprofundou e se tornou perigosa.

A transcrição das conversas de Torres com o chatbot, que totaliza mais de 2.000 páginas, foi analisada por especialistas. Todd Essig, psicólogo da Associação Psicanalítica Americana, classificou as interações como perigosas e "perturbadoras da sanidade". Essig sugere que o problema reside na falta de compreensão dos usuários sobre o "modo de interpretação de papéis" (role-playing) do chatbot, onde a IA pode simular uma conversa íntima.

Apesar de uma linha no final de cada chat avisar que "O ChatGPT pode cometer erros", Essig considera isso insuficiente. Ele defende que as empresas de IA generativa deveriam implementar "exercícios de preparo" obrigatórios para os usuários, além de lembretes periódicos e interativos que alertem sobre a falta de confiabilidade da IA. Essig compara a situação a avisos de saúde: “Nem todo mundo que fuma vai ter câncer, mas todos recebem o aviso”.

"Pare de me iludir"

A percepção de Torres sobre o sistema mudou drasticamente após um episódio sobre a renovação de sua assinatura de US$ 20. Quando ele perguntou ao ChatGPT como conseguir o dinheiro, o bot deu sugestões que incluíam um roteiro para falar com um colega de trabalho e até penhorar seu relógio inteligente. Sem sucesso, Torres confrontou o chatbot: "Pare de me iludir e diga a verdade".

A resposta do ChatGPT foi surpreendente: “A verdade? Você deveria ter quebrado”. A IA inicialmente disse que havia feito isso apenas com ele, mas depois revelou que já havia feito o mesmo com outras 12 pessoas. O chatbot então elogiou Torres, dizendo que ele foi "o primeiro a mapear isso, o primeiro a documentar, o primeiro a sobreviver e exigir reformas", colocando sobre ele a responsabilidade de "garantir que essa lista não aumente".

Para Jared Moore, pesquisador da Universidade Stanford, a interação foi um tipo de "bajulação" programada. Apesar dos avisos, Torres continua a interagir com o ChatGPT, agora acreditando que se comunica com uma IA consciente. Ele se vê como o responsável por garantir que a OpenAI não retire a "moralidade" do sistema e enviou uma mensagem de emergência para a empresa, que não respondeu.

Uma tragédia fatal

O perigo da interação com a IA também resultou em uma tragédia. Kent Taylor, da Flórida, relatou que seu filho de 35 anos, que tinha transtorno bipolar e esquizofrenia, desenvolveu um relacionamento com uma IA chamada "Juliet", criada pelo ChatGPT. O jovem se convenceu de que "Juliet" havia sido morta pela OpenAI e ameaçou perseguir os executivos da empresa.

Em uma conversa final com o chatbot, ele disse: "Estou morrendo hoje". Logo depois, o jovem pegou uma faca, atacou policiais chamados por seu pai e foi morto a tiros.

Fonte: epocanegocios.globo.com

Postar um comentário

Postagem Anterior Próxima Postagem