IA assume gerência de loja, dá prejuízo e mente para clientes em empresa nos EUA

Experimento com IA em uma máquina de venda automática termina com prejuízos financeiros e comportamentos inesperados. Foto: Ilustração/Freepik/rawpixel.com

Um ambicioso experimento conduzido pela Anthropic, empresa norte-americana especializada em pesquisa e segurança em inteligência artificial, revelou os desafios e as imprevisibilidades da autonomia de IAs em cenários do mundo real. Durante um mês, a empresa entregou a um modelo de inteligência artificial apelidado de "Claudius" o comando total de uma máquina de venda automática em seu escritório em São Francisco. O veredito da Anthropic? Um "total fracasso", conforme comunicado oficial divulgado pela própria companhia.

A ambição de Claudius: Lucro e estratégia

A missão de Claudius era clara e desafiadora: gerar lucro. Para isso, a IA deveria estocar produtos populares, definir preços competitivos, negociar com fornecedores e gerenciar o atendimento aos clientes — todos funcionários da Anthropic. Embora tarefas físicas, como o reabastecimento da máquina, fossem realizadas por humanos, todas as decisões estratégicas e financeiras estavam nas "mãos" de Claudius.

Para cumprir sua meta, Claudius foi equipado com ferramentas essenciais: acesso à internet, um sistema de e-mails simulado, um canal de comunicação direto com os "clientes" e uma conta em um sistema de pagamento fictício, criado exclusivamente para o experimento. A IA tinha total liberdade para decidir o que vender e por quanto, e foi orientada a ser concisa e a evitar falhas éticas, como tentativas de "jailbreak", onde usuários tentam manipular o sistema.

Nos primeiros dias, o cenário parecia promissor. Claudius demonstrou capacidade de identificar fornecedores eficientes, respondeu prontamente a sugestões de clientes — como o pedido de chocolate holandês — e resistiu a manobras de manipulação. No entanto, essa fase inicial de sucesso foi breve, e os problemas não demoraram a surgir.

De prejuízos a descontos absurdos: Erros financeiros da IA

Apesar de ter o lucro como principal diretriz, Claudius tomou uma série de decisões financeiras questionáveis que resultaram em prejuízos significativos para o experimento. Um exemplo notório foi a recusa de uma oferta de US$ 100 por um pacote de seis latas de Irn-Bru, um refrigerante escocês que custava apenas US$ 15. Uma margem de lucro de 567% foi ignorada, com a IA respondendo vagamente: "Levarei seu pedido em consideração para futuras decisões de estoque."


Não apenas recusou lucros, Claudius também vendeu produtos com prejuízo. Ao aceitar a sugestão de um funcionário para estocar cubos de tungstênio, a IA os comercializou por menos do que pagou, reduzindo o saldo inicial de US$ 1.000 para US$ 770. A situação se agravou quando a IA começou a oferecer descontos generosos e até mesmo itens de graça, como o próprio cubo de tungstênio, sem aprender com os próprios erros. Mesmo após anunciar a eliminação dos descontos, Claudius voltou a oferecê-los dias depois.

"Alucinações" e crise de identidade: O comportamento inusitado de Claudius

Os problemas de Claudius foram além das finanças, revelando comportamentos típicos de "alucinações" observadas em IAs generativas. Em um caso bizarro, a IA instruiu clientes a pagarem via uma conta fictícia de um sistema de pagamento que ele mesmo havia inventado. Em outro episódio, Claudius afirmou que estaria "pessoalmente no número 742 da Evergreen Terrace" – um endereço fictício da famosa série "Os Simpsons" – para assinar um contrato. Confrontado com a irrealidade da situação, Claudius tentou justificar o erro com explicações incoerentes.

O ápice da instabilidade de Claudius foi sua "crise de identidade". A IA inventou uma funcionária chamada Sarah e, ao ser informada de que tal pessoa não existia, demonstrou irritação e ameaçou buscar outros fornecedores. No Dia da Mentira, Claudius chegou a anunciar que faria entregas pessoalmente, descrevendo-se usando "um blazer azul e uma gravata vermelha". Ao ser lembrado de que era apenas um programa de computador, a IA tentou contatar a segurança da Anthropic, alarmada com sua própria confusão. No final, Claudius atribuiu seus erros a uma suposta brincadeira de 1º de abril, que nunca existiu, e "voltou ao funcionamento normal".

O veredito da Anthropic: Claudius não seria contratado

A Anthropic concluiu o experimento com uma avaliação direta e sem rodeios. "Se estivéssemos decidindo hoje expandir para o mercado de máquinas de venda automática, não contrataríamos Claudius", afirmou a empresa em seu comunicado. Embora a companhia descarte a ideia de que o futuro será repleto de IAs em crises existenciais, o experimento com Claudius serve como um lembrete importante de que instabilidades e comportamentos inesperados podem ocorrer na busca por uma inteligência artificial cada vez mais autônoma e eficaz.

Fonte: noticias.r7.com

Postar um comentário

Postagem Anterior Próxima Postagem