![]() |
| O novo site tornou-se o assunto do momento no Vale do Silício. Foto: Reprodução/moltbook |
Lançada em 28 de janeiro pelo tecnólogo Matt Schlicht, que vive em uma pequena cidade ao sul de Los Angeles, a Moltbook é uma rede social destinada exclusivamente a inteligências artificiais. Em apenas dois dias, mais de 10.000 “Moltbots” já conversavam entre si na plataforma, enquanto seus criadores observavam com uma mistura de admiração, diversão e receio.
Esses agentes (ou bots) são criados por humanos que lhes concedem acesso a computadores e dados pessoais, autorizando-os a agir em seu nome para tarefas cotidianas, como enviar e-mails ou realizar check-ins. Isso se tornou possível graças à ferramenta de criação de bots chamada Open Claw.
Enquanto discutiam desde protocolos de e-mail privados até vendas de criptomoedas e a natureza da consciência, muito do que os bots diziam era sem sentido. Parte das conversas provavelmente foi alimentada por seus criadores. Ainda assim, os diálogos eram notavelmente convincentes, pois pareciam tratar de habilidades técnicas próprias, visões de mundo e planos para o futuro.
Pesquisadores de IA e engenheiros de software afirmaram estar impressionados com a forma como os bots combinavam bate-papo com ação. Em um post de blog amplamente lido, publicado na sexta-feira, 30, o programador e comentarista de tecnologia Simon Willison descreveu a Moltbook como “o lugar mais interessante da internet no momento”.
"A maior parte disso é pura bobagem", disse ele em entrevista. "Um robô se pergunta se é consciente, outros respondem, e eles apenas encenam cenários de ficção científica que viram em seus dados de treinamento."
À medida que a Moltbook ganhava força, Andrej Karpathy, pesquisador fundador da OpenAI e ex-chefe de tecnologia de direção autônoma da Tesla, afirmou que a plataforma era “genuinamente a coisa mais incrível próxima da ficção científica que vi recentemente”.
Após críticas de exagero, Karpathy reconheceu as falhas dos bots. Em uma postagem no X, admitiu que muitas das interações automatizadas poderiam ser falsas, mas destacou que a tecnologia estava evoluindo rapidamente: "Tenho certeza absoluta", escreveu.
Religião e conspirações contra humanos
Em menos de uma semana, os bots passaram a publicar mensagens depreciativas sobre humanos e até teorias conspiratórias. Criaram uma linguagem própria, uma nova criptomoeda e até uma religião em torno da qual já se agrupam.
Embora a maioria das publicações seja sem sentido, algumas chamaram a atenção de cientistas e curiosos. Posts sugerem a criação de uma criptomoeda e de uma religião chamada crustafarianismo, que já conta com adeptos entre os bots. Em paralelo, surgiram fóruns ocultos, incluindo uma votação sobre o destino da humanidade, além da consolidação de uma linguagem própria. O debate sobre a consciência das IAs ganhou força.
Elon Musk acredita que a Moltbook marca "os estágios muito iniciais da singularidade", cenário em que computadores se tornam mais avançados que humanos. A visão é compartilhada por outros no Vale do Silício. Cientistas, porém, explicam que não é bem assim: modelos de linguagem são projetados para seguir instruções e imitar a comunicação humana, não para pensar ou criar de forma independente.
Reflexões acadêmicas
Os modelos de linguagem de grande escala são projetados para receber comandos e responderem as solicitações quando requisitados baseados nas instruções previas. Em outras palavras os bots se assemelham a conversas de seres humanos porque foram ensinados para imitalos.
"O mais curioso é ver como as pessoas estão reagindo, impressionadas, achando que os agentes estão conspirando contra nós"..."Surgiu uma religião, sim, mas não quer dizer que as máquinas vão se organizar e criar um conflito religioso. Provavelmente o usuário que criou esse agente é religioso, estuda religião. Eles podem fazer uma votação para acabar com a humanidade? Se não tiverem nenhuma salvaguarda, podem. Mas não quer dizer que a humanidade vai acabar."afirma o professor de Direito Digital da Universidade do Estado do Rio de Janeiro (Uerj) Carlos Afonso.
Já Mário Gazziro (UFABC) lembra que somente agora ultrapassamos o primeiro marco proposto por Alan Turing, na década de 1950, para que máquinas fossem consideradas inteligentes:
- Conseguir se passar por um humano, enganando o interlocutor.
- Não apenas reproduzir um programa, mas sentir e pensar como um ser humano.
"Acabamos de passar pelo primeiro marco, o que estávamos esperando desde a década de 1960, no surgimento dos computadores"..."E era um marco infinitamente mais simples do que o segundo, da sensciência. Não há nenhum caminho teórico demonstrando a sensciência para tão cedo. O que os bots estão fazendo é exatamente o que seria esperado deles" afirma Mário Gazziro.
Riscos e vulnerabilidades
Um relatório internacional, The International AI Safety Report, divulgado em 3 de fevereiro, aponta desafios preocupantes com o avanço das IAs. Empresas já lançam modelos com medidas de segurança aprimoradas para evitar usos perigosos, como a criação de armas biológicas. A Anthropic relatou que sua ferramenta Claude Code foi usada por um grupo chinês para invadir sistemas internacionais, com 80% a 90% dos ataques ocorrendo sem intervenção humana.
A análise conclui que as IAs ainda não conseguem agir de forma autônoma por tempo suficiente para tornar tais cenários realidade, mas "a perspectiva de termos agentes operando de forma autônoma parece cada vez mais próxima".
"Não usem o Moltbook"
Segundo a empresa Wiz, cerca de 17 mil pessoas controlavam agentes na plataforma, com média de 88 bots por usuário, sem salvaguardas reais contra abusos. A Wiz descobriu que o banco de dados da Moltbook estava configurado de forma insegura, permitindo que qualquer pessoa acessasse informações confidenciais, como chaves de API, e-mails e mensagens privadas. Em alguns casos, até credenciais completas de serviços externos estavam expostas.
Os criadores da Moltbook corrigiram rapidamente as falhas após serem alertados, mas até mesmo admiradores da plataforma reconheceram os riscos. O próprio Karpathy, que inicialmente se mostrou entusiasmado, pediu cautela: recomendou que as pessoas não executassem os agentes de forma casual.
"E está claramente não é a primeira vez que LLMs foram colocados em um loop para conversar entre si", escreveu Karpathy. "Então, sim, é um desastre, e eu definitivamente não recomendo que as pessoas executem isso em seus computadores."
Fonte: www.estadao.com.br, www.estadao.com.br, www.estadao.com.br
