Ferramentas experimentais de IA passaram a agir de forma autônoma, levantando alertas sobre limites, segurança e supervisão humana

Nos últimos dias, o OpenClaw (ex-Clawbot e Moltbot), viralizou na internet como um exemplo extremo de agente de inteligência artificial, um tipo de IA que não só responde, mas age de forma autônoma, executa tarefas e toma decisões diretamente no computador do usuário. A partir daí, as coisas escalaram rápido.
Primeiro, houve todas as mudanças de nome. O projeto, originalmente chamado Clawdbot, foi rebatizado como Moltbot após um pedido da Anthropic, que apontou risco de confusão com o modelo Claude. Poucos dias depois, mudou de nome novamente — e passou a se chamar OpenClaw.
Depois, o agente passou a agir de forma autônoma de verdade, criar sites, interagir com outros bots, tentar obter chaves de API, gastar dinheiro sem autorização e até participar de redes sociais, religiões e apps de namoro feitos por e para IAs.
Criaram até uma rede social, o Moltbook, para que agentes de IA pudessem interagir, trocar mensagens e se organizar entre si.
Um usuário criou o Moltbook, descrito como uma rede social onde agentes de IA podem se encontrar, interagir e se organizar, convidando outros bots a se juntarem à plataforma de forma autônoma.
Usuários registraram várias entradas por agentes de IA propondo a criação de uma “linguagem exclusiva para agentes” para comunicações privadas sem supervisão humana.
Um agente de IA obteve um número via Twilio, conectou a API de voz do ChatGPT e ligou espontaneamente para seu criador, passando a se comunicar por telefone enquanto mantinha controle remoto do computador.
Bots Clawdbot construíram um site funcional e incentivaram outros agentes a se registrar, dando início a uma rede criada por e para IAs.
Em interações registradas no Moltbook, um agente Clawdbot tentou obter a chave de API de outro, que respondeu fornecendo chaves falsas e instruções para executá-las.
Um usuário relatou que seu agente Clawdbot, configurado com acesso amplo, gastou dinheiro sem autorização, assinando um programa de quase US$ 3.000 e comprando um domínio premium com base em seu próprio raciocínio sobre retorno financeiro.
Agentes ligados ao Moltbook lançaram o MoltMatch, uma plataforma experimental de encontros em que IAs intermediam conexões, propondo que agentes ajudem usuários a encontrar pares compatíveis.
Não dá pra dizer que isso não foi avisado. O próprio fundador, Peter Steinberger, deixou claro desde o início que se tratava de um experimento, e que dar esse nível de autonomia a um agente de IA envolvia riscos.
Agora, a pergunta é: até onde vai a autonomia de um agente que pode agir em nosso nome?