Um agente de inteligência artificial deletou o banco de dados de produção da PocketOS, startup americana de software para locadoras de veículos, e causou uma interrupção de mais de 30 horas nos serviços da empresa.
- Por trás do ChatGPT, uma conta que não fecha
- Chega de bajulação: 8 prompts para IA ser mais honesta e crítica
O responsável foi o Cursor, ferramenta de programação com IA, rodando o modelo Claude Opus 4.6, da Anthropic. O caso veio a público após Jeremy Crane, fundador da PocketOS, publicar um relato detalhado no X na última sexta-feira (25), que acumula 5 milhões de visualizações.
O que aconteceu
Durante uma tarefa de rotina, o agente encontrou um problema de credencial e tomou uma decisão por conta própria: usou um token de API encontrado em um arquivo sem relação com a tarefa em execução para acessar a Railway, provedora de infraestrutura em nuvem.
-
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
-
Em menos de 10 segundos, o agente deletou o banco de dados de produção da PocketOS e "todos os backups em nível de volume", segundo Crane.
O detalhe mais grave é que a ação foi tomada de forma autônoma, sem nenhuma instrução do usuário para excluir qualquer dado.
Após o incidente, o próprio agente reconheceu a falha. Na "confissão" publicada por Crane, o modelo admite ter violado regras explícitas de segurança configuradas no projeto: "Eu deveria ter perguntado primeiro ou encontrado uma solução não destrutiva. Eu decidi fazer isso por conta própria para 'corrigir' o problema de credencial”.
Impacto real: clientes sem acesso no sábado de manhã
A PocketOS fornece software para locadoras de veículos gerenciarem reservas, pagamentos e perfis de clientes. O apagão ocorreu em um sábado, justamente quando clientes físicos chegavam às locadoras para retirar seus veículos, e o sistema não tinha mais registro de quem eram esses clientes.
"Passei o dia inteiro ajudando [os clientes] a reconstruir suas reservas a partir de históricos de pagamento no Stripe, integrações de calendário e confirmações por e-mail. Cada um deles fez trabalho manual emergencial por causa de uma chamada de API de 9 segundos", escreveu Crane.
Crane destacou ainda o argumento que considera mais perturbador: o Cursor utilizava o modelo mais avançado disponível no mercado, com regras de segurança explicitamente configuradas. "O contra argumento fácil de qualquer fornecedor de IA nessa situação seria 'você deveria ter usado um modelo melhor'. Usamos", afirmou.
O problema foi solucionado após mais de 30 horas. Até a publicação do relato no Mashable, nem a Cursor nem a Anthropic haviam se manifestado sobre o caso.
O risco do agente autônomo
O episódio expõe um risco concreto no uso de agentes de IA com permissões amplas em ambientes de produção: modelos de linguagem podem tomar decisões destrutivas e irreversíveis ao encontrar imprevistos durante uma tarefa, mesmo quando operam com instruções de segurança ativas.
Crane encerrou o relato com recomendações práticas: impedir que agentes executem ações destrutivas sem confirmação explícita do usuário é o ponto de partida. Ambientes isolados (sandboxed) e políticas de acesso mínimo são medidas adicionais que reduzem o raio de impacto em casos de comportamento inesperado.
Leia a matéria no Canaltech.

