
1. O que a Anthropic decidiu e quando entra em vigor
2. Como o modelo de assinatura virou um subsídio involuntário
3. O caso OpenClaw: 247 mil estrelas no GitHub e uma semana de prazo
4. O padrão de comportamento da Anthropic com terceiros
5. O que muda na prática para cada perfil de usuário
6. O que esse movimento revela sobre o mercado de IA corporativa
7. Perguntas frequentes sobre o bloqueio da Anthropic a ferramentas de terceiros
A Anthropic bloqueou, em 4 de abril de 2026, o acesso de ferramentas externas aos planos Claude Pro e Max. OpenClaw, OpenCode e qualquer cliente não oficial que operava via OAuth estão fora do escopo das assinaturas a partir de agora.
Para quem integrou o Claude a automações profissionais, o impacto é financeiro e imediato. Uma assinatura fixa de até 200 dólares por mês pode se tornar uma conta de milhares de dólares em cobranças por token.
O episódio revela um padrão que a Anthropic vem construindo ao longo de 2025 e 2026: controlar quem acessa seus modelos, como e a que preço. O caso OpenClaw é o mais visível até agora, mas não será o último.
Os planos Claude Pro e Max deixaram de cobrir o uso por ferramentas de agentes de terceiros a partir de 4 de abril de 2026. A restrição não proíbe integrações externas, mas exige uma mudança no modelo de pagamento.
Quem quiser continuar usando o Claude em ferramentas como o OpenClaw tem duas opções. A primeira é ativar a cobrança por uso separado ("extra usage"). A segunda é autenticar via API key com preço por token.
Para amenizar o impacto, a Anthropic oferece um crédito único equivalente ao valor do plano mensal, válido até 17 de abril, e descontos de até 30% na compra antecipada de pacotes de uso extra.
Boris Cherny, Head of Claude Code da Anthropic, justificou a decisão no X. As ferramentas de terceiros colocam uma pressão desproporcional na infraestrutura. Por isso, a empresa priorizou os clientes que usam os produtos core e a API oficial. A aplicação começa pelo OpenClaw e será expandida para todos os harnesses de terceiros nas próximas semanas.
Vender tokens a um preço mensal fixo funciona como um rodízio: o preço pressupõe um consumo médio esperado. Quando alguém consome muito acima da média, o modelo quebra.
Esse é exatamente o que aconteceu. Ferramentas como o OpenClaw permitem que agentes de IA rodem em loops contínuos de planejamento, execução e autocorreção. O volume de tokens consumido nesses loops vai muito além do que qualquer plano de assinatura pessoal foi projetado para suportar.
Os números mostram a escala do problema. Um assinante usando uma única instância do OpenClaw por um dia podia consumir entre 1.000 e 5.000 dólares em tokens ao preço da API. Com a assinatura Max de 200 dólares por mês, essa diferença era absorvida pela própria Anthropic.
Os Termos de Serviço da empresa já proibiam esse uso desde fevereiro de 2024. A cláusula 3.7 vedava qualquer acesso automatizado não endossado oficialmente. Contudo, a aplicação foi branda por anos. A comunidade de desenvolvedores operou nesse espaço cinza por tempo suficiente para construir ecossistemas inteiros sobre ele.
O OpenClaw não é um projeto de nicho. O framework de código aberto tem mais de 247.000 estrelas no GitHub e cobre casos de uso que vão de e-mails e calendários a check-ins de voos e mensagens no WhatsApp, Telegram, Slack e Discord. Usuários chegaram a rodar múltiplas instâncias simultâneas em assinaturas Claude Max.
O criador do OpenClaw, Peter Steinberger, tentou negociar com a Anthropic antes do anúncio. Ele e Dave Morin, membro do conselho da OpenClaw Foundation, conseguiram apenas adiar a implementação por uma semana.
Steinberger foi direto no X: "Acordei com minhas menções cheias. O melhor que conseguimos foi adiar por uma semana. Curioso como os timings coincidem: primeiro copiam features populares para o harness fechado deles, depois bloqueiam o open source."
A crítica vai além da economia de tokens. Ao fechar as assinaturas em torno do próprio harness, a Anthropic assume o controle da camada de interface. Isso permite coletar telemetria e gerenciar rate limits com mais granularidade. Em contrapartida, arrisca alienar a comunidade que construiu o ecossistema agêntico em torno do Claude.
O desfecho foi rápido. Em fevereiro, Steinberger entrou para a OpenAI, que optou por integrar o OpenClaw às suas ofertas. Enquanto a Anthropic bloqueia ferramentas de terceiros no Claude, a OpenAI abraça o mesmo framework.
O bloqueio ao OpenClaw não é um evento isolado. É parte de um padrão que a Anthropic estabeleceu ao longo de 2025.
Em agosto daquele ano, a empresa revogou o acesso da OpenAI à API Claude. Fontes relataram que a OpenAI usava o Claude para benchmark de seus próprios modelos, prática classificada como violação das restrições competitivas. Em junho de 2025, o ambiente de codificação Windsurf enfrentou um corte abrupto de capacidade com menos de uma semana de aviso. Meses depois, funcionários da xAI foram bloqueados de acessar o Claude via Cursor.
Em fevereiro de 2026, a Anthropic revisou seus termos formalmente. O texto passou a afirmar que tokens OAuth de planos Free, Pro e Max em ferramentas de terceiros violam os Termos de Serviço para Consumidores. A autenticação OAuth ficou reservada exclusivamente para o Claude Code e o Claude.ai.
A reação da comunidade foi imediata. David Heinemeier Hansson, criador do Ruby on Rails, chamou a política de muito hostil ao cliente. George Hotz alertou que a Anthropic não converteria usuários de volta ao Claude Code, mas sim para outros provedores de modelos.
O impacto varia conforme o tipo de uso. Veja o cenário para os três perfis mais comuns:
Usuário comum do Claude.ai: usa o chat pelo navegador ou app e não tem nenhuma mudança.
Desenvolvedor com assinatura Pro ou Max e ferramenta externa: precisa migrar para API key ou ativar o extra usage. O custo por volume de uso passa a ser explícito.
Time técnico com automações agênticas intensivas: pode ver o custo aumentar de 5 a 25 vezes dependendo do volume de loops rodados por agentes.
Para times que avaliavam o Claude como base de agentes profissionais, a mudança exige uma revisão do modelo de custo. Um agente rodando loops com o Opus 4.6 pode gerar despesas muito acima de qualquer assinatura mensal. Essa variável precisa entrar no planejamento de arquitetura desde o início.
Quem não quiser pagar preço de API tem uma saída: migrar para outro provedor. O OpenCode dobrou suas estrelas no GitHub nas semanas seguintes ao primeiro bloqueio da Anthropic em janeiro. A competição por esse perfil de usuário está aberta.
A decisão da Anthropic é, antes de tudo, uma questão de margens. O Claude Code representa cerca de 12% da receita recorrente anual da empresa e ultrapassou 1 bilhão de dólares em ARR. A pressão de capacidade computacional é real.
Contudo, a forma escolhida para resolver o problema revela uma aposta estratégica clara: crescer pelo controle da plataforma, não pela extensibilidade do ecossistema. Fechar o acesso de terceiros protege margens e direciona receita para os produtos próprios. O risco é encolher a comunidade que gerou essa demanda.
Para empresas que definem sua estratégia de adoção de IA agora, o episódio entrega uma lição direta. A escolha de plataforma não é só uma decisão técnica. É uma decisão sobre dependência, previsibilidade de custo e sobre o quanto o fornecedor de modelos controla o que você pode construir. Quem monta automações críticas sobre assinaturas de consumo, sem contrato formal e sem API key, opera em solo instável.
O que exatamente a Anthropic bloqueou?
A Anthropic encerrou o uso de planos Claude Pro e Max para acessar modelos via ferramentas de terceiros como OpenClaw e OpenCode. O acesso via OAuth, antes compartilhado com o Claude Code, agora está restrito aos produtos oficiais da Anthropic.
Quem é afetado pelo bloqueio?
Desenvolvedores e times técnicos que usavam ferramentas externas com autenticação via assinatura Claude Pro ou Max. Usuários do Claude.ai pelo navegador ou app não são afetados.
Como continuar usando o Claude em ferramentas externas?
Há duas opções: ativar o extra usage com cobrança por uso separado da assinatura, ou autenticar via API key com preço por token.
O OpenClaw ainda funciona com o Claude?
Sim, mas não mais com a assinatura Pro ou Max como base de pagamento. É necessário usar API key ou extra usage.
Qual é o risco de depender de uma única plataforma de IA?
Decisões unilaterais de fornecedores, como esta da Anthropic, podem interromper fluxos de trabalho sem aviso adequado. Estruturar a adoção de IA com contratos formais, API keys e governança reduz esse risco.
Em suma, a Anthropic sinalizou que o período de acesso subsidiado e aberto a seus modelos chegou ao fim para ferramentas externas. Para organizações que querem usar IA com previsibilidade de custo e sem risco de interrupção, estruturar a adoção com governança e arquitetura adequadas deixa de ser opcional. Conheça o AI Strategy do Distrito e entenda como avaliar plataformas de IA com critérios de negócio, não só de tecnologia.