De acordo com uma reportagem em profundidade da CNBC, em duas reuniões fechadas na Califórnia nesta semana, vários CEOs de startups de IA e engenheiros declararam, de forma direta, que a atual implantação em escala de agentes de IA enfrenta dois grandes problemas estruturais: “desperdício massivo de tokens” e “extrema confusão entre sistemas”. O registro feito no local contrasta fortemente com a perspectiva otimista do CEO da Nvidia, Jensen Huang, em março, ao dizer que agentes de IA seriam “o próximo ChatGPT”, sugerindo que o gargalo real dessa área não está no poder computacional, e sim no desenho das decisões, na eficiência de tokens e na integração entre múltiplos sistemas.
O maior problema é jogar tudo nas mãos do LLM.
O CEO da startup de IA Meibel, Kevin McGrath, apontou na reunião: “O maior problema que estamos enfrentando agora é achar que tudo precisa ser processado por grandes modelos de linguagem — jogar todos os tokens e todo o dinheiro em um bot de IA, e ele vai queimar milhões de tokens.” Ele enfatizou que, ao projetar os fluxos de trabalho de um agente, as empresas precisam avaliar com mais clareza quais tarefas realmente exigem LLM, e quais podem ser feitas com lógica mais barata baseada em regras ou com aprendizado de máquina tradicional.
Essa observação ecoa a reação do mercado após a versão empresarial da Anthropic Claude mudar para cobrança por uso — quando o consumo de tokens se transforma diretamente em custo, o modelo de desenvolvimento de “jogar tudo de forma cega em um agente” mostra rapidamente a pressão financeira. A visão da Meibel representa um grupo de profissionais de engenharia menos entusiasmados com hype: a “arte” de uma arquitetura de agentes está em impor limites, e não em deixar solto.
Sistemas de coordenação com múltiplos agentes geram confusão mútua
Outra palavra-chave recorrente na reportagem da CNBC é “caótica”. Quando uma empresa roda vários agentes de IA ao mesmo tempo — por exemplo, um para lidar com atendimento ao cliente, um para agendar, e um para lidar com as finanças — a transmissão de mensagens entre os agentes, a consistência de estado, as respostas a erros e quaisquer outras interações acabam se afetando. Qualquer comportamento fora do normal de um agente pode se espalhar em efeito dominó. Karpathy também mencionou nesta semana que ele próprio roda um fluxo de trabalho com simultaneamente 10–20 agentes, mas admitiu que a revisão de código e o processo de PR viraram o novo gargalo.
A confusão desses sistemas com múltiplos agentes, em essência, é a repetição dos velhos problemas dos sistemas distribuídos na era dos LLMs: não há SLA claro, não há fronteiras transacionais e não há semântica de tentativas de falha e novas tentativas. Embora a Anthropic e a OpenAI tenham lançado camadas de protocolo como MCP e Agent SDK, na prática de adoção pelas empresas, a padronização ainda está muito atrás do crescimento do número de agentes.
A polêmica sobre salário em tokens de 250 mil dólares esfria
Em março, o CEO da Nvidia, Jensen Huang, divulgou fortemente o conceito de “salário em tokens” em sua fala no GTC e em entrevistas subsequentes, afirmando: “Se um engenheiro com salário anual de 500 mil dólares não consumir pelo menos 250 mil dólares em tokens, eu ficarei profundamente preocupado.” A lógica dele é: o engenheiro deve substituir suas próprias ações de baixo nível por agentes de IA, e a quantidade absoluta de tokens consumidos é o indicador substituto de produtividade. Essa argumentação pode ser conferida na entrevista mais recente do Jensen Huang (parte 1), na qual ele explica de forma completa a demanda por computação para IA.
Mas as opiniões observadas no local na reportagem da CNBC mostram que o grupo de engenheiros na Califórnia está cada vez mais cauteloso com esse discurso: a quantidade de tokens consumidos não equivale a produtividade e, inclusive, pode ser um sinal de que o design do agente é ruim. O valor real dos engenheiros ainda está em “decidir quais tarefas vale a pena chamar um agente, como decompor as tarefas e como desenhar o tratamento de erros” — e esses trabalhos em si não podem ser medidos pela quantidade de tokens consumida.
Crypto e agentes de IA ainda precisam de tempo
Para a indústria de crypto, nesta semana as tendências de IA que “devoram” 80% do venture capital global e a integração ativa de projetos DeFi com agentes autônomos foram construídas sobre o pressuposto de que “a tecnologia de agentes já atingiu um nível de implantação”. Mas a reportagem da CNBC lembra: mesmo em ambientes empresariais puramente web2, a eficiência de tokens dos agentes e a integração entre múltiplos sistemas ainda não estão estáveis. Colocar agentes em um ambiente on-chain 24 horas por dia, 7 dias por semana, no qual ativos podem ser roubados em tempo real, amplifica tanto os riscos técnicos quanto os riscos financeiros. O verdadeiro ponto de partida da relação Crypto × IA pode ainda ter de esperar até a maturidade da padronização no nível de frameworks de agentes (como MCP, LangGraph, Cloudflare Agents).
Este artigo “Realidade dos Agentes de IA na Califórnia: desperdício massivo de Tokens, integração de sistemas ‘extremamente caótica’, previsão de Jensen Huang do ‘próximo ChatGPT’ ainda precisa ser verificada” apareceu pela primeira vez em 鏈新聞 ABMedia.
Related Articles
O QClaw internacional da Tencent inicia testes em fase beta, com 700 dólares em tokens para os usuários do Japão entrarem primeiro na fila
Adobe Lança Suíte de IA CX Enterprise para Automatizar o Marketing Corporativo com Parcerias da OpenAI e da Anthropic
Dark Matter Labs lança e disponibiliza em código aberto o modelo Kimi K2.6
Relatório mais recente da A16z: Por que a blockchain é a infraestrutura que falta para os agentes de IA?
Moonshot AI lança o Kimi K2.6 com recursos aprimorados de codificação e Agent
As Smart Actions da Nexchain levam IA para a Web3 autônoma