Mensaje de Gate News, 23 de abril — El equipo de ingeniería de Anthropic confirmó que la degradación de la calidad de Claude Code reportada por los usuarios durante el mes pasado se debió a tres cambios independientes a nivel de producto, no a problemas de la API ni del modelo subyacente. Los tres problemas se solucionaron el 7 de abril, el 10 de abril y el 20 de abril, respectivamente, con la versión final ahora en v2.1.116.
El primer cambio ocurrió el 4 de marzo, cuando el equipo redujo el nivel de esfuerzo de razonamiento predeterminado para Claude Code de “high” a “medium” para abordar picos ocasionales de latencia extrema en Opus 4.6 bajo alta intensidad de razonamiento. Después de quejas generalizadas de los usuarios sobre el rendimiento reducido, el equipo revirtió el cambio el 7 de abril. El valor predeterminado actual es ahora “xhigh” para Opus 4.7 y “high” para otros modelos.
El segundo problema fue un bug introducido el 26 de marzo. El sistema estaba diseñado para borrar registros antiguos de razonamiento después de que la inactividad de la conversación superara una hora para reducir los costos de recuperación de sesión. Sin embargo, una falla en la implementación hizo que el borrado se ejecutara repetidamente en cada turno posterior en lugar de una sola vez, lo que provocó que el modelo perdiera progresivamente el contexto de razonamiento previo. Esto se manifestó como un aumento de la falta de memoria, operaciones repetidas e invocaciones anómalas de herramientas. El bug también provocó fallos de caché en cada solicitud, acelerando el consumo de la cuota de los usuarios. Dos experimentos internos no relacionados enmascararon las condiciones de reproducción, extendiendo el proceso de depuración a más de una semana. Después de la corrección el 10 de abril, el equipo revisó el código problemático usando Opus 4.7 y descubrió que Opus 4.7 podía identificar el bug, mientras que Opus 4.6 no.
El tercer cambio se lanzó el 16 de abril junto con Opus 4.7. El equipo agregó instrucciones al mensaje del sistema para reducir la salida redundante. Las pruebas internas durante varias semanas no mostraron regresión, pero después del lanzamiento la interacción con otros prompts degradó la calidad de la codificación. La evaluación extendida reveló una caída del 3% en el rendimiento tanto en Opus 4.6 como en 4.7, lo que llevó a un rollback el 20 de abril.
Estos tres cambios afectaron a diferentes grupos de usuarios en distintos momentos, y su efecto combinado creó una caída generalizada e inconsistente de la calidad, complicando el diagnóstico. Anthropic afirmó que ahora requerirá a más empleados internos que usen la misma versión pública de compilación que los usuarios, que ejecuten suites completas de evaluación del modelo para cada modificación del prompt del sistema y que implementen periodos de despliegue por etapas. Como compensación, Anthropic ha restablecido las cuotas de uso para todos los usuarios con suscripción.
Artículos relacionados
Freshworks recorta 500 empleos en una reestructuración impulsada por IA
OpenAI Lanza GPT-5.5 Instant para todos los usuarios de ChatGPT a partir de hoy
Google prueba el agente de IA «Remy» para Gemini, rivales abren OpenClaw
Meta planea un asistente de IA impulsado por el modelo Muse Spark para competir con OpenClaw por 3 mil millones de usuarios el 6 de mayo
Alphabet se acerca a la capitalización de mercado de Nvidia con 4,67 billones de dólares, un 24% más este año
Cloudflare: los agentes de IA impulsan el tráfico no humano, x402 ofrece una solución