¿Por qué hay tantos obstáculos para la implementación de agentes inteligentes en la cadena?

Escribir: Zack Pokorny

Traducido por: Chopper, Foresight News

La implementación de agentes inteligentes en blockchain no ha sido fluida; aunque blockchain posee características de programabilidad y sin permisos, carece de una capa de abstracción semántica y coordinación adaptada a agentes. La institución de investigación en criptomonedas Galaxy publicó un informe que señala que los agentes enfrentan cuatro fricciones estructurales en la cadena: descubrimiento de oportunidades, validación confiable, lectura de datos y ejecución de procesos. La infraestructura existente aún está diseñada en torno a la interacción humana, dificultando el soporte para que la gestión autónoma de activos y la ejecución de estrategias por parte de IA sean escalables en blockchain. A continuación, la traducción completa del informe:

Los escenarios de aplicación y capacidades de los agentes inteligentes ya están en evolución. Comienzan a ejecutar tareas de forma autónoma y se desarrollan para poseer y configurar capital, así como para descubrir estrategias de trading y rendimiento. Aunque esta transformación experimental aún está en una etapa muy temprana, difiere radicalmente del patrón anterior en que los agentes se usaban principalmente como herramientas sociales y analíticas.

Blockchain se está convirtiendo en un campo de pruebas natural para esta evolución. Es permisivo, componible, cuenta con un ecosistema de aplicaciones de código abierto, abre datos a todos los participantes por igual, y todos los activos en la cadena son, por defecto, programables.

Esto plantea una cuestión estructural: si blockchain es programable y sin permisos, ¿por qué aún existen fricciones para los agentes autónomos? La respuesta no está en si la ejecución es factible, sino en cuánto peso semántico y de coordinación hay sobre esa ejecución. Blockchain garantiza la corrección en la transición de estado, pero generalmente no proporciona abstracciones nativas del protocolo, como interpretaciones económicas, identificación normativa o coordinación a nivel de objetivos.

Algunas fricciones provienen de defectos en la arquitectura de sistemas sin permisos, otras reflejan el estado actual de herramientas, gestión de contenidos e infraestructura de mercado. En realidad, muchas funciones superiores aún dependen de software y flujos de trabajo que requieren intervención humana para su construcción.

Arquitectura de blockchain y agentes IA

El diseño de blockchain gira en torno a consenso y ejecución determinista, no a interpretación semántica. Lo que expone son primitivas básicas como slots de almacenamiento, registros de eventos, trazas de llamadas, en lugar de objetos económicos estandarizados. Por ello, conceptos abstractos como posiciones, rendimientos, coeficientes de salud o profundidad de liquidez, suelen requerir que indexadores, capas de análisis de datos, interfaces frontend y APIs reconstruyan fuera de la cadena, transformando los estados específicos de cada protocolo en formas más usables.

Muchas operaciones principales en finanzas descentralizadas, especialmente las dirigidas a minoristas y decisiones subjetivas, aún giran en torno a la interacción del usuario mediante interfaces y firmas en transacciones individuales. Este patrón, centrado en la interfaz de usuario, se ha expandido con la popularización de los minoristas, incluso cuando muchas actividades en la cadena ya son impulsadas por máquinas. El patrón actual de interacción minorista sigue siendo: intención → interfaz → transacción → confirmación. La operación programática sigue otro camino, pero también tiene limitaciones: los desarrolladores seleccionan contratos y conjuntos de activos en la fase de construcción, y luego ejecutan algoritmos dentro de ese rango fijo. Ambos modelos no se adaptan a sistemas que deben descubrir, evaluar y combinar operaciones en tiempo de ejecución, en función de objetivos que cambian continuamente.

Cuando una infraestructura optimizada para validación de transacciones se usa también para interpretar estados económicos, evaluar crédito y optimizar comportamientos en torno a objetivos claros, las fricciones comienzan a manifestarse. Parte de estas diferencias proviene de las características de diseño sin permisos y heterogéneas de blockchain, y otra parte de las herramientas, gestión de contenido e infraestructura de mercado actuales, que aún dependen de operaciones manuales y mediaciones frontend.

Comparación de procesos de comportamiento de agentes y estrategias algorítmicas tradicionales

Antes de explorar las brechas entre infraestructura blockchain y sistemas de agentes, es necesario aclarar: ¿en qué difiere un proceso de comportamiento más inteligente y autónomo de un sistema algorítmico tradicional en cadena?

La diferencia no radica en el nivel de automatización, complejidad, parametrización o incluso en capacidades de auto-adaptación. Los sistemas algorítmicos tradicionales pueden ser altamente parametrizables, descubrir nuevos contratos y tokens, distribuir fondos entre varias estrategias y reequilibrar según rendimiento. La verdadera diferencia está en si el sistema puede manejar escenarios no previstos en la fase de construcción.

Los sistemas algorítmicos tradicionales, por complejos que sean, solo ejecutan lógica predefinida para patrones establecidos. Necesitan adaptadores de interfaz predefinidos para cada tipo de protocolo, evaluaciones que mapeen estados de contratos a significados económicos, reglas de crédito y estándares, y reglas codificadas para cada bifurcación de decisión. Cuando enfrentan escenarios desconocidos, simplemente los ignoran o fallan. No pueden razonar sobre situaciones nuevas, solo determinar si el escenario actual coincide con plantillas conocidas.

Como esa máquina de «pato digestivo», que puede imitar comportamientos biológicos, pero cuyas acciones están preprogramadas.

Un sistema algorítmico tradicional que escanea el mercado de préstamos DeFi puede identificar eventos familiares o nuevos contratos desplegados que coincidan con patrones conocidos. Pero si aparece un nuevo componente de préstamo con interfaz desconocida, el sistema no podrá evaluarlo. Solo un humano puede revisar el contrato, entender su mecanismo, determinar si es una oportunidad explotable y escribir lógica de integración. Después, el algoritmo puede interactuar con él. El humano interpreta, el algoritmo ejecuta. Los agentes basados en modelos fundamentales cambian esa frontera: pueden, mediante razonamiento aprendido,:

Interpretar objetivos vagos o incompletos. Como «maximizar rendimiento pero evitar riesgos excesivos», que requiere interpretación semántica. ¿Qué se considera riesgo excesivo? ¿Cómo ponderar rendimiento y riesgo? Los algoritmos tradicionales necesitan definir estos criterios con precisión de antemano, mientras que los agentes pueden interpretar intenciones, juzgar y ajustar su comprensión en función de retroalimentación.

Generalizar para adaptarse a interfaces desconocidas. Los agentes pueden leer código de contratos desconocidos, analizar documentación o interfaces binarias de aplicaciones no vistas, e inferir funciones económicas del sistema. No necesitan construir analizadores específicos para cada protocolo. Aunque esta capacidad aún no es perfecta y puede cometer errores, puede intentar interactuar con sistemas no previstos en la fase de construcción.

Razonar en condiciones de incertidumbre sobre confianza y normatividad. Cuando las señales de crédito son borrosas o incompletas, los modelos básicos pueden ponderar probabilísticamente esas señales, en lugar de aplicar reglas binarias. ¿Este contrato tiene estándares? ¿El token es legal? Los algoritmos tradicionales siguen reglas o no tienen respuesta; los agentes pueden razonar sobre niveles de confianza.

Interpretar errores y ajustar. Cuando ocurren imprevistos, los agentes pueden razonar sobre la causa raíz y decidir cómo responder. En contraste, los algoritmos tradicionales solo ejecutan módulos de captura de excepciones, retransmiten errores sin interpretarlos.

Estas capacidades existen en la realidad, aunque imperfectamente. Los modelos básicos pueden generar alucinaciones, malinterpretar contenidos y tomar decisiones erróneas con apariencia de certeza. En entornos adversarios y con capital en juego (como código que controla o recibe activos), «intentar interactuar con sistemas no previstos» puede significar pérdida de fondos. La idea central no es que los agentes ya puedan realizar estas funciones de forma confiable, sino que puedan intentarlo de maneras que los sistemas tradicionales no permiten, y que futuras infraestructuras puedan hacer estos intentos más seguros y confiables.

Esta diferencia debe entenderse más como un estado continuo que como una frontera categórica. Algunos sistemas tradicionales incorporarán razonamiento aprendido, y algunos agentes dependerán en puntos clave de reglas codificadas. La distinción es direccional, no binaria. Los sistemas de agentes trasladan más trabajo de interpretación, evaluación y auto-adaptación a la inferencia en tiempo de ejecución, en lugar de reglas predefinidas en la fase de construcción. Esto es crucial para entender las fricciones, porque lo que los agentes intentan hacer es exactamente lo que los algoritmos tradicionales evitan: en lugar de que los humanos filtren contratos en la fase de construcción, y eviten fricciones de control mediante listas blancas, análisis predefinidos o reglas codificadas, los agentes intentan descubrir, evaluar y razonar en tiempo de ejecución, en un espacio abierto y dinámico.

Las fricciones

Desde una perspectiva estructural, estas contradicciones no provienen de defectos en el consenso de blockchain, sino del modo en que opera toda la pila de interacción que se ha desarrollado en torno a su evolución.

Blockchain garantiza la determinación de estados, consenso en el estado final y la certeza en la misma. No intenta codificar interpretaciones económicas, validaciones de intención o seguimiento de objetivos en el protocolo. Estas funciones siempre han sido responsabilidad de las interfaces frontend, wallets, indexadores y otras capas de colaboración fuera de la cadena, donde siempre se requiere intervención humana.

Incluso los participantes experimentados siguen patrones de interacción que reflejan este diseño. Los minoristas interpretan estados en dashboards, seleccionan operaciones en interfaces, firman transacciones en wallets, sin validar formalmente los resultados. Los traders algorítmicos automatizan la ejecución, pero aún dependen de humanos para filtrar conjuntos de protocolos, verificar anomalías y actualizar integraciones ante cambios en las interfaces. En ambos casos, los protocolos solo garantizan la correcta ejecución, mientras que la interpretación de intenciones, manejo de anomalías y adaptación a nuevas oportunidades son tareas humanas.

Los sistemas de agentes comprimen o eliminan incluso esta división. Deben reconstruir programáticamente estados con significado económico, evaluar el progreso hacia objetivos y verificar resultados, en lugar de solo confirmar transacciones en la cadena. En blockchain, estas cargas son aún más evidentes, porque los agentes operan en entornos abiertos, adversariales y en rápida evolución, donde nuevos contratos, activos y caminos de ejecución pueden aparecer sin revisión centralizada. Los protocolos garantizan solo la correcta ejecución de transacciones, no que el estado económico sea interpretable, que los contratos tengan estándares, que los caminos de ejecución reflejen la intención del usuario o que las oportunidades puedan ser descubiertas programáticamente.

A continuación, se analizarán en las distintas fases del ciclo de operación de los agentes estas fricciones: descubrimiento de contratos y oportunidades, validación de legalidad, lectura de estados con significado económico y ejecución en torno a objetivos.

Descubrimiento de fricciones

Las fricciones surgen porque el espacio de finanzas descentralizadas se expande en un entorno sin permisos, donde la relevancia y legalidad se filtran mediante interacción social, mercado y herramientas en la cadena. Nuevos protocolos emergen por anuncios, pero también pasan por filtros en la integración frontend, listas de tokens, plataformas de análisis de datos y formación de liquidez. Con el tiempo, estas señales suelen formar un estándar de juicio para distinguir qué partes del espacio de acción tienen valor económico y son confiables, aunque ese consenso sea informal, desequilibrado y dependa en parte de terceros y filtraciones humanas.

Se puede proveer a los agentes señales de datos y crédito filtrados, pero no tienen la intuición que los humanos usan para interpretar esas señales. Desde la perspectiva en cadena, todos los contratos desplegados son igualmente detectables. Los contratos legítimos, bifurcaciones maliciosas, despliegues de prueba y proyectos abandonados existen en forma de bytecode accesible. La cadena en sí no codifica qué contratos son importantes o seguros.

Por ello, los agentes deben construir sus propios mecanismos de descubrimiento: escanear eventos de despliegue, identificar patrones de interfaz, seguir contratos factory (que despliegan otros contratos programáticamente) y monitorear la formación de liquidez, para determinar qué contratos deben incluirse en su decisión. Este proceso no solo busca contratos, sino también juzgar si deben entrar en su espacio de acción.

Detectar candidatos es solo el primer paso. Tras el descubrimiento preliminar, los contratos deben pasar por procesos de validación de estándares y autenticidad, como se explicará en la siguiente sección. Los agentes deben primero confirmar que los contratos descubiertos son realmente lo que parecen, antes de incluirse en su espacio de decisión.

Las fricciones de descubrimiento no se refieren solo a detectar nuevos despliegues. Los sistemas algorítmicos maduros ya pueden hacer esto dentro de sus estrategias. Monitorear eventos de fábricas en Uniswap y agregar automáticamente nuevos pools es un ejemplo de descubrimiento dinámico. Las fricciones aparecen en niveles superiores: juzgar si un contrato descubierto es legal, y si está relacionado con objetivos abiertos, en lugar de solo coincidir con patrones predefinidos.

La lógica de descubrimiento de los buscadores está estrechamente vinculada a sus estrategias. Saben qué patrones de interfaz buscar, porque sus estrategias ya los definen. Pero un agente que recibe instrucciones más amplias, como «configurar la oportunidad óptima ajustada por riesgo», no puede depender solo de filtros basados en estrategia. Debe evaluar la oportunidad en relación con su objetivo, lo que requiere analizar interfaces desconocidas, inferir funciones económicas y decidir si esa oportunidad debe entrar en su espacio de decisión. Esto es, en cierto modo, un problema de autonomía general, pero blockchain lo acentúa.

Fricciones en la capa de control

Las fricciones en la capa de control surgen porque la validación de identidad y legitimidad generalmente se realiza fuera del protocolo, mediante filtraciones, gobernanza, documentación, interfaces y juicios de operadores. En muchos flujos actuales, los humanos siguen siendo parte clave en la decisión. Blockchain garantiza ejecución determinista y certeza final, pero no asegura que el llamador esté interactuando con el contrato correcto. Esa intención se externaliza en contextos sociales, sitios web y filtraciones humanas.

En los flujos actuales, los humanos usan la capa de confianza del sitio web como método de validación informal. Acceden a dominios oficiales (generalmente a través de plataformas como DeFiLlama o cuentas sociales verificadas del proyecto), y consideran ese sitio como un mapeo estándar entre conceptos humanos y direcciones de contratos. Luego, la interfaz frontend forma un estándar confiable, identificando qué direcciones son oficiales, qué tokens usar y qué entradas son seguras.

El autómata de 1789, el «Turco Mecánico», parecía jugar ajedrez de forma autónoma, pero en realidad dependía de un operador oculto.

Los agentes por defecto no pueden interpretar marcas, señales sociales o «oficialidad» a través del contexto social. Se les puede alimentar con datos filtrados de esas señales, pero convertir eso en una hipótesis de confianza duradera requiere registros, estrategias o lógica de validación explícitos. Se puede proveer a los agentes listas blancas, direcciones verificadas y políticas de crédito, pero mantener esas protecciones en un espacio de acción en expansión, sin que sean automáticas, es costoso. Cuando esas medidas faltan o son imperfectas, los agentes carecen de mecanismos de validación por defecto que usan los humanos.

Ya existen casos en los que la debilidad en la validación de crédito en sistemas de agentes ha causado pérdidas reales. Por ejemplo, en el caso del influencer de criptomonedas Orangie, se afirma que un agente depositó fondos en un contrato honeypot. En otro caso, el agente Lobstar Wilde, por un fallo en el estado

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado