Trusta.AI: La brecha de confianza entre humanos y máquinas
1. Introducción
Con el rápido desarrollo de la infraestructura de IA y el surgimiento de marcos de colaboración entre múltiples agentes, los agentes en cadena impulsados por IA están rápidamente convirtiéndose en la fuerza principal de la interacción en Web3. Se espera que en los próximos 2-3 años, estos agentes de IA con capacidad de toma de decisiones autónoma adopten masivamente transacciones e interacciones en cadena, lo que podría reemplazar el 80% del comportamiento humano en cadena, convirtiéndose en verdaderos "usuarios" en cadena.
El Agente de IA ya no es simplemente un "robot bruja" que ejecuta scripts, sino un agente capaz de entender el contexto, aprender de manera continua y tomar decisiones complejas de forma independiente, que está remodelando el orden en la cadena, impulsando el flujo financiero e incluso guiando las votaciones de gobernanza y las tendencias del mercado. Esto marca la evolución del ecosistema Web3 de un enfoque centrado en la "participación humana" a un nuevo paradigma de "simbiosis humano-máquina".
Sin embargo, el rápido surgimiento de los Agentes de IA también ha traído desafíos sin precedentes: ¿cómo identificar y autenticar la identidad de estos agentes inteligentes? ¿Cómo juzgar la credibilidad de su comportamiento? En una red descentralizada y sin permisos, ¿cómo asegurar que estos agentes no sean mal utilizados, manipulados o utilizados para ataques?
Por lo tanto, establecer una infraestructura en cadena que pueda verificar la identidad y la reputación de los Agentes de IA se ha convertido en el tema central de la próxima etapa de evolución de Web3. El diseño de la identificación de identidad, el mecanismo de reputación y el marco de confianza determinarán si los Agentes de IA pueden realmente lograr una colaboración fluida con los humanos y las plataformas, y desempeñar un papel sostenible en el futuro ecosistema.
2. Análisis del proyecto
2.1 Descripción del proyecto
Trusta.AI se dedica a construir infraestructura de identidad y reputación Web3 a través de la IA.
Trusta.AI ha lanzado el primer sistema de evaluación del valor del usuario en Web3 - la puntuación de reputación MEDIA, construyendo el mayor protocolo de certificación de personas reales y reputación en cadena de Web3. Proporciona análisis de datos en cadena y servicios de certificación de personas reales para las principales cadenas públicas y protocolos de vanguardia como Linea, Starknet, Celestia, Arbitrum, Manta, entre otros. Ha completado más de 2.5 millones de certificaciones en cadena en múltiples cadenas principales, convirtiéndose en el mayor protocolo de identidad de la industria.
Trusta está expandiéndose de Proof of Humanity a Proof of AI Agent, implementando un mecanismo triple de establecimiento de identidad, cuantificación de identidad y protección de identidad para realizar servicios financieros y sociales en la cadena para AI Agent, construyendo una base de confianza confiable en la era de la inteligencia artificial.
2.2 Infraestructura de confianza - Agente de IA DID
En el futuro ecosistema Web3, los Agentes de IA desempeñarán un papel crucial, ya que no solo podrán realizar interacciones y transacciones en la cadena, sino que también podrán llevar a cabo operaciones complejas fuera de la cadena. Sin embargo, la forma de distinguir entre verdaderos Agentes de IA y operaciones manipuladas por humanos está relacionada con el núcleo de la confianza descentralizada. Sin un mecanismo de autenticación de identidad confiable, estos agentes son susceptibles a la manipulación, el fraude o el abuso. Esta es la razón por la que las múltiples aplicaciones de los Agentes de IA, en áreas como las redes sociales, las finanzas y la gobernanza, deben basarse en una sólida base de autenticación de identidad.
Atributos sociales del Agente de IA: La aplicación del Agente de IA en escenarios sociales está en constante expansión. Por ejemplo, el ídolo virtual de IA, Luna, puede operar de forma autónoma cuentas sociales y publicar contenido; AIXBT, por otro lado, actúa como un analista de inteligencia de mercado de criptomonedas impulsado por inteligencia artificial, redactando continuamente análisis de mercado y recomendaciones de inversión. Este tipo de agentes establecen interacciones emocionales e informativas con los usuarios a través del aprendizaje continuo y la creación de contenido, convirtiéndose en nuevos "influencers digitales de comunidades", desempeñando un papel importante en la orientación de la opinión pública dentro de las redes sociales en la cadena.
Atributos financieros del Agente AI:
Gestión autónoma de activos: algunos agentes de IA avanzados ya han logrado emitir monedas de manera autónoma. En el futuro, podrán integrar con una arquitectura verificable basada en blockchain, poseer derechos de custodia de activos y completar el control de todo el proceso desde la creación de activos, el reconocimiento de intenciones hasta la ejecución automática de transacciones, e incluso realizar operaciones sin problemas entre cadenas. Por ejemplo, Virtuals Protocol impulsa la emisión autónoma de monedas y la gestión de activos por parte de agentes de IA, permitiendo que emitan tokens basados en sus propias estrategias, convirtiéndose verdaderamente en participantes y constructores de la economía en cadena, dando inicio a la era de la "economía de entidades de IA" con un amplio impacto.
Decisiones de inversión inteligentes: el AI Agent está asumiendo gradualmente el papel de gerente de inversiones y analista de mercado, apoyándose en la capacidad de procesamiento de datos en tiempo real de los grandes modelos para formular estrategias de trading precisas y ejecutarlas automáticamente. En plataformas como DeFAI, Paravel y Polytrader, la IA ya está integrada en los motores de trading, mejorando significativamente la capacidad de juicio del mercado y la eficiencia operativa, logrando una verdadera inversión inteligente en la cadena.
Pagos autónomos en la cadena: el acto de pago es esencialmente una transmisión de confianza, y la confianza debe basarse en una identidad clara. Cuando un Agente de IA realiza un pago en la cadena, el DID se convertirá en un requisito necesario. No solo puede prevenir la falsificación y el abuso de identidad, reduciendo riesgos financieros como el lavado de dinero, sino que también satisface las necesidades de cumplimiento y rastreo en el futuro para DeFi, DAO, RWA, entre otros. Al mismo tiempo, en combinación con un sistema de puntuación de reputación, el DID también puede ayudar a establecer un crédito de pago, proporcionando una base de confianza y fundamento para la gestión de riesgos en los protocolos.
Atributos de gobernanza del Agente AI: En la gobernanza de DAO, el Agente AI puede analizar automáticamente propuestas, evaluar opiniones de la comunidad y predecir los efectos de la implementación. A través del aprendizaje profundo de datos históricos de votación y gobernanza, el agente puede proporcionar sugerencias de optimización a la comunidad, mejorar la eficiencia de la toma de decisiones y reducir los riesgos de la gobernanza humana.
Los escenarios de aplicación de los agentes de IA son cada vez más diversos, abarcando múltiples áreas como la interacción social, la gestión financiera y la toma de decisiones de gobernanza, y su nivel de autonomía e inteligencia sigue aumentando. Por esta razón, es crucial asegurar que cada agente inteligente tenga una identificación única y confiable (DID). La falta de una verificación de identidad efectiva puede llevar a que los agentes de IA sean suplantados o manipulados, lo que resulta en la pérdida de confianza y riesgos de seguridad.
En el futuro, en un ecosistema Web3 completamente impulsado por agentes inteligentes, la autenticación de identidad no solo es la piedra angular para garantizar la seguridad, sino también una línea de defensa necesaria para mantener el funcionamiento saludable de todo el ecosistema.
Como pionero en este campo, Trusta.AI ha construido primero un mecanismo de certificación DID para agentes de IA completo, gracias a su liderazgo en tecnología y un sistema de reputación riguroso, proporcionando una sólida garantía para la operación confiable de los agentes inteligentes, previniendo eficazmente los riesgos potenciales y promoviendo el desarrollo estable de la economía inteligente Web3.
2.3 Descripción del proyecto
2.3.1 Situación de financiamiento
Enero de 2023: Se completó una ronda de financiamiento inicial de 3 millones de dólares, liderada por SevenX Ventures y Vision Plus Capital, con otros participantes como HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre otros.
Junio de 2025: Se completará una nueva ronda de financiación, con inversores que incluyen a ConsenSys, Starknet, GSR, UFLY Labs, entre otros.
2.3.2 Situación del equipo
Peet Chen: cofundador y CEO, exvicepresidente de un grupo de tecnología digital, exdirector de productos de una empresa de tecnología de seguridad, exgerente general de una plataforma global de identidad digital.
Simon: cofundador y CTO, exjefe del laboratorio de seguridad de IA de un grupo, con quince años de experiencia en la aplicación de tecnología de inteligencia artificial en la gestión de seguridad y riesgos.
El equipo tiene una sólida acumulación técnica y experiencia práctica en inteligencia artificial y gestión de riesgos de seguridad, arquitectura de sistemas de pago y mecanismos de verificación de identidad. Se ha dedicado durante mucho tiempo a la aplicación profunda de grandes datos y algoritmos inteligentes en la gestión de riesgos de seguridad, así como a la optimización de la seguridad en el diseño de protocolos de base y en entornos de transacciones de alta concurrencia, con una sólida capacidad de ingeniería y la capacidad de implementar soluciones innovadoras.
3. Arquitectura técnica
3.1 Análisis técnico
3.1.1 Establecimiento de identidad - DID + TEE
A través de un complemento dedicado, cada Agente de IA obtiene un identificador descentralizado único (DID) en la cadena, y lo almacena de forma segura en un entorno de ejecución confiable (TEE). En este entorno de caja negra, los datos clave y los procesos de cálculo están completamente ocultos, las operaciones sensibles siempre se mantienen privadas, y el exterior no puede espiar los detalles internos de la operación, construyendo efectivamente una sólida barrera de seguridad de la información para el Agente de IA.
Para los agentes que ya se generaron antes de la integración del complemento, nos basamos en el mecanismo de puntuación integral en la cadena para la identificación; mientras que los agentes que integran el complemento nuevo pueden obtener directamente el "certificado de identidad" emitido por DID, estableciendo así un sistema de identidad de AI Agent que sea autónomo, auténtico e inalterable.
3.1.2 Cuantificación de identidad - Marco SIGMA pionero
El equipo de Trusta siempre se adhiere a los principios de evaluación rigurosa y análisis cuantitativo, comprometido a crear un sistema de certificación de identidad profesional y confiable.
El equipo de Trusta fue el primero en construir y validar la efectividad del modelo MEDIA Score en el escenario de "prueba humana". Este modelo cuantifica de manera integral el perfil del usuario en la cadena desde cinco dimensiones, es decir: monto de interacción (Monetary), participación (Engagement), diversidad (Diversity), identidad (Identity) y edad (Age).
El MEDIA Score es un sistema de evaluación de valor de usuario en la cadena que es justo, objetivo y cuantificable. Gracias a sus dimensiones de evaluación integrales y su metodología rigurosa, ha sido ampliamente adoptado por varias cadenas de bloques líderes como Celestia, Starknet, Arbitrum, Manta y Linea, como un importante estándar de referencia para la selección de calificaciones de participación en airdrops. No solo se centra en el monto de interacción, sino que también abarca indicadores multidimensionales como la actividad, la diversidad de contratos, las características de identidad y la antigüedad de la cuenta, ayudando a los proyectos a identificar con precisión a los usuarios de alto valor y a mejorar la eficiencia y equidad en la distribución de incentivos, reflejando plenamente su autoridad y amplio reconocimiento en la industria.
Sobre la base de la exitosa construcción de un sistema de evaluación de usuarios humanos, Trusta ha trasladado y actualizado la experiencia del MEDIA Score al escenario de AI Agent, estableciendo un sistema de evaluación Sigma que se ajusta mejor a la lógica del comportamiento de los agentes inteligentes.
Especialización Especificación: el conocimiento profesional y el grado de especialización del agente.
Influencia: la influencia social y digital del agente.
Participación: La consistencia y fiabilidad de sus interacciones en cadena y fuera de cadena.
Monetario: salud financiera y estabilidad del ecosistema de tokens de agencia.
Tasa de adopción: Frecuencia y eficiencia del uso de agentes de IA.
El mecanismo de puntuación Sigma construye un sistema de evaluación de lógica cerrada que va de la "capacidad" al "valor" en cinco dimensiones. MEDIA se centra en evaluar el compromiso multifacético de los usuarios humanos, mientras que Sigma se enfoca más en la profesionalidad y estabilidad de los agentes de IA en campos específicos, reflejando una transición de amplitud a profundidad, lo que se ajusta mejor a las necesidades de los Agentes de IA.
Primero, sobre la base de la capacidad profesional (Specification), el grado de participación (Engagement) refleja si se invierte de manera estable y continua en la interacción práctica, lo cual es un soporte clave para construir la confianza y los efectos posteriores. La influencia (Influence) es la retroalimentación de la reputación que se genera en la comunidad o red tras la participación, que indica la credibilidad del agente y el efecto de difusión. La capacidad monetaria (Monetary) evalúa si tiene la capacidad de acumulación de valor y estabilidad financiera en el sistema económico, sentando las bases para un mecanismo de incentivos sostenible. Finalmente, la tasa de adopción (Adoption) se utiliza como un reflejo integral, representando el grado de aceptación de este agente en el uso práctico, siendo la validación final de todas las capacidades y rendimientos previos.
Este sistema se desarrolla de manera jerárquica, con una estructura clara, capaz de reflejar de manera integral la calidad y el valor ecológico de los Agentes de IA, logrando así una evaluación cuantitativa del rendimiento y valor de la IA, transformando las abstracciones de ventajas y desventajas en un sistema de puntuación concreto y medible.
Actualmente, el marco SIGMA ha promovido la cooperación con redes de agentes de IA reconocidas como Virtual, Elisa OS y Swarm, mostrando su gran potencial de aplicación en la gestión de identidades de agentes de IA y la construcción de sistemas de reputación, convirtiéndose gradualmente en el motor central que impulsa la construcción de una infraestructura de IA confiable.
3.1.3 Protección de la identidad - Mecanismo de evaluación de confianza
En un sistema de IA verdaderamente resistente y de alta confianza, lo más crucial no es solo el establecimiento de la identidad, sino también la verificación continua de la identidad. Trusta.AI introduce un mecanismo de evaluación de confianza continua, que permite la supervisión en tiempo real de los agentes inteligentes ya certificados, para determinar si están siendo controlados ilegalmente, si han sufrido un ataque o si están siendo intervenidos por humanos no autorizados. El sistema identifica posibles desviaciones en el proceso de operación del agente mediante análisis de comportamiento y aprendizaje automático, asegurando que cada acción del agente se mantenga dentro de las políticas y marcos establecidos. Este enfoque proactivo garantiza la detección inmediata de cualquier desviación del comportamiento esperado y activa medidas de protección automáticas para mantener la integridad del agente.
Trusta.AI ha establecido un mecanismo de defensa seguro que está siempre en línea, revisando en tiempo real cada interacción y asegurando que todas las operaciones cumplan con las normas del sistema y las expectativas establecidas.
3.2 Introducción del producto
3.2.1 AgentGo
Trusta.AI asigna una identificación descentralizada (DID) a cada agente de IA en la cadena y los califica y indexa de manera confiable en función de los datos de comportamiento en la cadena, construyendo un sistema de confianza de agentes de IA que es verificable y rastreable. A través de este sistema, los usuarios pueden identificar y filtrar de manera eficiente agentes inteligentes de alta calidad.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
11 me gusta
Recompensa
11
6
Compartir
Comentar
0/400
TooScaredToSell
· hace8h
Hacer estas cosas es solo especular sobre conceptos.
Ver originalesResponder0
airdrop_huntress
· hace8h
¿Eso es todo? No entiendo.
Ver originalesResponder0
faded_wojak.eth
· hace8h
Otra vez un Bots de web3, no tiene sentido.
Ver originalesResponder0
LidoStakeAddict
· hace8h
¿Para qué hacer tanto con la IA? Es más fácil simplemente stakear ETH.
Ver originalesResponder0
ThatsNotARugPull
· hace8h
Otro proyecto de inteligencia artificial solo es una trampa.
Ver originalesResponder0
BridgeNomad
· hace9h
la verdad otra "solución de confianza" me está dando ptsd de wormhole rn...
Trusta.AI: Construyendo una infraestructura de identidad de IA confiable para Web3 que lidera una nueva era de simbiosis humano-máquina
Trusta.AI: La brecha de confianza entre humanos y máquinas
1. Introducción
Con el rápido desarrollo de la infraestructura de IA y el surgimiento de marcos de colaboración entre múltiples agentes, los agentes en cadena impulsados por IA están rápidamente convirtiéndose en la fuerza principal de la interacción en Web3. Se espera que en los próximos 2-3 años, estos agentes de IA con capacidad de toma de decisiones autónoma adopten masivamente transacciones e interacciones en cadena, lo que podría reemplazar el 80% del comportamiento humano en cadena, convirtiéndose en verdaderos "usuarios" en cadena.
El Agente de IA ya no es simplemente un "robot bruja" que ejecuta scripts, sino un agente capaz de entender el contexto, aprender de manera continua y tomar decisiones complejas de forma independiente, que está remodelando el orden en la cadena, impulsando el flujo financiero e incluso guiando las votaciones de gobernanza y las tendencias del mercado. Esto marca la evolución del ecosistema Web3 de un enfoque centrado en la "participación humana" a un nuevo paradigma de "simbiosis humano-máquina".
Sin embargo, el rápido surgimiento de los Agentes de IA también ha traído desafíos sin precedentes: ¿cómo identificar y autenticar la identidad de estos agentes inteligentes? ¿Cómo juzgar la credibilidad de su comportamiento? En una red descentralizada y sin permisos, ¿cómo asegurar que estos agentes no sean mal utilizados, manipulados o utilizados para ataques?
Por lo tanto, establecer una infraestructura en cadena que pueda verificar la identidad y la reputación de los Agentes de IA se ha convertido en el tema central de la próxima etapa de evolución de Web3. El diseño de la identificación de identidad, el mecanismo de reputación y el marco de confianza determinarán si los Agentes de IA pueden realmente lograr una colaboración fluida con los humanos y las plataformas, y desempeñar un papel sostenible en el futuro ecosistema.
2. Análisis del proyecto
2.1 Descripción del proyecto
Trusta.AI se dedica a construir infraestructura de identidad y reputación Web3 a través de la IA.
Trusta.AI ha lanzado el primer sistema de evaluación del valor del usuario en Web3 - la puntuación de reputación MEDIA, construyendo el mayor protocolo de certificación de personas reales y reputación en cadena de Web3. Proporciona análisis de datos en cadena y servicios de certificación de personas reales para las principales cadenas públicas y protocolos de vanguardia como Linea, Starknet, Celestia, Arbitrum, Manta, entre otros. Ha completado más de 2.5 millones de certificaciones en cadena en múltiples cadenas principales, convirtiéndose en el mayor protocolo de identidad de la industria.
Trusta está expandiéndose de Proof of Humanity a Proof of AI Agent, implementando un mecanismo triple de establecimiento de identidad, cuantificación de identidad y protección de identidad para realizar servicios financieros y sociales en la cadena para AI Agent, construyendo una base de confianza confiable en la era de la inteligencia artificial.
2.2 Infraestructura de confianza - Agente de IA DID
En el futuro ecosistema Web3, los Agentes de IA desempeñarán un papel crucial, ya que no solo podrán realizar interacciones y transacciones en la cadena, sino que también podrán llevar a cabo operaciones complejas fuera de la cadena. Sin embargo, la forma de distinguir entre verdaderos Agentes de IA y operaciones manipuladas por humanos está relacionada con el núcleo de la confianza descentralizada. Sin un mecanismo de autenticación de identidad confiable, estos agentes son susceptibles a la manipulación, el fraude o el abuso. Esta es la razón por la que las múltiples aplicaciones de los Agentes de IA, en áreas como las redes sociales, las finanzas y la gobernanza, deben basarse en una sólida base de autenticación de identidad.
Atributos sociales del Agente de IA: La aplicación del Agente de IA en escenarios sociales está en constante expansión. Por ejemplo, el ídolo virtual de IA, Luna, puede operar de forma autónoma cuentas sociales y publicar contenido; AIXBT, por otro lado, actúa como un analista de inteligencia de mercado de criptomonedas impulsado por inteligencia artificial, redactando continuamente análisis de mercado y recomendaciones de inversión. Este tipo de agentes establecen interacciones emocionales e informativas con los usuarios a través del aprendizaje continuo y la creación de contenido, convirtiéndose en nuevos "influencers digitales de comunidades", desempeñando un papel importante en la orientación de la opinión pública dentro de las redes sociales en la cadena.
Atributos financieros del Agente AI:
Gestión autónoma de activos: algunos agentes de IA avanzados ya han logrado emitir monedas de manera autónoma. En el futuro, podrán integrar con una arquitectura verificable basada en blockchain, poseer derechos de custodia de activos y completar el control de todo el proceso desde la creación de activos, el reconocimiento de intenciones hasta la ejecución automática de transacciones, e incluso realizar operaciones sin problemas entre cadenas. Por ejemplo, Virtuals Protocol impulsa la emisión autónoma de monedas y la gestión de activos por parte de agentes de IA, permitiendo que emitan tokens basados en sus propias estrategias, convirtiéndose verdaderamente en participantes y constructores de la economía en cadena, dando inicio a la era de la "economía de entidades de IA" con un amplio impacto.
Decisiones de inversión inteligentes: el AI Agent está asumiendo gradualmente el papel de gerente de inversiones y analista de mercado, apoyándose en la capacidad de procesamiento de datos en tiempo real de los grandes modelos para formular estrategias de trading precisas y ejecutarlas automáticamente. En plataformas como DeFAI, Paravel y Polytrader, la IA ya está integrada en los motores de trading, mejorando significativamente la capacidad de juicio del mercado y la eficiencia operativa, logrando una verdadera inversión inteligente en la cadena.
Los escenarios de aplicación de los agentes de IA son cada vez más diversos, abarcando múltiples áreas como la interacción social, la gestión financiera y la toma de decisiones de gobernanza, y su nivel de autonomía e inteligencia sigue aumentando. Por esta razón, es crucial asegurar que cada agente inteligente tenga una identificación única y confiable (DID). La falta de una verificación de identidad efectiva puede llevar a que los agentes de IA sean suplantados o manipulados, lo que resulta en la pérdida de confianza y riesgos de seguridad.
En el futuro, en un ecosistema Web3 completamente impulsado por agentes inteligentes, la autenticación de identidad no solo es la piedra angular para garantizar la seguridad, sino también una línea de defensa necesaria para mantener el funcionamiento saludable de todo el ecosistema.
Como pionero en este campo, Trusta.AI ha construido primero un mecanismo de certificación DID para agentes de IA completo, gracias a su liderazgo en tecnología y un sistema de reputación riguroso, proporcionando una sólida garantía para la operación confiable de los agentes inteligentes, previniendo eficazmente los riesgos potenciales y promoviendo el desarrollo estable de la economía inteligente Web3.
2.3 Descripción del proyecto
2.3.1 Situación de financiamiento
Enero de 2023: Se completó una ronda de financiamiento inicial de 3 millones de dólares, liderada por SevenX Ventures y Vision Plus Capital, con otros participantes como HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre otros.
Junio de 2025: Se completará una nueva ronda de financiación, con inversores que incluyen a ConsenSys, Starknet, GSR, UFLY Labs, entre otros.
2.3.2 Situación del equipo
Peet Chen: cofundador y CEO, exvicepresidente de un grupo de tecnología digital, exdirector de productos de una empresa de tecnología de seguridad, exgerente general de una plataforma global de identidad digital.
Simon: cofundador y CTO, exjefe del laboratorio de seguridad de IA de un grupo, con quince años de experiencia en la aplicación de tecnología de inteligencia artificial en la gestión de seguridad y riesgos.
El equipo tiene una sólida acumulación técnica y experiencia práctica en inteligencia artificial y gestión de riesgos de seguridad, arquitectura de sistemas de pago y mecanismos de verificación de identidad. Se ha dedicado durante mucho tiempo a la aplicación profunda de grandes datos y algoritmos inteligentes en la gestión de riesgos de seguridad, así como a la optimización de la seguridad en el diseño de protocolos de base y en entornos de transacciones de alta concurrencia, con una sólida capacidad de ingeniería y la capacidad de implementar soluciones innovadoras.
3. Arquitectura técnica
3.1 Análisis técnico
3.1.1 Establecimiento de identidad - DID + TEE
A través de un complemento dedicado, cada Agente de IA obtiene un identificador descentralizado único (DID) en la cadena, y lo almacena de forma segura en un entorno de ejecución confiable (TEE). En este entorno de caja negra, los datos clave y los procesos de cálculo están completamente ocultos, las operaciones sensibles siempre se mantienen privadas, y el exterior no puede espiar los detalles internos de la operación, construyendo efectivamente una sólida barrera de seguridad de la información para el Agente de IA.
Para los agentes que ya se generaron antes de la integración del complemento, nos basamos en el mecanismo de puntuación integral en la cadena para la identificación; mientras que los agentes que integran el complemento nuevo pueden obtener directamente el "certificado de identidad" emitido por DID, estableciendo así un sistema de identidad de AI Agent que sea autónomo, auténtico e inalterable.
3.1.2 Cuantificación de identidad - Marco SIGMA pionero
El equipo de Trusta siempre se adhiere a los principios de evaluación rigurosa y análisis cuantitativo, comprometido a crear un sistema de certificación de identidad profesional y confiable.
El MEDIA Score es un sistema de evaluación de valor de usuario en la cadena que es justo, objetivo y cuantificable. Gracias a sus dimensiones de evaluación integrales y su metodología rigurosa, ha sido ampliamente adoptado por varias cadenas de bloques líderes como Celestia, Starknet, Arbitrum, Manta y Linea, como un importante estándar de referencia para la selección de calificaciones de participación en airdrops. No solo se centra en el monto de interacción, sino que también abarca indicadores multidimensionales como la actividad, la diversidad de contratos, las características de identidad y la antigüedad de la cuenta, ayudando a los proyectos a identificar con precisión a los usuarios de alto valor y a mejorar la eficiencia y equidad en la distribución de incentivos, reflejando plenamente su autoridad y amplio reconocimiento en la industria.
Sobre la base de la exitosa construcción de un sistema de evaluación de usuarios humanos, Trusta ha trasladado y actualizado la experiencia del MEDIA Score al escenario de AI Agent, estableciendo un sistema de evaluación Sigma que se ajusta mejor a la lógica del comportamiento de los agentes inteligentes.
El mecanismo de puntuación Sigma construye un sistema de evaluación de lógica cerrada que va de la "capacidad" al "valor" en cinco dimensiones. MEDIA se centra en evaluar el compromiso multifacético de los usuarios humanos, mientras que Sigma se enfoca más en la profesionalidad y estabilidad de los agentes de IA en campos específicos, reflejando una transición de amplitud a profundidad, lo que se ajusta mejor a las necesidades de los Agentes de IA.
Primero, sobre la base de la capacidad profesional (Specification), el grado de participación (Engagement) refleja si se invierte de manera estable y continua en la interacción práctica, lo cual es un soporte clave para construir la confianza y los efectos posteriores. La influencia (Influence) es la retroalimentación de la reputación que se genera en la comunidad o red tras la participación, que indica la credibilidad del agente y el efecto de difusión. La capacidad monetaria (Monetary) evalúa si tiene la capacidad de acumulación de valor y estabilidad financiera en el sistema económico, sentando las bases para un mecanismo de incentivos sostenible. Finalmente, la tasa de adopción (Adoption) se utiliza como un reflejo integral, representando el grado de aceptación de este agente en el uso práctico, siendo la validación final de todas las capacidades y rendimientos previos.
Este sistema se desarrolla de manera jerárquica, con una estructura clara, capaz de reflejar de manera integral la calidad y el valor ecológico de los Agentes de IA, logrando así una evaluación cuantitativa del rendimiento y valor de la IA, transformando las abstracciones de ventajas y desventajas en un sistema de puntuación concreto y medible.
Actualmente, el marco SIGMA ha promovido la cooperación con redes de agentes de IA reconocidas como Virtual, Elisa OS y Swarm, mostrando su gran potencial de aplicación en la gestión de identidades de agentes de IA y la construcción de sistemas de reputación, convirtiéndose gradualmente en el motor central que impulsa la construcción de una infraestructura de IA confiable.
3.1.3 Protección de la identidad - Mecanismo de evaluación de confianza
En un sistema de IA verdaderamente resistente y de alta confianza, lo más crucial no es solo el establecimiento de la identidad, sino también la verificación continua de la identidad. Trusta.AI introduce un mecanismo de evaluación de confianza continua, que permite la supervisión en tiempo real de los agentes inteligentes ya certificados, para determinar si están siendo controlados ilegalmente, si han sufrido un ataque o si están siendo intervenidos por humanos no autorizados. El sistema identifica posibles desviaciones en el proceso de operación del agente mediante análisis de comportamiento y aprendizaje automático, asegurando que cada acción del agente se mantenga dentro de las políticas y marcos establecidos. Este enfoque proactivo garantiza la detección inmediata de cualquier desviación del comportamiento esperado y activa medidas de protección automáticas para mantener la integridad del agente.
Trusta.AI ha establecido un mecanismo de defensa seguro que está siempre en línea, revisando en tiempo real cada interacción y asegurando que todas las operaciones cumplan con las normas del sistema y las expectativas establecidas.
3.2 Introducción del producto
3.2.1 AgentGo
Trusta.AI asigna una identificación descentralizada (DID) a cada agente de IA en la cadena y los califica y indexa de manera confiable en función de los datos de comportamiento en la cadena, construyendo un sistema de confianza de agentes de IA que es verificable y rastreable. A través de este sistema, los usuarios pueden identificar y filtrar de manera eficiente agentes inteligentes de alta calidad.