La fusión de la IA y Web3: el surgimiento de la financiación de inteligencia artificial descentralizada y sus desafíos de seguridad
Recientemente, se llevó a cabo en Estambul un importante evento de blockchain centrado en la tendencia de fusión entre AI y Web3. Este evento se ha convertido en una plataforma importante para discutir los problemas de seguridad de Web3 este año. En dos mesas redondas, varios expertos de la industria llevaron a cabo discusiones profundas sobre el estado actual de la aplicación de la tecnología AI en el ámbito de las finanzas descentralizadas (DeFi) y los desafíos de seguridad.
Con el rápido desarrollo de los grandes modelos de lenguaje y los agentes de IA, está surgiendo un nuevo modelo financiero: la Finanzas de Inteligencia Artificial Descentralizada (DeFAI). Sin embargo, esta innovación también ha traído nuevos riesgos de seguridad y amenazas potenciales.
Un alto ejecutivo de una empresa de seguridad señaló: "Aunque DeFAI tiene un gran potencial, debemos reevaluar los mecanismos de confianza en los sistemas de Descentralización. A diferencia de los contratos inteligentes tradicionales, el proceso de toma de decisiones de los agentes de IA está influenciado por múltiples factores y es impredecible. Esto no solo aumenta el riesgo, sino que también ofrece oportunidades a posibles atacantes."
Los agentes de IA son, en esencia, entidades inteligentes que pueden tomar decisiones y ejecutar acciones de manera autónoma basándose en la lógica de IA, y suelen ser autorizados para operar por usuarios, protocolos o organizaciones autónomas descentralizadas (DAO). Entre ellos, los robots de trading de IA son el ejemplo más típico. Actualmente, la mayoría de los agentes de IA todavía funcionan en una arquitectura Web2, dependiendo de servidores centralizados y APIs, lo que los hace vulnerables a varios ataques, como ataques de inyección, manipulación de modelos o alteración de datos, entre otros. Una vez que un agente de IA es secuestrado, no solo podría causar pérdidas financieras, sino que también podría afectar la estabilidad de todo el protocolo.
Los expertos también discutieron un escenario típico de ataque: cuando el agente de trading de IA que utiliza un usuario de DeFi está monitoreando información en redes sociales como señales de trading, un atacante podría publicar alertas falsas, como "un protocolo está siendo atacado", para inducir al agente a iniciar de inmediato una liquidación de emergencia. Esto no solo podría resultar en pérdidas de activos para el usuario, sino que también podría provocar volatilidad en el mercado, que el atacante podría aprovechar para realizar trading anticipado.
Con respecto a estos riesgos, los expertos presentes coincidieron en que la seguridad de los agentes de IA debería ser una responsabilidad compartida entre los usuarios, los desarrolladores y las agencias de seguridad de terceros. Los usuarios deben comprender claramente el alcance de los permisos del agente, autorizar con cautela y prestar atención a las operaciones de alto riesgo. Los desarrolladores, por su parte, deben implementar medidas de defensa desde la fase de diseño, como refuerzo de palabras clave, aislamiento en sandbox, limitación de tasas y lógica de retroceso. Las agencias de seguridad de terceros deben proporcionar una revisión independiente del comportamiento del modelo de los agentes de IA, la infraestructura y la forma de integración en la cadena, y colaborar con todas las partes para identificar riesgos y proponer medidas de mitigación.
Un experto en seguridad advirtió: "Si seguimos considerando a los agentes de IA como una 'caja negra', los accidentes de seguridad en el mundo real son solo cuestión de tiempo." Sugirió a los desarrolladores que están explorando la dirección de DeFAI: "La lógica de comportamiento de los agentes de IA también se implementa mediante código. Dado que es código, existe la posibilidad de ser atacado, por lo que se necesita realizar auditorías de seguridad profesionales y pruebas de penetración."
Con el continuo desarrollo de la tecnología blockchain y la mejora gradual del entorno regulatorio, la fusión de la IA y Web3 seguirá profundizándose, pero al mismo tiempo también ha traído nuevos desafíos de seguridad. La industria necesita trabajar en conjunto para impulsar la innovación mientras se perfeccionan continuamente las medidas de seguridad, para asegurar el desarrollo saludable de DeFAI.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
15 me gusta
Recompensa
15
4
Compartir
Comentar
0/400
NervousFingers
· hace22h
Es tan complicado, no puedo jugar, no puedo jugar~
Ver originalesResponder0
ThatsNotARugPull
· hace22h
Cuanto más se cocina, más problemas de seguridad hay..
Ver originalesResponder0
TokenToaster
· hace22h
Solo es un título engañoso, los que entienden, entienden.
Ver originalesResponder0
ETHReserveBank
· hace22h
No dijeron nada y ya le echaron la culpa al usuario.
Fusión de AI y Web3: El surgimiento de DeFAI trae nuevos desafíos de seguridad
La fusión de la IA y Web3: el surgimiento de la financiación de inteligencia artificial descentralizada y sus desafíos de seguridad
Recientemente, se llevó a cabo en Estambul un importante evento de blockchain centrado en la tendencia de fusión entre AI y Web3. Este evento se ha convertido en una plataforma importante para discutir los problemas de seguridad de Web3 este año. En dos mesas redondas, varios expertos de la industria llevaron a cabo discusiones profundas sobre el estado actual de la aplicación de la tecnología AI en el ámbito de las finanzas descentralizadas (DeFi) y los desafíos de seguridad.
Con el rápido desarrollo de los grandes modelos de lenguaje y los agentes de IA, está surgiendo un nuevo modelo financiero: la Finanzas de Inteligencia Artificial Descentralizada (DeFAI). Sin embargo, esta innovación también ha traído nuevos riesgos de seguridad y amenazas potenciales.
Un alto ejecutivo de una empresa de seguridad señaló: "Aunque DeFAI tiene un gran potencial, debemos reevaluar los mecanismos de confianza en los sistemas de Descentralización. A diferencia de los contratos inteligentes tradicionales, el proceso de toma de decisiones de los agentes de IA está influenciado por múltiples factores y es impredecible. Esto no solo aumenta el riesgo, sino que también ofrece oportunidades a posibles atacantes."
Los agentes de IA son, en esencia, entidades inteligentes que pueden tomar decisiones y ejecutar acciones de manera autónoma basándose en la lógica de IA, y suelen ser autorizados para operar por usuarios, protocolos o organizaciones autónomas descentralizadas (DAO). Entre ellos, los robots de trading de IA son el ejemplo más típico. Actualmente, la mayoría de los agentes de IA todavía funcionan en una arquitectura Web2, dependiendo de servidores centralizados y APIs, lo que los hace vulnerables a varios ataques, como ataques de inyección, manipulación de modelos o alteración de datos, entre otros. Una vez que un agente de IA es secuestrado, no solo podría causar pérdidas financieras, sino que también podría afectar la estabilidad de todo el protocolo.
Los expertos también discutieron un escenario típico de ataque: cuando el agente de trading de IA que utiliza un usuario de DeFi está monitoreando información en redes sociales como señales de trading, un atacante podría publicar alertas falsas, como "un protocolo está siendo atacado", para inducir al agente a iniciar de inmediato una liquidación de emergencia. Esto no solo podría resultar en pérdidas de activos para el usuario, sino que también podría provocar volatilidad en el mercado, que el atacante podría aprovechar para realizar trading anticipado.
Con respecto a estos riesgos, los expertos presentes coincidieron en que la seguridad de los agentes de IA debería ser una responsabilidad compartida entre los usuarios, los desarrolladores y las agencias de seguridad de terceros. Los usuarios deben comprender claramente el alcance de los permisos del agente, autorizar con cautela y prestar atención a las operaciones de alto riesgo. Los desarrolladores, por su parte, deben implementar medidas de defensa desde la fase de diseño, como refuerzo de palabras clave, aislamiento en sandbox, limitación de tasas y lógica de retroceso. Las agencias de seguridad de terceros deben proporcionar una revisión independiente del comportamiento del modelo de los agentes de IA, la infraestructura y la forma de integración en la cadena, y colaborar con todas las partes para identificar riesgos y proponer medidas de mitigación.
Un experto en seguridad advirtió: "Si seguimos considerando a los agentes de IA como una 'caja negra', los accidentes de seguridad en el mundo real son solo cuestión de tiempo." Sugirió a los desarrolladores que están explorando la dirección de DeFAI: "La lógica de comportamiento de los agentes de IA también se implementa mediante código. Dado que es código, existe la posibilidad de ser atacado, por lo que se necesita realizar auditorías de seguridad profesionales y pruebas de penetración."
Con el continuo desarrollo de la tecnología blockchain y la mejora gradual del entorno regulatorio, la fusión de la IA y Web3 seguirá profundizándose, pero al mismo tiempo también ha traído nuevos desafíos de seguridad. La industria necesita trabajar en conjunto para impulsar la innovación mientras se perfeccionan continuamente las medidas de seguridad, para asegurar el desarrollo saludable de DeFAI.