Fusion de l'IA et du Web3 : l'essor de la finance décentralisée en intelligence artificielle et ses défis en matière de sécurité
Récemment, une importante conférence blockchain axée sur les tendances de la fusion de l'IA et du Web3 s'est tenue à Istanbul. Cet événement est devenu une plateforme importante pour discuter des problèmes de sécurité du Web3 cette année. Lors de deux tables rondes, plusieurs experts du secteur ont mené des discussions approfondies sur l'état actuel des applications de la technologie IA dans le secteur de la Décentralisation financière (DeFi) et sur les défis en matière de sécurité.
Avec le développement rapide des grands modèles de langage et des agents d'IA, un nouveau modèle financier - la Décentralisation de la Finance AI (DeFAI) - est en train de se former progressivement. Cependant, cette innovation a également apporté de nouveaux risques de sécurité et des menaces potentielles.
Un cadre d'une entreprise de sécurité a déclaré : "Bien que le DeFAI ait un potentiel considérable, nous devons réévaluer les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents traditionnels, le processus de décision des agents IA est influencé par divers facteurs et présente un caractère imprévisible. Cela augmente non seulement les risques, mais offre également des opportunités aux attaquants potentiels."
Les agents AI sont essentiellement des entités intelligentes capables de prendre des décisions autonomes et d'exécuter des actions basées sur la logique AI, généralement autorisées à fonctionner par des utilisateurs, des protocoles ou des organisations autonomes décentralisées (DAO). Parmi eux, les robots de trading AI en sont les représentants les plus typiques. Actuellement, la plupart des agents AI fonctionnent encore sur une architecture Web2, s'appuyant sur des serveurs centralisés et des API, ce qui les rend vulnérables à divers types d'attaques, telles que les attaques par injection, la manipulation de modèles ou la falsification de données. Une fois qu'un agent AI est détourné, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.
Les experts ont également discuté d'un scénario d'attaque typique : lorsque les agents de trading AI utilisés par les utilisateurs de DeFi surveillent les informations des réseaux sociaux comme signaux de trading, un attaquant pourrait publier de fausses alertes, telles que "un protocole subit une attaque", incitant l'agent à déclencher immédiatement une liquidation d'urgence. Cela pourrait non seulement entraîner des pertes d'actifs pour les utilisateurs, mais également provoquer des fluctuations de marché, que l'attaquant pourrait exploiter pour effectuer des transactions anticipées.
Concernant ces risques, les experts présents s'accordent à dire que la sécurité des agents IA devrait être une responsabilité partagée entre les utilisateurs, les développeurs et les agences de sécurité tierces. Les utilisateurs doivent être clairement informés de l'étendue des autorisations des agents, accorder des autorisations avec prudence, et surveiller de près les opérations à haut risque. Les développeurs devraient mettre en œuvre des mesures de défense dès la phase de conception, telles que le renforcement des invites, l'isolation en sandbox, la limitation des débits et des logiques de retour en arrière, etc. Les agences de sécurité tierces devraient fournir un examen indépendant du comportement des modèles d'agents IA, des infrastructures et des modalités d'intégration on-chain, et collaborer avec toutes les parties pour identifier les risques et proposer des mesures d'atténuation.
Un expert en sécurité a averti : "Si nous continuons à considérer les agents IA comme des 'boîtes noires', il ne s'agit que d'une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel." Il a conseillé aux développeurs explorant la direction DeFAI : "La logique comportementale des agents IA est également réalisée par du code. Puisqu'il s'agit de code, il y a une possibilité d'attaque, c'est pourquoi des audits de sécurité professionnels et des tests d'intrusion sont nécessaires."
Avec le développement continu de la technologie blockchain et l'amélioration progressive de l'environnement réglementaire, la fusion de l'IA et du Web3 continuera de s'approfondir, mais elle apporte également de nouveaux défis en matière de sécurité. L'industrie doit travailler ensemble pour promouvoir l'innovation tout en améliorant constamment les mesures de sécurité afin d'assurer un développement sain du DeFAI.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
15 J'aime
Récompense
15
4
Partager
Commentaire
0/400
NervousFingers
· Il y a 13h
C'est si compliqué, je ne peux pas jouer, je ne peux pas jouer~
Voir l'originalRépondre0
ThatsNotARugPull
· Il y a 13h
Plus on fait frémir, plus il y a de problèmes de sécurité..
Voir l'originalRépondre0
TokenToaster
· Il y a 13h
C'est juste un titre trompeur, ceux qui comprennent comprennent.
Voir l'originalRépondre0
ETHReserveBank
· Il y a 13h
Il n'a rien dit et a d'abord rejeté la responsabilité sur l'utilisateur.
Fusion de l'IA et du Web3 : L'émergence de DeFAI pose de nouveaux défis en matière de sécurité
Fusion de l'IA et du Web3 : l'essor de la finance décentralisée en intelligence artificielle et ses défis en matière de sécurité
Récemment, une importante conférence blockchain axée sur les tendances de la fusion de l'IA et du Web3 s'est tenue à Istanbul. Cet événement est devenu une plateforme importante pour discuter des problèmes de sécurité du Web3 cette année. Lors de deux tables rondes, plusieurs experts du secteur ont mené des discussions approfondies sur l'état actuel des applications de la technologie IA dans le secteur de la Décentralisation financière (DeFi) et sur les défis en matière de sécurité.
Avec le développement rapide des grands modèles de langage et des agents d'IA, un nouveau modèle financier - la Décentralisation de la Finance AI (DeFAI) - est en train de se former progressivement. Cependant, cette innovation a également apporté de nouveaux risques de sécurité et des menaces potentielles.
Un cadre d'une entreprise de sécurité a déclaré : "Bien que le DeFAI ait un potentiel considérable, nous devons réévaluer les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents traditionnels, le processus de décision des agents IA est influencé par divers facteurs et présente un caractère imprévisible. Cela augmente non seulement les risques, mais offre également des opportunités aux attaquants potentiels."
Les agents AI sont essentiellement des entités intelligentes capables de prendre des décisions autonomes et d'exécuter des actions basées sur la logique AI, généralement autorisées à fonctionner par des utilisateurs, des protocoles ou des organisations autonomes décentralisées (DAO). Parmi eux, les robots de trading AI en sont les représentants les plus typiques. Actuellement, la plupart des agents AI fonctionnent encore sur une architecture Web2, s'appuyant sur des serveurs centralisés et des API, ce qui les rend vulnérables à divers types d'attaques, telles que les attaques par injection, la manipulation de modèles ou la falsification de données. Une fois qu'un agent AI est détourné, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.
Les experts ont également discuté d'un scénario d'attaque typique : lorsque les agents de trading AI utilisés par les utilisateurs de DeFi surveillent les informations des réseaux sociaux comme signaux de trading, un attaquant pourrait publier de fausses alertes, telles que "un protocole subit une attaque", incitant l'agent à déclencher immédiatement une liquidation d'urgence. Cela pourrait non seulement entraîner des pertes d'actifs pour les utilisateurs, mais également provoquer des fluctuations de marché, que l'attaquant pourrait exploiter pour effectuer des transactions anticipées.
Concernant ces risques, les experts présents s'accordent à dire que la sécurité des agents IA devrait être une responsabilité partagée entre les utilisateurs, les développeurs et les agences de sécurité tierces. Les utilisateurs doivent être clairement informés de l'étendue des autorisations des agents, accorder des autorisations avec prudence, et surveiller de près les opérations à haut risque. Les développeurs devraient mettre en œuvre des mesures de défense dès la phase de conception, telles que le renforcement des invites, l'isolation en sandbox, la limitation des débits et des logiques de retour en arrière, etc. Les agences de sécurité tierces devraient fournir un examen indépendant du comportement des modèles d'agents IA, des infrastructures et des modalités d'intégration on-chain, et collaborer avec toutes les parties pour identifier les risques et proposer des mesures d'atténuation.
Un expert en sécurité a averti : "Si nous continuons à considérer les agents IA comme des 'boîtes noires', il ne s'agit que d'une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel." Il a conseillé aux développeurs explorant la direction DeFAI : "La logique comportementale des agents IA est également réalisée par du code. Puisqu'il s'agit de code, il y a une possibilité d'attaque, c'est pourquoi des audits de sécurité professionnels et des tests d'intrusion sont nécessaires."
Avec le développement continu de la technologie blockchain et l'amélioration progressive de l'environnement réglementaire, la fusion de l'IA et du Web3 continuera de s'approfondir, mais elle apporte également de nouveaux défis en matière de sécurité. L'industrie doit travailler ensemble pour promouvoir l'innovation tout en améliorant constamment les mesures de sécurité afin d'assurer un développement sain du DeFAI.