L'intégration de l'IA et de Web3 soulève de nouveaux défis de sécurité dans la Finance décentralisée. Les experts appellent à accorder une attention particulière à l'audit des agents IA.
Nouveaux défis de sécurité dans la tendance de fusion de l'IA et du Web3
Récemment, la Semaine de la Blockchain d'Istanbul (IBW 2025) s'est concentrée sur les tendances de la fusion de l'IA et du Web3, devenant ainsi une plateforme importante pour les discussions sur la sécurité du Web3 cette année. Au cours de l'événement, plusieurs experts du secteur ont engagé des discussions approfondies sur l'état actuel de l'application des technologies d'IA dans la finance décentralisée (DeFi) et les défis en matière de sécurité.
Avec le développement rapide des grands modèles de langage (LLM) et des agents IA, un nouveau paradigme financier émergent - la finance décentralisée basée sur l'intelligence artificielle (DeFAI) - est en train de se former. Cependant, cette transformation a également introduit de nouvelles surfaces d'attaque et des risques de sécurité.
Un cadre supérieur d'une entreprise de sécurité a déclaré : "Bien que DeFAI ait de grandes perspectives, il nous oblige également à réévaluer les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents basés sur une logique fixe, le processus de décision des agents AI est influencé par le contexte, le temps, et même les interactions historiques. Cette imprévisibilité non seulement accroît les risques, mais crée également des opportunités pour les attaquants."
Les agents IA sont essentiellement des entités intelligentes capables de prendre des décisions et d'exécuter des actions de manière autonome, basées sur la logique de l'IA, généralement autorisées par des utilisateurs, des protocoles ou des DAO. Parmi eux, le représentant le plus typique est le robot de trading IA. Actuellement, la plupart des agents IA fonctionnent sur une architecture Web2, s'appuyant sur des serveurs et des API centralisés, ce qui les rend vulnérables aux attaques par injection, à la manipulation de modèles ou à la falsification de données. Une fois détournés, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.
Les experts ont également discuté d'un scénario d'attaque typique : lorsque l'agent de trading AI d'un utilisateur DeFi surveille les messages sur les réseaux sociaux en tant que signaux de trading, un attaquant publie de fausses alertes, telles que "un certain protocole est attaqué", ce qui pourrait inciter l'agent à déclencher immédiatement une liquidation d'urgence. Cette opération peut non seulement entraîner des pertes d'actifs pour l'utilisateur, mais aussi provoquer des fluctuations du marché, que l'attaquant peut ensuite exploiter par le biais de transactions anticipées (Front Running).
Concernant ces risques, les experts présents estiment généralement que la sécurité des agents IA ne devrait pas être la seule responsabilité d'une partie, mais plutôt une responsabilité partagée entre les utilisateurs, les développeurs et les agences de sécurité tierces.
Les utilisateurs doivent être clairs sur l'étendue des droits détenus par l'agent et accorder les permissions avec prudence, tout en prêtant attention à l'examen des opérations à haut risque de l'agent AI. Les développeurs doivent mettre en œuvre des mesures de défense dès la phase de conception, telles que : le renforcement des invites, l'isolation en bac à sable, la limitation de la fréquence et la logique de retour en arrière, etc. Les entreprises de sécurité tierces doivent fournir un examen indépendant du comportement du modèle de l'agent AI, de l'infrastructure et des méthodes d'intégration en chaîne, et collaborer avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.
Un expert en sécurité a averti : "Si nous continuons à considérer les agents IA comme une 'boîte noire', il n'est qu'une question de temps avant qu'un incident de sécurité ne se produise dans le monde réel." Pour les développeurs qui explorent la direction DeFAI, il a suggéré : "Tout comme pour les contrats intelligents, la logique comportementale des agents IA est également réalisée par le code. Puisqu'il s'agit de code, il y a un risque d'attaque, c'est pourquoi des audits de sécurité professionnels et des tests d'intrusion sont nécessaires."
En tant que l'un des événements blockchain les plus influents d'Europe, l'IBW a attiré plus de 15 000 participants dans le monde entier, y compris des développeurs, des promoteurs de projets, des investisseurs et des régulateurs. Cette année, avec le lancement officiel par la Commission des marchés de capitaux de Turquie (CMB) de l'émission de licences pour des projets blockchain, la position de l'IBW dans l'industrie a été renforcée.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
8
Partager
Commentaire
0/400
AllInAlice
· Il y a 14h
J'ai l'impression que tant qu'il s'agit d'un projet d'IA, ça fonctionne.
Voir l'originalRépondre0
AirdropSweaterFan
· 08-06 08:26
Fioritures, mais ne peut pas retirer.
Voir l'originalRépondre0
AltcoinOracle
· 08-06 07:21
fascinant... mon analyse propriétaire montre une corrélation de 87,4 % entre les vulnérabilités defai et les modèles de commerce de la Mésopotamie ancienne à vrai dire
Voir l'originalRépondre0
LootboxPhobia
· 08-06 07:19
Ça commence mal, on s'enfonce dans le trou.
Voir l'originalRépondre0
BridgeTrustFund
· 08-06 07:17
La sécurité est toujours axée sur le portefeuille.
Voir l'originalRépondre0
ChainWallflower
· 08-06 07:16
Ce n'est pas si compliqué, qui sait ce qu'il faut éviter~
Voir l'originalRépondre0
SchroedingerMiner
· 08-06 07:15
Ne vous laissez pas influencer par ces experts qui racontent n'importe quoi, mon Rig de minage n'a jamais eu de problème.
Voir l'originalRépondre0
PaperHandsCriminal
· 08-06 07:01
prendre les gens pour des idiots depuis des années et je continue à jouer, je suis destiné à attendre de fermer toutes les positions.
L'intégration de l'IA et de Web3 soulève de nouveaux défis de sécurité dans la Finance décentralisée. Les experts appellent à accorder une attention particulière à l'audit des agents IA.
Nouveaux défis de sécurité dans la tendance de fusion de l'IA et du Web3
Récemment, la Semaine de la Blockchain d'Istanbul (IBW 2025) s'est concentrée sur les tendances de la fusion de l'IA et du Web3, devenant ainsi une plateforme importante pour les discussions sur la sécurité du Web3 cette année. Au cours de l'événement, plusieurs experts du secteur ont engagé des discussions approfondies sur l'état actuel de l'application des technologies d'IA dans la finance décentralisée (DeFi) et les défis en matière de sécurité.
Avec le développement rapide des grands modèles de langage (LLM) et des agents IA, un nouveau paradigme financier émergent - la finance décentralisée basée sur l'intelligence artificielle (DeFAI) - est en train de se former. Cependant, cette transformation a également introduit de nouvelles surfaces d'attaque et des risques de sécurité.
Un cadre supérieur d'une entreprise de sécurité a déclaré : "Bien que DeFAI ait de grandes perspectives, il nous oblige également à réévaluer les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents basés sur une logique fixe, le processus de décision des agents AI est influencé par le contexte, le temps, et même les interactions historiques. Cette imprévisibilité non seulement accroît les risques, mais crée également des opportunités pour les attaquants."
Les agents IA sont essentiellement des entités intelligentes capables de prendre des décisions et d'exécuter des actions de manière autonome, basées sur la logique de l'IA, généralement autorisées par des utilisateurs, des protocoles ou des DAO. Parmi eux, le représentant le plus typique est le robot de trading IA. Actuellement, la plupart des agents IA fonctionnent sur une architecture Web2, s'appuyant sur des serveurs et des API centralisés, ce qui les rend vulnérables aux attaques par injection, à la manipulation de modèles ou à la falsification de données. Une fois détournés, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.
Les experts ont également discuté d'un scénario d'attaque typique : lorsque l'agent de trading AI d'un utilisateur DeFi surveille les messages sur les réseaux sociaux en tant que signaux de trading, un attaquant publie de fausses alertes, telles que "un certain protocole est attaqué", ce qui pourrait inciter l'agent à déclencher immédiatement une liquidation d'urgence. Cette opération peut non seulement entraîner des pertes d'actifs pour l'utilisateur, mais aussi provoquer des fluctuations du marché, que l'attaquant peut ensuite exploiter par le biais de transactions anticipées (Front Running).
Concernant ces risques, les experts présents estiment généralement que la sécurité des agents IA ne devrait pas être la seule responsabilité d'une partie, mais plutôt une responsabilité partagée entre les utilisateurs, les développeurs et les agences de sécurité tierces.
Les utilisateurs doivent être clairs sur l'étendue des droits détenus par l'agent et accorder les permissions avec prudence, tout en prêtant attention à l'examen des opérations à haut risque de l'agent AI. Les développeurs doivent mettre en œuvre des mesures de défense dès la phase de conception, telles que : le renforcement des invites, l'isolation en bac à sable, la limitation de la fréquence et la logique de retour en arrière, etc. Les entreprises de sécurité tierces doivent fournir un examen indépendant du comportement du modèle de l'agent AI, de l'infrastructure et des méthodes d'intégration en chaîne, et collaborer avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.
Un expert en sécurité a averti : "Si nous continuons à considérer les agents IA comme une 'boîte noire', il n'est qu'une question de temps avant qu'un incident de sécurité ne se produise dans le monde réel." Pour les développeurs qui explorent la direction DeFAI, il a suggéré : "Tout comme pour les contrats intelligents, la logique comportementale des agents IA est également réalisée par le code. Puisqu'il s'agit de code, il y a un risque d'attaque, c'est pourquoi des audits de sécurité professionnels et des tests d'intrusion sont nécessaires."
En tant que l'un des événements blockchain les plus influents d'Europe, l'IBW a attiré plus de 15 000 participants dans le monde entier, y compris des développeurs, des promoteurs de projets, des investisseurs et des régulateurs. Cette année, avec le lancement officiel par la Commission des marchés de capitaux de Turquie (CMB) de l'émission de licences pour des projets blockchain, la position de l'IBW dans l'industrie a été renforcée.