Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Le cabinet d'avocats de premier plan admet des « hallucinations » de l'IA dans un dépôt de faillite lié à un réseau de fraude présumé
###En bref
Le cabinet Sullivan & Cromwell a reconnu devant un tribunal américain de faillite qu’une déclaration récente dans une affaire très médiatisée contenait des erreurs générées par intelligence artificielle, y compris des citations falsifiées. « Nous regrettons profondément que cela se soit produit », a écrit Andrew Dietderich, le responsable de la restructuration du cabinet, au juge Martin Glenn, en disant que le document comprenait des « hallucinations » de l’IA qui produisaient des autorités fictives et déformaient celles existantes. La divulgation est survenue dans une lettre au tribunal de faillite des États-Unis pour le district sud de New York, où le cabinet représente des liquidateurs nommés par le tribunal des îles Vierges britanniques. Les erreurs apparaissaient dans une requête du 9 avril et le cabinet a indiqué que ses règles concernant l’utilisation de l’IA n’avaient pas été respectées lors de la préparation.
L’affaire concerne les efforts de ces liquidateurs pour poursuivre des revendications liées à Prince Group et à son propriétaire, Chen Zhi. Les procureurs allèguent que Chen a dirigé des composés frauduleux ciblant des victimes dans le monde entier et ont cherché à récupérer des milliards de dollars en cryptomonnaie qu’ils disent être liés à cette activité. Il a été détenu plus tôt cette année au Cambodge puis rapatrié en Chine. Par le biais de procédures de chapitre 15 aux États-Unis, les liquidateurs cherchent à faire reconnaître leur autorité pour agir au nom des créanciers et des victimes présumées. Prince Group, incorporé dans les îles Vierges britanniques, a été lié par les autorités américaines à des opérations de fraude à grande échelle en Asie du Sud-Est et a été sanctionné par le Royaume-Uni et les États-Unis. Selon une soumission corrigée, la déclaration du 9 avril a mal cité la jurisprudence à plusieurs endroits et comprenait des citations qui ne soutenaient pas les propositions qui leur étaient attribuées, tandis que certaines semblaient n’avoir aucun fondement. Le cabinet a retiré la motion originale et a déposé une version révisée. Les avocats de Prince Group et de Chen chez Boies Schiller Flexner ont initialement identifié les erreurs. Ils ont dit que le langage attribué au Code de faillite des États-Unis ne pouvait pas être retrouvé et que plusieurs autorités étaient mal caractérisées ou mal identifiées. Dans un cas, ils ont dit qu’une décision citée faisait référence à une autre décision dans un autre circuit.
Dans une autre déclaration, les défendeurs ont dit qu’au moins 28 citations étaient erronées, y compris des citations attribuées à la cour qui n’existent pas. Ils ont soutenu que le moment de la correction était préjudiciable car la version révisée est arrivée après qu’ils aient soumis des objections, et ont demandé au tribunal de reporter une audience prévue et d’organiser une conférence de statut. Sullivan & Cromwell a indiqué que ses politiques exigent que les avocats suivent une formation avant d’utiliser des outils d’IA et qu’ils vérifient indépendamment toute sortie. « Avant qu’un avocat du cabinet n’ait accès aux outils d’IA générative, il doit suivre deux modules de formation obligatoires, dont la complétion est suivie et vérifiée. La formation insiste à plusieurs reprises sur le risque d’« hallucinations » de l’IA, y compris la fabrication de citations de cas, la mauvaise interprétation des autorités et des citations inexactes », a-t-il déclaré. « Elle instruit les avocats à « ne faire confiance à rien et tout vérifier » et précise que le fait de ne pas vérifier indépendamment la sortie générée par l’IA constitue une violation de la politique du cabinet. » Le cabinet a indiqué qu’un examen plus large avait révélé d’autres problèmes mineurs de rédaction dans d’autres dépôts, qu’il attribuait à une erreur humaine plutôt qu’à l’IA. Il n’a pas identifié les avocats qui ont préparé la motion originale. L’IA sur le banc L’incident s’ajoute à une liste croissante d’erreurs liées à l’IA dans la pratique juridique, alors que les cabinets testent des outils conçus pour accélérer la recherche et la rédaction. Récemment, des tribunaux ont sanctionné ou critiqué des avocats pour avoir soumis des dépôts avec des références fabriquées ou inexactes produites par l’IA. En Australie, un avocat a été privé de sa capacité à pratiquer en tant qu’avocat principal en raison de l’utilisation de l’IA l’année dernière. Les écoles de droit commencent à exiger une formation sur cette technologie, tandis que des juges supérieurs ont averti que la mauvaise utilisation pourrait affecter l’intégrité des procédures.
Des décisions récentes ont également abordé la façon dont l’IA s’intègre dans les cadres juridiques existants, notamment si les interactions avec de tels outils sont protégées par le privilège. Parallèlement, certains tribunaux expérimentent des systèmes d’IA pour aider à gérer de lourdes charges de cas.