La plateforme BitNet LoRA de Tether permet la formation de modèles d’IA sur smartphones, GPU et appareils grand public.
Le système réduit la consommation de mémoire et améliore les performances, avec jusqu’à 77,8 % de VRAM en moins.
Les utilisateurs peuvent affiner des modèles jusqu’à 13 milliards de paramètres sur des appareils mobiles, élargissant les capacités de l’IA en périphérie.
Tether a annoncé une nouvelle plateforme d’IA via sa plateforme QVAC Fabric, permettant une formation BitNet LoRA multiplateforme sur des appareils grand public. La mise à jour permet aux modèles de milliards de paramètres de fonctionner sur smartphones et GPU. Le PDG Paolo Ardoino a partagé cette avancée, soulignant la réduction des coûts et un accès plus large aux outils d’IA.
La mise à jour QVAC Fabric introduit la prise en charge multiplateforme pour l’affinement BitNet LoRA. Cela permet aux modèles d’IA de fonctionner sur différents matériels et systèmes d’exploitation.
Notamment, le cadre supporte les GPU d’AMD, Intel et Apple, y compris les chipsets mobiles. Il utilise également Vulkan et Metal comme backend pour la compatibilité.
Selon Tether, c’est la première fois que BitNet LoRA fonctionne sur une gamme aussi large d’appareils. En conséquence, les utilisateurs peuvent entraîner des modèles sur du matériel courant.
Le système réduit les besoins en mémoire et en calcul en combinant les techniques BitNet et LoRA. BitNet compresse les poids du modèle en valeurs simplifiées, tandis que LoRA limite les paramètres entraînables.
Ensemble, ces méthodes réduisent considérablement les exigences matérielles. Par exemple, l’inférence GPU est deux à onze fois plus rapide que sur CPU sur des appareils mobiles.
De plus, l’utilisation de mémoire diminue fortement par rapport aux modèles en précision totale. Les benchmarks montrent jusqu’à 77,8 % de VRAM en moins par rapport à des systèmes comparables.
Tether a également démontré l’affinement sur smartphones. Des tests ont montré que des modèles de 125 millions de paramètres peuvent être entraînés en quelques minutes sur des appareils comme le Samsung S25.
Le cadre permet d’exécuter des modèles plus volumineux sur des appareils en périphérie. Tether a rapporté un affinement réussi de modèles jusqu’à 13 milliards de paramètres sur l’iPhone 16.
De plus, le système supporte des GPU mobiles tels qu’Adreno, Mali et Apple Bionic. Cela étend le développement d’IA au-delà du matériel spécialisé.
Selon Paolo Ardoino, le développement d’IA dépend souvent d’infrastructures coûteuses. Il a déclaré que ce cadre déplace les capacités vers les appareils locaux.
Tether a ajouté que le système réduit la dépendance aux plateformes centralisées. Il permet également aux utilisateurs d’entraîner et de traiter des données directement sur leurs appareils.
Articles similaires
Anchorage Digital dépose un commentaire sur le cadre réglementaire des stablecoins de la loi GENIUS
Les avoirs en or de Tether frôlent les 19,8 milliards de dollars après des achats de 6 tonnes au T1
Tether publie un bénéfice de 1,04 milliard de dollars au T1 alors que la réserve atteint un niveau record de 8,23 milliards de dollars
Tether publie un bénéfice de 1,04 milliard de dollars au T1, tandis que le coussin de trésorerie atteint un niveau record de 8,23 milliards de dollars
Le prêt de Tether vers la fiducie familiale de Lutnick : des sénateurs démocrates enquêtent sur des échanges entre politique et affaires