Дані Jinshi 26 лютого повідомили, що з четвертого парадигми стало відомо, що четверта парадигма випустила рішення для розв'язання великих моделей AIoT ModelHub AIoT на боці інференції, користувачі можуть легко розгортати на боці малі моделі дистиляції, такі як DeepSeek R1, Qwen 2.5, Llama 2/3 тощо, і реалізувати автономну роботу. Користувачі можуть гнучко перемикатися між декількома моделями, враховуючи стиснення моделі, продуктивність інференції, вирішуючи складність розгортання та оптимізації. Компанія заявила, що це рішення не тільки задовольняє вимоги користувачів до конфіденційності та реального часу, але також значно знижує витрати на інференцію великих моделей AI.
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Четвертий парадигма випускає рішення для великих моделей на кшталт AIoT ModelHub для країни
Дані Jinshi 26 лютого повідомили, що з четвертого парадигми стало відомо, що четверта парадигма випустила рішення для розв'язання великих моделей AIoT ModelHub AIoT на боці інференції, користувачі можуть легко розгортати на боці малі моделі дистиляції, такі як DeepSeek R1, Qwen 2.5, Llama 2/3 тощо, і реалізувати автономну роботу. Користувачі можуть гнучко перемикатися між декількома моделями, враховуючи стиснення моделі, продуктивність інференції, вирішуючи складність розгортання та оптимізації. Компанія заявила, що це рішення не тільки задовольняє вимоги користувачів до конфіденційності та реального часу, але також значно знижує витрати на інференцію великих моделей AI.