Результаты поиска для "QWEN"
23:03

Hugging Face Открытый исходный код顶级模型

Данные Jin10 9 июля, сегодня ночью, всемирно известная платформа открытого исходного кода для больших моделей Hugging Face открыла новый топовый малопараметрический модель SmolLM3. SmolLM3 имеет всего 3 миллиарда параметров, но его производительность значительно превосходит такие аналогичные открытые модели, как Llama-3.2-3B и Qwen2.5-3B. Имеет окно контекста 128k и поддерживает 6 языков: английский, французский, испанский, немецкий и другие. Поддерживает режимы глубокого мышления и немышления, пользователи могут гибко переключаться.
Больше
B-2.89%
10:01

Алибаба сказал k, что будет обновление

QwQ-Max скоро будет выпущен в официальной версии под лицензией Apache 2.0, включая открытый исходный код QwQ-Max и Qwen2.5-Max, а также предоставляя более компактные версии, такие как QwQ-32B, которые могут быть развернуты на локальных устройствах. Параллельно с выпуском официальной версии QwQ-Max также будут выпущены приложения для Android и iOS.
Больше
APP-0.45%
04:11

Команда Qwen от Alibaba представляет новую модель QwQ, которая покажет полную цепочку мыслей

Данные Jinshi 25 февраля сообщают, что команда Qwen Alibaba сегодня утром объявила в социальных сетях о выпуске новой модели вывода - Глубокое мышление (QwQ). Это модель вывода, основанная на Qwen2.5-Max, поддерживаемая QWQ-MAX-PREVIEW. Blue Whale News обнаружила, что аналогично DeepSeek
Больше
  • 2
  • 1
09:02

Loongson Zhongke: Процессор Loongson успешно запустил большую модель DeepSeek

Компания Loongson Zhongke успешно запустила модель DeepSeek R1 7B, оснащенную процессором Loongson No. 3, который обеспечивает локализованное развертывание с отличной производительностью и стоимостью, а также предоставит пользователям более быстрый, мощный и экономичный опыт обучения. Loongson работает с такими партнерами, как Taichu Yuanqi, Cambrian, Tiantian Zhixin, Computing Energy Technology, openEuler и т.д., чтобы создать платформу многоформного логического вывода для моделей серии DeepSeek.
Больше
  • 1
13:10

Цзинвэй Хэнжун: Компания развернула DeepSeek и Qwen

Jingwei Hengrun использует большие модели, такие как DeepSeek и Qwen, для разработки профессиональных приложений искусственного интеллекта, охватывающих множество областей, таких как интеллектуальная помощь, проектирование, тестирование, оптимизация продуктов и аналитика бизнес-процессов. Эти приложения повышают эффективность и качество работы и снижают затраты.
Больше
  • 3
  • 1
04:19
29 апреля компания Golden Ten Data сообщила, что компания Tongyi K Man впервые запустила модель параметров книнга Qwen1.5-110B, показав отличные результаты в самых длительных тестовых оценках, таких как MMLU, TheoremCA и GPQA. В настоящее время серия Qwen 1.5 накопила 10 больших моделей с открытым исходным кодом, а количество загрузок моделей Tongyi K с открытым исходным кодом превысило 7 миллионов.
23:02
Информационное агентство Jinse сообщает, что команда Али Qwen официально представила свои последние исследовательские результаты - крупнейшую языковую модель QwQ-32B, которая с помощью обучения с подкреплением достигла прорыва в производительности при объеме параметров всего лишь 1/21 DeepSeek-R1.
  • 1
  • 1
12:16

Четвертый парадигмы запускает решение для краевого вывода крупных моделей ModelHub AIoT

26 февраля Golden Ten Data узнала от 4Paradigm, что 4Paradigm запустила ModelHub AIoT, конечное решение для вывода крупномасштабных моделей, которое позволяет пользователям легко развертывать малогабаритные модели дистилляции, включая DeepSeek R1, Qwen 2.5, серию Llama 2/3 и т. д., на стороне устройства и осуществлять автономную работу. Пользователи могут гибко переключаться между несколькими моделями, принимая во внимание производительность сжатия и вывода моделей, а также решая сложность развертывания и оптимизации. По словам компании, это решение может не только удовлетворить потребности пользователей в конфиденциальности и режиме реального времени, но и значительно снизить стоимость вывода больших моделей ИИ.
Больше
09:58

Четвертая парадигма представляет решение интегрированного оборудования для больших моделей SageOne IA

Четвертая парадигма представляет интегрированный инференсный образец больших моделей SageOneIA, снижение стоимости инференции больших моделей. Технология пулования интеллектуальной вычислительной мощности интегрирована в решение одной машины, поддерживает несколько основных больших моделей, предприятие может переключаться между полным и дистиллированным моделями, увеличивая использование GPU на 30% и улучшая инференсную производительность в 5-10 раз.
Больше
11:29

Подключение DeepSeek к международному сайту AliExpress

Данные Jin10 на 12 февраля сообщают, что искусственный интеллект AliExpress уже подключен к большим моделям, таким как DeepSeek, и будет полностью применяться во всех ключевых сферах внешней торговли. После подключения искусственный интеллект будет более всесторонне учитывать намерения иностранных покупателей при автоматическом обслуживании, затем проводить Глубина рассмотрение на основе анализа рынка, опыта внешней торговли и конкретной ситуации товаров продавцов на AliExpress. Также известно, что AliExpress также тестирует универсальные вопросы Qwen
Больше
23:46

Майкрософт Открытый исходный код инновационной платформы: можно превратить DeepSeek в AI Agent

Майкрософт выпустил новую версию OmniParser V2.0, улучшив эффективность и точность искусственного интеллекта на компьютере, особенно в обнаружении мелких элементов пользовательского интерфейса и улучшении скорости рассуждений. Эта версия также значительно улучшила показатели в тестах Бенчмарк высокого разрешения Agent, достигнув удивительной точности 39.6%. Кроме того, Майкрософт также открыл исходный код ключевого инструмента omnitool для преобразования крупных моделей в Agent.
Больше
AGENT1.81%
GPT-13.33%
  • 2
  • 4

Популярные темы

Больше

Крипто-календарь

Больше
Предстоящие активности
GOAT Network Global Tour пройдет 31 июля в 14:00 в Чэнду с темой «Поиск устойчивых путей получения дохода на основе BTC».
2025-07-31
Обновления управления для Сезона 8
Оптимизм раскрыл предстоящие изменения в управлении для Сезона 8, которые вступят в силу 1 августа. Коррективы основаны на принципах политической науки и корпоративного управления, уточненных за три года экспериментов в экосистеме. Цель состоит в том, чтобы построить более устойчивую и инклюзивную Суперцепь. Ключевые компоненты включают Токен Хаус, Гражданский Хаус, механизмы Оптимистического Одобрения и введение Динамического Вето.
2025-07-31
Wafebox прекращает обслуживание
"Мультиподписная платформа Wafebox на ETHW официально закроется... в 12:00 по тихоокеанскому времени."
2025-07-31
Кампания GameJam
Phantasma объявила о начале своего предстоящего GameJam, который запланирован на 1 августа. Мероприятие открыто как для индивидуальных разработчиков, так и для гильдий, что способствует инновациям в блокчейн-играх. Призовой фонд превышает 100,000 SOUL; дополнительные детали будут раскрыты в ближайшее время.
2025-07-31
Срок миграции OMI на Base через StackR
ECOMI объявила, что держатели OMI должны мигрировать свои токены из кошельков VeVe на IMX в кошельки StackR на Base до 1 августа. После окончания срока миграции немигрированные токены больше не будут eligible для ежедневных и сезонных наград. Мигрировавшие пользователи получат преимущества полного самообслуживания, автоматических наград, спонсорства платы за газ от StackR и возможность приобретать коллекционные предметы VeVe на рынке StackR.
2025-07-31