HappyHorse анонімно піднявся на вершину AI відео сліпого тесту, Alibaba TaoTian і Sand.ai підозрюються

BlockBeatNews

За моніторингом 1M AI News, анонімна модель під назвою HappyHorse-1.0 минулого тижня посіла перше місце в рейтингу Video Arena платформи для оцінювання AI-відео Artificial Analysis, обійшовши суперників у двох лігах (категорії без звуку): у режимах текст-у-видео та зображення-у-видео одночасно. Seedance 2.0 відсунули на друге місце. У категоріях зі звуком Seedance 2.0 усе ще лідирує з незначною перевагою. Немає анонсів, немає технічного блогу, немає підпису компанії; станом на сьогодні ніхто публічно не взяв на себе відповідальність.

Рейтинг Video Arena ґрунтується на системі сліпих тестів Elo: користувачі, не знаючи ідентичності моделей, голосують за кращий варіант серед двох згенерованих відео. Час перебування HappyHorse у рейтингу коротший; обсяг порівнюваних зразків становить приблизно 3500 разів, що менше ніж удвічі від Seedance 2.0. Смуга довіри ширша (±12-13 пунктів), але в режимах без звуку різниця в лідерстві (текст-у-видео близько 76 пунктів, зображення-у-видео близько 48 пунктів) все одно значно перевищує межі похибки.

З огляду на порядок мов на офіційному сайті (китайська та кантонська стоять перед англійською) і на жарт «HappyHorse» у 2026 році Року Коня за китайським календарем, у спільноті вважають, що модель створена китайською командою. Є два основні поширені твердження:

  1. Кілька галузевих медіа стверджують, що модель створена майбутньою лабораторією майбутнього життя (Future Life Lab) групи Ali (Taotian), і що її очолює відповідальний керівник Чжан Ді. Раніше Чжан Ді був віцепрезидентом з технологій у Kuaishou. Починаючи з 2024 року він керував розробкою AI KuaLing, а в квітні 2025 року випустив KuaLing 2.0 у версії «Master», того ж року в листопаді повернувся до Ali
  2. Користувач X Vigo Zhao, послідовно зіставивши дані, виявив, що HappyHorse повністю збігається з daVinci-MagiHuman — відкритим кодом цього року в березні, який оприлюднила AI-відеостартап-компанія Sand.ai. Збігаються численні показники на різних бенчмарках, а структура офіційного сайту також дуже схожа. Sand.ai заснував Cao Yue — перший автор Swin Transformer; у спільноті його називають «DeepSeek у світі AI-відео»

На офіційному сайті HappyHorse показано, що модель має 15 млрд параметрів, 40 шарів self-attention Transformer, використовує архітектуру Transfusion (в межах однієї моделі уніфіковано обробляє текст шляхом autoregressive-передбачення та генерацію відео й аудіо шляхом дифузії), 8 кроків інференсу. Виводить відео у 1080p із синхронізованим аудіо, підтримує синхронізацію артикуляції для семи мов: китайської, англійської, японської, корейської, німецької, французької та кантонської. Повністю відкрита для доступу (open-source) і дозволяє комерційне використання.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів