За моніторингом 1M AI News, анонімна модель під назвою HappyHorse-1.0 минулого тижня посіла перше місце в рейтингу Video Arena платформи для оцінювання AI-відео Artificial Analysis, обійшовши суперників у двох лігах (категорії без звуку): у режимах текст-у-видео та зображення-у-видео одночасно. Seedance 2.0 відсунули на друге місце. У категоріях зі звуком Seedance 2.0 усе ще лідирує з незначною перевагою. Немає анонсів, немає технічного блогу, немає підпису компанії; станом на сьогодні ніхто публічно не взяв на себе відповідальність.
Рейтинг Video Arena ґрунтується на системі сліпих тестів Elo: користувачі, не знаючи ідентичності моделей, голосують за кращий варіант серед двох згенерованих відео. Час перебування HappyHorse у рейтингу коротший; обсяг порівнюваних зразків становить приблизно 3500 разів, що менше ніж удвічі від Seedance 2.0. Смуга довіри ширша (±12-13 пунктів), але в режимах без звуку різниця в лідерстві (текст-у-видео близько 76 пунктів, зображення-у-видео близько 48 пунктів) все одно значно перевищує межі похибки.
З огляду на порядок мов на офіційному сайті (китайська та кантонська стоять перед англійською) і на жарт «HappyHorse» у 2026 році Року Коня за китайським календарем, у спільноті вважають, що модель створена китайською командою. Є два основні поширені твердження:
На офіційному сайті HappyHorse показано, що модель має 15 млрд параметрів, 40 шарів self-attention Transformer, використовує архітектуру Transfusion (в межах однієї моделі уніфіковано обробляє текст шляхом autoregressive-передбачення та генерацію відео й аудіо шляхом дифузії), 8 кроків інференсу. Виводить відео у 1080p із синхронізованим аудіо, підтримує синхронізацію артикуляції для семи мов: китайської, англійської, японської, корейської, німецької, французької та кантонської. Повністю відкрита для доступу (open-source) і дозволяє комерційне використання.