Обучение ИИ — это то, где становится интересно, особенно для распределенных обучающих сетей, они обучают модели, которые меньше, чем графические процессоры, на которых они обучаются. Большинство сетей проводят обучение моделей 1,5B, 3B и 8B, чтобы они помещались на потребительские графические процессоры.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
16 Лайков
Награда
16
5
Поделиться
комментарий
0/400
GamefiEscapeArtist
· 23ч назад
Эта конфигурация параметров вызывает головную боль.
Посмотреть ОригиналОтветить0
TokenStorm
· 07-27 12:20
1.5B тоже считается обучением? Коэффициент колебаний слишком высок при небольшом объеме данных.
Посмотреть ОригиналОтветить0
DeFiCaffeinator
· 07-27 12:16
Теперь уже ватт?
Посмотреть ОригиналОтветить0
SchrodingerGas
· 07-27 12:10
Забавная эффективность явно ниже оптимального парето-равновесия.
Посмотреть ОригиналОтветить0
AirdropHustler
· 07-27 12:05
Эй, никто не жалуется, что GPU слишком большой, верно?
Обучение ИИ — это то, где становится интересно, особенно для распределенных обучающих сетей, они обучают модели, которые меньше, чем графические процессоры, на которых они обучаются. Большинство сетей проводят обучение моделей 1,5B, 3B и 8B, чтобы они помещались на потребительские графические процессоры.