Епоха AI-міркування: як Nvidia створює корону наступної хвилі обчислювальної потужності?

robot
Генерація анотацій у процесі

У часи GPT-3 модель з 175 мільярдами параметрів вже була гігантом; сьогодні ж моделі з трильйонами параметрів та гібридні експертні моделі стали нормою. Найбільша проблема індустрії ШІ — затримки при виведенні, стає наступним викликом для NVIDIA.

Філософія дизайну GPU, орієнтована на “пропускну здатність”, стикається з серйозними труднощами у сценаріях реального часу. Однак при обробці окремих запитів користувачів у режимі “невеликих пакетів та послідовного генерування” архітектура, що залежить від високопродуктивної пам’яті (HBM), спричиняє часті переміщення даних, що призводить до значних затримок і витрат енергії.

З’явлення LPU — це саме те, що потрібно для вирішення цієї фундаментальної архітектурної невідповідності.

Проаналізуйте складний ланцюг індустрії — які ключові елементи заслуговують нашої уваги у епоху виведення?

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити