【AI+NVDA】於GTC конференції NVIDIA повідомляється, що представить чип штучного інтелекту для логічного висновку. Чим він відрізняється від чипів Blackwell та Rubin?

robot
Генерація анотацій у процесі

Nvidia (US: NVDA, Nvidia) готується до проведення щорічної конференції GTC. За повідомленнями іноземних ЗМІ, генеральний директор Nvidia Дженсен Ху планує на цій конференції анонсувати чип, орієнтований на «виведення виведення» (інференс), який призначений для запуску моделей, а не для їх тренування.

Згідно з повідомленнями, це стане першим новим продуктом після того, як у грудні минулого року Nvidia уклала неексклюзивну ліцензійну угоду на технології вартістю 20 мільярдів доларів із стартапом у галузі AI-чипів Groq. Після приєднання засновників і ключової команди Groq до Nvidia, ця компанія представить перший продукт.

Groq відомий розробкою мовних процесорів (Language Processing Unit, LPU), здатних швидко реагувати на складні запити штучного інтелекту. Через три місяці після укладення угоди Nvidia планує випустити LPU, побудований на архітектурі Groq, у тандемі з майбутнім флагманським GPU Vera Rubin, щоб конкурувати з іншими гравцями та підтримувати частину лінійки нових AI-продуктів.

Згідно з повідомленнями, за останні три роки значну частину ринкової капіталізації Nvidia здобула завдяки тому, що її GPU стали основою для галузі генеративного штучного інтелекту, використовуваного для тренування моделей, таких як ChatGPT від OpenAI. Ху вважає, що одна система може одночасно використовуватися для тренування нових AI-моделей і для запуску чат-ботів та інструментів кодування, побудованих на цих моделях. Великі технологічні компанії вже інвестували сотні мільярдів доларів у розгортання таких систем, але одночасно вкладають у розробку власних спеціалізованих AI-чипів. Крім того, з ускладненням AI-інструментів, таких як агентські системи, Ху змушений відмовитися від ідеї, що «один GPU може обробляти будь-яке навантаження».

Новий інференсний чип базується на SRAM, а не на HBM-пам’яті

З іншого боку, через високу вартість та зростаючий дефіцит HBM-пам’яті, постачальники пам’яті, такі як SK Hynix і Micron, можуть не впоратися з попитом AI. Флагманські системи Nvidia, такі як Blackwell і Rubin, покладаються на високопродуктивну пам’ять з високою пропускною здатністю для обробки великих обсягів даних, що використовуються в AI-моделях.

За словами джерел, чип Nvidia, схожий на Groq, використовуватиме статичну оперативну пам’ять (SRAM) замість динамічної пам’яті (DRAM), яку застосовують у HBM. SRAM легше доступна і краще підходить для прискорення інференсних задач AI.

Nvidia не коментує цю інформацію.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити