Перетворення меж обчислювання: Поточна ситуація та перспективи децентралізованої обчислювальної потужності

Середній1/4/2024, 5:09:37 PM
З розвитком штучного інтелекту та інших галузей багато галузей зазнають великих змін в основній логіці, обчислювальна потужність підніметься на більш важливу позицію, а також різні аспекти, пов'язані з цим, також викличуть широке дослідження в галузі. Децентралізовані мережі обчислювальної потужності мають свої власні переваги можуть зменшити ризик централізації і також можуть слугувати як доповнення до централізованої обчислювальної потужності.

Обчислювальна потужність вимагається

З моменту виходу фільму "Аватар" в 2009 році відбулася перша битва 3D-фільмів з неперевершеними реальними зображеннями. Як великий сприяючий за цим, Weta Digital внесла великий внесок у візуальні ефекти рендерингу цілого фільму. У своєму серверному фермі розміром 10 000 квадратних футів у Новій Зеландії його комп'ютерний кластер обробляв до 1,4 мільйона завдань на день і обробляв 8 ГБ даних на секунду. Навіть за таких умов він продовжував працювати понад місяць, перш ніж всі рендеринги були завершені. Робота.

З великомасштабним розгортанням машин та інвестиціями, фільм «Аватар» досяг вражаючих досягнень в історії кіно.

3 січня того ж року Сатосі Накамото добув генезис-блок Bitcoin на невеликому сервері в Гельсінкі, Фінляндія, і отримав блокову винагороду у розмірі 50 BTC. З першого дня криптовалюти обчислювальна потужність відігравала дуже важливу роль в індустрії.

Найдовший ланцюг служить не лише доказом послідовності подій, які були свідками, але й доказом того, що він походить від найбільшого пула обчислювальної потужності ЦП.

—— Біткойн Білий папір

У контексті механізму консенсусу PoW внесок обчислювальних потужностей забезпечує гарантію безпеки ланцюга. У той же час, хешрейт, що постійно зростає, також може свідчити про постійні інвестиції майнерів в обчислювальні потужності та позитивні очікування щодо доходу. Реальний попит галузі на обчислювальні потужності також значною мірою сприяв розвитку виробників мікросхем. Мікросхеми майнінгових машин пройшли такі стадії розробки, як CPU, GPU, FPGA та ASIC. В даний час машини для майнінгу біткойнів зазвичай є чіпами на основі технології ASIC (Application Specific Ingrated Circuit), які можуть ефективно виконувати певні алгоритми, такі як SHA-256. Величезні економічні вигоди, принесені біткойном, також підвищили попит на обчислювальні потужності в пов'язаному майнінгу. Однак надмірно спеціалізоване обладнання та кластерні ефекти спричинили ефект сифона серед власних учасників, будь то майнери чи виробники гірничодобувних машин. Всі вони демонструють тенденцію капіталомісткого концентрованого розвитку.

З появою смарт-контрактів Ethereum його програмованість, компонування та інші функції сформували широкий спектр застосувань, особливо в галузі DeFi, що призвело до зростання ціни ETH на всьому шляху, поки він все ще перебуває в консенсусі PoW Складність майнінгу Ethereum на цьому етапі також зростає. Вимоги майнерів до обчислювальної потужності для майнінгових машин Ethereum також зростають з кожним днем. Однак, на відміну від Bitcoin, який використовує чіпи ASIC, Ethereum потребує використання графічного процесора (GPU) для розрахунків майнінгу, наприклад, серія Nvidia RTX. Таким чином, він більше підходить для участі загального обчислювального обладнання. Це навіть спровокувало ринкову конкуренцію за графічні процесори, що призвело до того, що високоякісних відеокарт на ринку не було в наявності.

Коли nastała 30 листопада 2022 року, ChatGPT, розроблений OpenAI, також продемонстрував епохальне значення в галузі штучного інтелекту. Користувачі захоплювалися новим досвідом, який приніс ChatGPT, який може виконувати різноманітні завдання, запропоновані користувачем на основі контексту, як справжня людина. У новій версії, випущеній у вересні цього року, генеративний ШІ, який додає багатомодальні функції, такі як голос та зображення, приніс досвід користувачам на новий рівень.

Проте відповідно GPT4 має понад один трильйон параметрів, які беруть участь у передварительному навчанні моделі та подальшому налаштуванні. Це дві частини з найбільшим попитом на обчислювальну потужність у галузі штучного інтелекту. У фазі передварительного навчання вивчається велика кількість тексту, щоб оволодіти мовними шаблонами, граматикою та пов'язаним контекстом. Це дозволяє йому розуміти мовні шаблони для генерації послідовного та контекстуального тексту на основі введеного. Після передварительного навчання GPT4 налаштовується для кращого адаптування до конкретних типів вмісту або стилів та покращення продуктивності та спеціалізації в конкретних сценаріях попиту.

Оскільки архітектура Transformer, яку використовує GPT, включає механізм самоуваги, цей механізм дозволяє моделі одночасно звертати увагу на відносини між різними частинами послідовності при обробці вхідної послідовності. Тому попит на обчислювальну потужність різко зріс. Особливо при обробці довгих послідовностей потрібна велика кількість паралельних обчислень та зберігання великої кількості балів уваги, що також потребує великої кількості пам'яті та можливостей передачі даних високої швидкості. Поточні LLM з такою ж архітектурою мають великий попит на високопродуктивні GPU, що також свідчить про те, що витрати на інвестиції в галузі штучного інтелекту на великі моделі є великими. За оцінками відповідного SemiAnalysis, вартість навчання моделі GPT4 становить до $63 мільйонів. Для досягнення хорошого інтерактивного досвіду GPT4 також потребує великої обчислювальної потужності в щоденній діяльності для підтримки щоденних операцій.

Класифікація обчислювального обладнання

Тут нам потрібно зрозуміти поточні основні типи апаратного забезпечення обчислювальної потужності. Які сценарії вимог до обчислювальної потужності можуть бути оброблені відповідно процесором, графічним процесором (GPU), ППЛ та ASIC.

• З архітектурної схеми CPU та GPU випливає, що GPU містить більше ядер, що дозволяє GPU обробляти кілька обчислювальних завдань одночасно. Паралельне обчислення має більш потужні обчислювальні можливості та підходить для обробки великої кількості обчислювальних завдань, тому в галузях машинного навчання та глибокого навчання воно широко застосовується. CPU має менше кількість ядер і підходить для обробки одного складного обчислення або послідовного завдання більш інтенсивно, але воно не так ефективне, як GPU при обробці паралельних обчислювальних завдань. При рендерингу та обчисленнях нейронних мереж зазвичай потрібно обробляти велику кількість повторюваних обчислень та паралельних обчислень, тому GPU є більш ефективним та підходить для цього аспекту, ніж CPU.

• FPGA (Field Programmable Gate Array) - це напів-застосований логічний масив, що програмується на місці, у сфері спеціалізованої інтегральної схеми (ASIC). Масив складається з великої кількості невеликих обчислювальних блоків, FPGA можна розглядати як програмовану інтегральну мікросхему цифрової логіки. Поточне застосування головним чином зосереджене на апаратному прискоренні, а інші завдання все ще виконуються на ЦП, дозволяючи FPGA та ЦП працювати разом.

• ASIC (Application Specific Integrated Circuit) - це інтегральна схема, розроблена для задоволення конкретних вимог користувача та потреб конкретних електронних систем. Порівняно з універсальними інтегральними схемами, у ASIC є переваги у вигляді менших розмірів, меншого споживання енергії, покращеної надійності, підвищеної продуктивності, підвищеної конфіденційності та знижених витрат під час масового виробництва. Тому в внутрішньому сценарії майнінгу Bitcoin, де потрібно виконувати лише конкретні обчислювальні завдання, ASIC є найбільш підходящим. Google також запустив TPU (Tensor Processing Unit), спеціально розроблену для машинного навчання як тип ASIC, але наразі в основному надає послуги оренди обчислювальної потужності через Google Cloud.

• ASIC У порівнянні з FPGA, ASIC є інтегральною схемою для конкретного застосування, і інтегральна схема фіксується після завершення проектування. FPGA інтегрує в масив велику кількість основних цифрових схем вентилів і пам'яті. Розробники можуть визначити схему, запрограмувавши конфігурацію FPGA, і це програмування можна замінити. Однак, враховуючи поточну швидкість оновлення у сфері штучного інтелекту, кастомізовані або напівкастомізовані чіпи не можна вчасно налаштувати та переналаштувати для виконання різних завдань або адаптації до нових алгоритмів. Тому загальна адаптивність і гнучкість графічного процесора роблять його блискучим у сфері штучного інтелекту. Великі виробники графічних процесорів також внесли відповідні оптимізації для адаптації графічних процесорів у сфері штучного інтелекту. На прикладі Nvidia вона випустила графічні процесори серії Tesla та архітектури Ampere, розроблені спеціально для глибокого навчання. Це апаратне забезпечення містить апаратні блоки (тензорні ядра), оптимізовані для машинного навчання та обчислень глибокого навчання, які дозволяють графічному процесору працювати ефективніше та ефективніше. Низьке енергоспоживання для здійснення прямого і зворотного поширення нейронних мереж. Крім того, для підтримки розробки ШІ надається широкий спектр інструментів і бібліотек, таких як CUDA (Compute Unified Device Architecture), щоб допомогти розробникам використовувати графічні процесори для паралельних обчислень загального призначення.

Децентралізована обчислювальна потужність

Децентралізована обчислювальна потужність означає метод надання потужності обробки за допомогою розподілених обчислювальних ресурсів. Цей децентралізований підхід зазвичай поєднується з технологією блокчейну або подібною технологією розподіленого реєстру для об'єднання простою обчислювальної потужності та розподілу її користувачам, які потребують досягнення спільного використання ресурсів, транзакцій та управління.

Фон

• Великий попит на обчислювальне обладнання. Процвітання творчої економіки перетворило обробку цифрових медіа в епоху універсального створення. Зросла потреба в обробці візуальних ефектів, і з'явилися спеціалізовані студії підсилення обробки, хмарні платформи для обробки та інші форми. Однак для такого підходу також потрібно вкладати значні кошти у початкове закупівлю обладнання для обчислювальної потужності.

• Апаратна потужність обчислення постачається з одного джерела. Розвиток галузі штучного інтелекту збільшив попит на обчислювальне обладнання. Провідні компанії з виробництва графічних процесорів у світі, очолювані Nvidia, заробили багато грошей у цьому змаганні за обчислювальну потужність штучного інтелекту. Їх потужність постачання навіть стала ключовим фактором, який може обмежувати розвиток певної галузі. Ринкова вартість Nvidia також вперше перевищила один трильйон доларів у цьому році.

• Надання обчислювальної потужності все ще головним чином ґрунтується на централізованих хмарних платформах. Те, що дійсно користується підйомом попиту на високопродуктивні обчислення - це централізовані хмарні постачальники, яких представляє AWS. Вони запустили послуги хмарних обчислень на базі GPU. На прикладі поточного AWS p4d.24xlarge можна відзначити, що оренда одного такого HPC-сервера, спеціалізованого на машинному навчанні, з восьмома Nvidia A100 40 ГБ GPU, коштує 32,8 долара США за годину, а її валовий прибуток оцінюється в 61%. Це також привело до того, що інші великі хмарні гіганти поспішають приєднатися та запасають апаратне забезпечення, щоб здобути якомога більше переваг на початкових етапах розвитку галузі.

• Політичні, людські втручання та інші фактори призводять до нерівномірного розвитку галузі. Дисбаланс. Не важко помітити, що власність та концентрація ГПУ більше нахилена до організацій та країн з великими фінансовими ресурсами та технологіями та залежить від високопродуктивних обчислювальних кластерів. Це призвело до того, що сили виробників мікросхем та напівпровідників, які представлені Сполученими Штатами, також впроваджують більш суворі обмеження на експорт штучних інтелектуальних мікросхем, щоб послабити дослідницькі можливості інших країн у сфері загального штучного інтелекту.

• Розподіл обчислювальних ресурсів занадто концентрований. Ініціатива розвитку в галузі штучного інтелекту перебуває в руках кількох гігантських компаній. На даний момент гіганти, які представлені OpenAI, мають благословення від Microsoft, а за ними стоять багаті обчислювальні ресурси, надані Microsoft Azure. Це робить кожне нове випуск продукції OpenAI перетворенням та інтеграцією поточної галузі штучного інтелекту, ускладнюючи для інших команд доганути в галузі великих моделей.

Таким чином, перед високими витратами на обладнання, географічними обмеженнями та нерівномірним розвитком промисловості, чи існують інші рішення?

Децентралізована платформа обчислювальної потужності виникла відповідно до вимог часу. Мета платформи полягає в створенні відкритого, прозорого та саморегулюючого ринку для більш ефективного використання глобальних обчислювальних ресурсів.

адаптивний аналіз

  1. Децентралізована обчислювальна потужність постачальника

Поточні високі ціни на апаратне забезпечення та штучний контроль з боку постачальника створили ґрунт для будівництва децентралізованих мереж обчислювальної потужності.

• З точки зору складу децентралізованих обчислювальних потужностей, різні постачальники обчислювальної потужності варіюються від персональних ПК до невеликих Інтернету речей Обладнання таке ж велике, як центри обробки даних, IDC і т.д., а накопичена обчислювальна потужність може забезпечити більш гнучкі та масштабовані обчислювальні рішення, тим самим допомагаючи більшій кількості розробників ШІ та організацій ефективніше використовувати обмежені ресурси. Децентралізований розподіл обчислювальних потужностей може бути досягнутий за рахунок простою обчислювальної потужності окремих осіб або організацій. Однак доступність і стабільність цих обчислювальних потужностей залежить від обмежень користувачів на використання або верхньої межі спільного використання.

• Можливим потенційним джерелом високоякісної обчислювальної потужності є обчислювальна потужність, надана безпосередньо шляхом перетворення відповідних рудників після перетворення Ethereum на PoS. людські ресурси. Візьмемо, наприклад, Coreweave, провідного постачальника інтегрованої обчислювальної потужності GPU в Сполучених Штатах. Раніше він був найбільшим фермерським рудником Ethereum в Північній Америці і базується на повній інфраструктурі, яка була побудована. Крім того, відкриті машини для видобутку Ethereum також містять велику кількість бездіяльних GPU. Повідомляється, що в піку ери видобутку Ethereum було приблизно 27 мільйонів GPU, які працювали в онлайні. Оживлення цих GPU також може стати важливою частиною децентралізованої мережі обчислювальної потужності.

  1. Попит на децентралізовану обчислювальну потужність з боку користувачів

• З технічної точки зору реалізації, децентралізовані обчислювальні ресурси використовуються у графічному відтворенні та відео транскодуванні. Такі обчислення є складними. Для завдань низького рівня економічна система, що поєднує технологію блокчейн та web3, може приносити матеріальні фінансові стимули учасникам мережі та накопичувати ефективні бізнес-моделі та групи клієнтів, забезпечуючи безпечну передачу інформаційних даних. У сфері штучного інтелекту використовується велика кількість паралельних обчислень, комунікація та синхронізація між вузлами, і високі вимоги до мережевого середовища та інших аспектів. Тому поточні застосування також спрямовані на дотримання настроювання, виведення, AIGC та інші більші шари додатків.

• З точки зору бізнес-логіки, ринку, який просто купує і продає обчислювальні потужності, не вистачає уяви, і галузь може мати справу тільки з ланцюжком поставок і ціноутворенням. Стратегії, але це переваги централізованих хмарних сервісів. Таким чином, стеля ринку низька, і немає місця для більшої фантазії, тому ми також бачимо, що мережі, які спочатку займалися простим рендерингом графіки, прагнуть трансформації штучного інтелекту. Наприклад, Render Network та 2023 Q1 також запустили власний інтегрований набір інструментів Stability AI, який користувачі можуть Ця функція вводить операції стабільної дифузії, і бізнес більше не обмежується операціями рендерингу, а розширюється до сфери штучного інтелекту.

• З точки зору основних груп клієнтів, очевидно, що великі клієнти на стороні Б віддадуть перевагу централізованим інтегрованим хмарним сервісам. Вони, як правило, при достатніх бюджетах зазвичай займаються розробкою великих базових моделей і вимагають більш ефективної форми агрегації обчислювальних потужностей; Тому децентралізовані обчислювальні потужності обслуговують більше малих і середніх команд розробників або окремих осіб, і в основному займаються тонким налаштуванням моделей. Або розробка прикладного рівня, яка не пред'являє високих вимог до форми обчислювальних потужностей, що надаються. Вони більш чутливі до ціни. Децентралізовані обчислювальні потужності можуть кардинально знизити початкові витрати на інвестиції, тому загальна вартість використання також нижча. На основі вартості, раніше розрахованої Gensyn, обчислювальна потужність перетворюється в еквівалентне значення, надане V100. Що стосується обчислювальної потужності, то ціна Gensyn становить лише 0,4 долара США на годину, що на 80% нижче, ніж еквівалентна обчислювальна потужність AWS у 2 долари США на годину. Хоча на цю частину бізнесу не припадає більша частина витрат у поточній галузі, оскільки сценарії використання додатків штучного інтелекту продовжують розширюватися, майбутній розмір ринку не можна недооцінювати.

• З точки зору наданих послуг можна зазначити, що поточний проєкт більше нагадує концепцію децентралізованої хмарної платформи, що надає повний набір управління від розробки, розгортання, онлайн, розподілу та транзакцій. Перевага полягає в тому, що це привертає розробників, які можуть використовувати відповідні компоненти для спрощення розробки та розгортання та підвищення продуктивності; водночас це може привернути користувачів для використання цих повних додаткових продуктів на платформі, утворюючи екологічний ровер на основі власної мережі обчислювальної потужності. Але це також ставить високі вимоги до операцій проєкту. Те, як привернути відмінних розробників та користувачів та досягти утримання, особливо важливо.

Застосування в різних галузях

1. Обробка цифрових медіа

Render Network Глобальна платформа рендерингу на основі блокчейну, метою якої є допомога творцям у цифровій творчості. Вона дозволяє творцям розширити роботу з рендерингу GPU до глобальних вузлів GPU за запитом, надаючи швидшу та дешевшу можливість рендерингу. Після підтвердження творцем результатів рендерингу, мережа блокчейну надсилає код на вузол. Винагороди монети. Порівняно з традиційними методами реалізації візуальних ефектів, встановлення локальної інфраструктури рендерингу або додавання відповідних витрат на GPU до придбаних хмарних послуг потребує великих початкових інвестицій.

З моменту свого заснування в 2017 році користувачі мережі Render Network відтворили понад 16 мільйонів кадрів та майже 500 000 сцен у мережі. Дані, що були опубліковані з Render Network 2023 Q2, також показують, що як кількість завдань по відтворенню кадрів, так і кількість активних вузлів збільшується. Крім того, Render Network і 2023 Q1 також запустили нативний інтегрований набір інструментів стабільності AI. Користувачі можуть використовувати цю функцію для впровадження операцій стабільного дифузії, і бізнес більше не обмежується операціями з відтворення та розширюється на поле штучного інтелекту.

Livepeer надає послуги транскодування відео в реальному часі для творців за участі учасників мережі, які надають власну обчислювальну потужність ГПП та пропускну здатність. Трансляційні компанії можуть завершити транскодування різних типів відео, надсилаючи відео до Livepeer та розповсюджуючи їх до різних користувачів на кінцевій стороні, тим самим здійснюючи поширення відеовмісту. У той же час ви можете легко оплачувати в законній валюті, щоб отримати послуги, такі як транскодування відео, передача та зберігання.

У мережі Livepeer кожному дозволяється вносити особисті ресурси комп'ютера (ЦП, ГПУ та пропускна здатність) для транскодування та розподілу відео з метою заробітку. Основний токен (LPT) представляє права та інтереси учасників мережі. Кількість обіцяних токенів визначає вагу вузла в мережі, тим самим впливаючи на його шанси отримати завдання з транскодування. В той же час, LPT також відіграє роль у тому, щоб керувати вузлами для безпечного, надійного та швидкого виконання призначених завдань.

2. виставка AIarea

У поточній екосистемі в галузі штучного інтелекту основні гравці можуть бути приблизно розділені на:

Починаючи з боку попиту, існують очевидні відмінності в вимогах до обчислювальних потужностей на різних етапах розвитку галузі. На прикладі розробки базової моделі можна сказати, що процес попереднього навчання вимагає дуже високих паралельних обчислень, зберігання, зв'язку і т.д. для забезпечення ефективності результатів навчання. Для цього потрібен великий кластер обчислювальних потужностей для виконання пов'язаних завдань. В даний час основне постачання обчислювальних потужностей в основному покладається на комп'ютерні зали, побудовані власноруч, і централізовані хмарні сервісні платформи. На наступних етапах доопрацювання моделі, міркувань в реальному часі і розробки додатків вимоги до паралельних обчислень і міжвузлового зв'язку не такі високі. Саме тут децентралізовані обчислювальні потужності можуть проявити весь свій потенціал.

Розглядаючи проекти, які раніше здобули значну популярність, Akash Network зробив деякі спроби в напрямку децентралізованої обчислювальної потужності:

Akash Network поєднує в собі різні технологічні компоненти, щоб дозволити користувачам ефективно та гнучко розгортати та керувати програмами в децентралізованому хмарному середовищі. Користувачі можуть використовувати контейнерну технологію Docker для пакування додатків, а потім розгортати та масштабувати їх через Kubernetes через CloudMOS на хмарних ресурсах, наданих Akash. Akash використовує підхід «зворотного аукціону», що робить ціну нижчою, ніж у традиційних хмарних сервісів.

Akash Network також оголосив у серпні цього року, що запустить шосте оновлення своєї основної мережі, включаючи підтримку GPU в своїх хмарних послугах та надаючи обчислювальну потужність більшій кількості команд штучного інтелекту у майбутньому.

Gensyn.ai, проект, який привернув велику увагу у галузі цього року, був очолений a16z і завершив раунд фінансування серії A на суму 43 мільйони доларів США. З огляду на опубліковані документи до цього часу, проект є основною мережею на основі протоколу L1 PoS мережі Polkadot, спрямованою на глибоке навчання. Він має на меті розширення меж машинного навчання шляхом створення глобальної мережі суперкомп'ютерних кластерів. Ця мережа з'єднує пристрої від дата-центрів з надлишковою обчислювальною потужністю до ПК, які потенційно можуть надати особисті GPU, власні ASIC та SoC.

Для вирішення деяких проблем, які існують у децентралізованій обчислювальній потужності, Gensyn спирається на нові теоретичні дослідження в академії:

  1. Прийняти ймовірне навчання доказу, тобто використовувати метадані процесу оптимізації на основі градієнта для побудови доказів відповідного виконання завдання для прискорення процесу перевірки;

  2. Графічний протокол Pinpoint, GPP служить мостом, що з'єднує виконання DNN (глибокі нейронні мережі) офлайн та фреймворк смарт-контрактів на блокчейні, вирішуючи неузгодженості, які легко виникають на різних пристроях, та забезпечує послідовність верифікації.

  3. Метод стимулювання, аналогічний Truebit, за допомогою поєднання стейкінгу та покарання, встановлює стимулюючу систему, що дозволяє економічно раціональним учасникам чесно виконувати призначені завдання. Механізм використовує криптографію та методи теорії ігор. Ця система верифікації є необхідною для збереження цілісності та надійності великих обчислень тренування моделей.

Однак варто зазначити, що наведений вище контент більше стосується вирішення рівня перевірки виконання завдань, а не децентралізованих обчислювальних потужностей для досягнення функцій навчання моделі як основної родзинки в проектному документі, особливо про паралельні обчислення та розподілену оптимізацію зв'язку, синхронізацію та інші питання між апаратним забезпеченням. Наразі, під впливом затримки мережі (Latency) та пропускної здатності (Bandwidth), частий зв'язок між вузлами збільшить час ітерації та витрати на зв'язок. Це не тільки не призведе до фактичної оптимізації, але і знизить ефективність навчання. Підхід Генсина до обробки зв'язку вузлів і паралельних обчислень у навчанні моделей може включати складні координаційні протоколи для управління розподіленим характером обчислень. Однак без більш детальної технічної інформації або більш глибокого розуміння їх конкретних методів, точний механізм, за допомогою якого Gensyn досягає великомасштабного навчання моделей через свою мережу, не буде по-справжньому розкритий, поки проект не буде запущений в мережу.

Ми також звернули увагу на протокол розрахункової потужності Edge Matrix Computing (EMC), який використовує технологію блокчейн для застосування розрахункової потужності до штучного інтелекту, візуалізації та наукових досліджень. , доступ до штучного інтелекту в електронній комерції та інші види сценаріїв, завдання розподіляються на різні вузли розрахункової потужності за допомогою еластичного обчислення. Цей метод не тільки покращує ефективність розрахункової потужності, але й забезпечує безпеку передачі даних. Водночас він надає ринок розрахункової потужності, де користувачі можуть отримувати доступ до ресурсів розрахункової потужності та обмінюватися ними. Це зручно для розробників задавати швидший доступ до користувачів. У поєднанні з економічною формою Web3 постачальники обчислювальної потужності також можуть отримувати реальні користі та субсидії від протоколу на основі фактичного використання користувачами, а розробники штучного інтелекту також можуть отримувати знижені витрати на розуміння та візуалізацію. Нижче наведено огляд його основних складових та функцій:

Також очікується, що будуть запущені продукти RWA на основі GPU. Ключем до цього є оживлення апаратного забезпечення, яке спочатку було закріплене в комп'ютерній кімнаті, і поділ його та розподіл у формі RWA, щоб отримати додаткову ліквідність. Високоякісний GPU може бути використаний як базовий актив RWA. Причина в тому, що обчислювальна потужність може бути розглянута як тверда валюта в галузі штучного інтелекту. Зараз очевидна протиріччя між пропозицією та попитом, і це протиріччя не може бути вирішене в короткостроковій перспективі, тому ціна на GPU є відносно стабільною.

Крім того, впровадження кластерів обчислювальної потужності шляхом розгортання комп'ютерних кімнат IDC також є ключовою частиною протоколу EMC. Це не лише дозволяє GPU працювати в єдиному середовищі, але й більш ефективно обробляє пов'язані великомасштабні завдання, що споживають обчислювальну потужність, такі як попередня підготовка моделі. Це відповідає потребам професіональних користувачів. У той ж час комп'ютерна кімната IDC також може централізовано господарювати та запускати в роботу велику кількість GPU, щоб забезпечити технічні характеристики аналогічного високоякісного обладнання, що спрощує їх упаковку на ринок як продукти RWA та відкриває нові ідеї для DeFi.

У останні роки академічна спільнота також розробила нові технічні теорії та практики застосування в галузі розподіленого обчислення. Як доповнення та оптимізація хмарних обчислень, розподілене обчислення є частиною штучного інтелекту, який прискорюється від хмари до краю і в розмірів все менших пристроїв Інтернету речей. Ці пристрої Інтернету речей часто мають невеликі розміри, тому для вирішення проблем, таких як споживання енергії, затримка та точність, віддається перевага легкому машинному навчанню.

Мережа3 створена шляхом побудови спеціалізованого шару штучного інтелекту Layer2 для надання розробникам штучного інтелекту по всьому світу можливості оптимізації та стиснення алгоритмів моделей штучного інтелекту, федеративного навчання, розподіленого обчислення та обчислення конфіденційності. Надає послуги, щоб допомогти їм швидко, зручно та ефективно навчати або перевіряти моделі. Шляхом використання великої кількості розумних пристроїв Інтернету речей, вона може зосередитися на невеликих моделях для надання відповідної обчислювальної потужності, і шляхом побудови TEE (Trusted Execution Environment), користувачі можуть завершити відповідне навчання лише завантаживши градієнти моделі для забезпечення конфіденційності та безпеки даних, пов'язаних з користувачем.

Підсумовуючи

• З розвитком штучного інтелекту та інших галузей багато галузей пройдуть великі зміни у своїй основній логіці, обчислювальна потужність підніметься на більш важливе положення, а також різні аспекти, пов'язані з цим, також викличуть широке дослідження в галузі. Децентралізовані мережі обчислювальної потужності мають свої переваги можуть зменшити ризик централізації і також можуть слугувати як доповнення до централізованої обчислювальної потужності.

• І команди у сфері штучного інтелекту також знаходяться на роздоріжжі. Вибір того, чи використовувати великі навчені моделі для створення власних продуктів, чи брати участь у навчанні великих моделей у відповідних регіонах, здебільшого діалектичний. Тому децентралізовані обчислювальні потужності можуть задовольнити різні потреби бізнесу. Така тенденція розвитку вітається, а з оновленням технологій та ітерацією алгоритмів неминуче відбудуться прориви в ключових сферах.

• Не бійтеся, просто вирішуйте це повільно.

Посилання

https://www.semianalysis.com/p/gpt-4-architecture-infrastructure

https://medium.com/render-token/render-network-q2-highlights-part-2-network-statistics-ac5aa6bfa4e5

https://know.rendernetwork.com/

https://medium.com/livepeer-blog/огляд-мережі-livepeer-та-lpt-44985f9321ff

https://www.youtube.com/watch?v=FDA9wqZmsY8

https://mirror.xyz/1kx.eth/q0s9RCH43JCDq8Z2w2Zo6S5SYcFt9ZQaRITzR4G7a_k

https://mirror.xyz/gensyn.eth/_K2v2uuFZdNnsHxVL3Bjrs4GORu3COCMJZJi7_MxByo

https://docs.gensyn.ai/litepaper/#solution

https://a16zcrypto.com/posts/announcement/investing-in-gensyn/

https://www.pinecone.io/learn/chunking-strategies/

https://akash.network/blog/the-fast-evolving-ai-landscape/

https://aws.amazon.com/cn/blogs/compute/amazon-ec2-p4d-instances-deep-dive/

https://manual.edgematrix.pro/emc-network/what-is-emc-and-poc

https://arstechnica.com/gaming/2022/09/the-end-of-ethereum-mining-could-be-a-bonanza-for-gpu-shoppers/

Відмова від відповідальності:

  1. Ця стаття розміщується з [ PANews]. Усі авторські права належать оригінальному авторові [Future3 Campus]. Якщо є зауваження до цього повторного друку, будь ласка, зв'яжіться з Gate Навчаннякоманда, і вони оперативно вирішать це.
  2. Відповідальність за відмову: Погляди і думки, висловлені в цій статті, є виключно тими, що належать автору і не становлять жодної інвестиційної поради.
  3. Переклади статей на інші мови виконуються командою Gate Learn. Якщо не зазначено інше, копіювання, поширення або плагіатування перекладених статей заборонено.

Перетворення меж обчислювання: Поточна ситуація та перспективи децентралізованої обчислювальної потужності

Середній1/4/2024, 5:09:37 PM
З розвитком штучного інтелекту та інших галузей багато галузей зазнають великих змін в основній логіці, обчислювальна потужність підніметься на більш важливу позицію, а також різні аспекти, пов'язані з цим, також викличуть широке дослідження в галузі. Децентралізовані мережі обчислювальної потужності мають свої власні переваги можуть зменшити ризик централізації і також можуть слугувати як доповнення до централізованої обчислювальної потужності.

Обчислювальна потужність вимагається

З моменту виходу фільму "Аватар" в 2009 році відбулася перша битва 3D-фільмів з неперевершеними реальними зображеннями. Як великий сприяючий за цим, Weta Digital внесла великий внесок у візуальні ефекти рендерингу цілого фільму. У своєму серверному фермі розміром 10 000 квадратних футів у Новій Зеландії його комп'ютерний кластер обробляв до 1,4 мільйона завдань на день і обробляв 8 ГБ даних на секунду. Навіть за таких умов він продовжував працювати понад місяць, перш ніж всі рендеринги були завершені. Робота.

З великомасштабним розгортанням машин та інвестиціями, фільм «Аватар» досяг вражаючих досягнень в історії кіно.

3 січня того ж року Сатосі Накамото добув генезис-блок Bitcoin на невеликому сервері в Гельсінкі, Фінляндія, і отримав блокову винагороду у розмірі 50 BTC. З першого дня криптовалюти обчислювальна потужність відігравала дуже важливу роль в індустрії.

Найдовший ланцюг служить не лише доказом послідовності подій, які були свідками, але й доказом того, що він походить від найбільшого пула обчислювальної потужності ЦП.

—— Біткойн Білий папір

У контексті механізму консенсусу PoW внесок обчислювальних потужностей забезпечує гарантію безпеки ланцюга. У той же час, хешрейт, що постійно зростає, також може свідчити про постійні інвестиції майнерів в обчислювальні потужності та позитивні очікування щодо доходу. Реальний попит галузі на обчислювальні потужності також значною мірою сприяв розвитку виробників мікросхем. Мікросхеми майнінгових машин пройшли такі стадії розробки, як CPU, GPU, FPGA та ASIC. В даний час машини для майнінгу біткойнів зазвичай є чіпами на основі технології ASIC (Application Specific Ingrated Circuit), які можуть ефективно виконувати певні алгоритми, такі як SHA-256. Величезні економічні вигоди, принесені біткойном, також підвищили попит на обчислювальні потужності в пов'язаному майнінгу. Однак надмірно спеціалізоване обладнання та кластерні ефекти спричинили ефект сифона серед власних учасників, будь то майнери чи виробники гірничодобувних машин. Всі вони демонструють тенденцію капіталомісткого концентрованого розвитку.

З появою смарт-контрактів Ethereum його програмованість, компонування та інші функції сформували широкий спектр застосувань, особливо в галузі DeFi, що призвело до зростання ціни ETH на всьому шляху, поки він все ще перебуває в консенсусі PoW Складність майнінгу Ethereum на цьому етапі також зростає. Вимоги майнерів до обчислювальної потужності для майнінгових машин Ethereum також зростають з кожним днем. Однак, на відміну від Bitcoin, який використовує чіпи ASIC, Ethereum потребує використання графічного процесора (GPU) для розрахунків майнінгу, наприклад, серія Nvidia RTX. Таким чином, він більше підходить для участі загального обчислювального обладнання. Це навіть спровокувало ринкову конкуренцію за графічні процесори, що призвело до того, що високоякісних відеокарт на ринку не було в наявності.

Коли nastała 30 листопада 2022 року, ChatGPT, розроблений OpenAI, також продемонстрував епохальне значення в галузі штучного інтелекту. Користувачі захоплювалися новим досвідом, який приніс ChatGPT, який може виконувати різноманітні завдання, запропоновані користувачем на основі контексту, як справжня людина. У новій версії, випущеній у вересні цього року, генеративний ШІ, який додає багатомодальні функції, такі як голос та зображення, приніс досвід користувачам на новий рівень.

Проте відповідно GPT4 має понад один трильйон параметрів, які беруть участь у передварительному навчанні моделі та подальшому налаштуванні. Це дві частини з найбільшим попитом на обчислювальну потужність у галузі штучного інтелекту. У фазі передварительного навчання вивчається велика кількість тексту, щоб оволодіти мовними шаблонами, граматикою та пов'язаним контекстом. Це дозволяє йому розуміти мовні шаблони для генерації послідовного та контекстуального тексту на основі введеного. Після передварительного навчання GPT4 налаштовується для кращого адаптування до конкретних типів вмісту або стилів та покращення продуктивності та спеціалізації в конкретних сценаріях попиту.

Оскільки архітектура Transformer, яку використовує GPT, включає механізм самоуваги, цей механізм дозволяє моделі одночасно звертати увагу на відносини між різними частинами послідовності при обробці вхідної послідовності. Тому попит на обчислювальну потужність різко зріс. Особливо при обробці довгих послідовностей потрібна велика кількість паралельних обчислень та зберігання великої кількості балів уваги, що також потребує великої кількості пам'яті та можливостей передачі даних високої швидкості. Поточні LLM з такою ж архітектурою мають великий попит на високопродуктивні GPU, що також свідчить про те, що витрати на інвестиції в галузі штучного інтелекту на великі моделі є великими. За оцінками відповідного SemiAnalysis, вартість навчання моделі GPT4 становить до $63 мільйонів. Для досягнення хорошого інтерактивного досвіду GPT4 також потребує великої обчислювальної потужності в щоденній діяльності для підтримки щоденних операцій.

Класифікація обчислювального обладнання

Тут нам потрібно зрозуміти поточні основні типи апаратного забезпечення обчислювальної потужності. Які сценарії вимог до обчислювальної потужності можуть бути оброблені відповідно процесором, графічним процесором (GPU), ППЛ та ASIC.

• З архітектурної схеми CPU та GPU випливає, що GPU містить більше ядер, що дозволяє GPU обробляти кілька обчислювальних завдань одночасно. Паралельне обчислення має більш потужні обчислювальні можливості та підходить для обробки великої кількості обчислювальних завдань, тому в галузях машинного навчання та глибокого навчання воно широко застосовується. CPU має менше кількість ядер і підходить для обробки одного складного обчислення або послідовного завдання більш інтенсивно, але воно не так ефективне, як GPU при обробці паралельних обчислювальних завдань. При рендерингу та обчисленнях нейронних мереж зазвичай потрібно обробляти велику кількість повторюваних обчислень та паралельних обчислень, тому GPU є більш ефективним та підходить для цього аспекту, ніж CPU.

• FPGA (Field Programmable Gate Array) - це напів-застосований логічний масив, що програмується на місці, у сфері спеціалізованої інтегральної схеми (ASIC). Масив складається з великої кількості невеликих обчислювальних блоків, FPGA можна розглядати як програмовану інтегральну мікросхему цифрової логіки. Поточне застосування головним чином зосереджене на апаратному прискоренні, а інші завдання все ще виконуються на ЦП, дозволяючи FPGA та ЦП працювати разом.

• ASIC (Application Specific Integrated Circuit) - це інтегральна схема, розроблена для задоволення конкретних вимог користувача та потреб конкретних електронних систем. Порівняно з універсальними інтегральними схемами, у ASIC є переваги у вигляді менших розмірів, меншого споживання енергії, покращеної надійності, підвищеної продуктивності, підвищеної конфіденційності та знижених витрат під час масового виробництва. Тому в внутрішньому сценарії майнінгу Bitcoin, де потрібно виконувати лише конкретні обчислювальні завдання, ASIC є найбільш підходящим. Google також запустив TPU (Tensor Processing Unit), спеціально розроблену для машинного навчання як тип ASIC, але наразі в основному надає послуги оренди обчислювальної потужності через Google Cloud.

• ASIC У порівнянні з FPGA, ASIC є інтегральною схемою для конкретного застосування, і інтегральна схема фіксується після завершення проектування. FPGA інтегрує в масив велику кількість основних цифрових схем вентилів і пам'яті. Розробники можуть визначити схему, запрограмувавши конфігурацію FPGA, і це програмування можна замінити. Однак, враховуючи поточну швидкість оновлення у сфері штучного інтелекту, кастомізовані або напівкастомізовані чіпи не можна вчасно налаштувати та переналаштувати для виконання різних завдань або адаптації до нових алгоритмів. Тому загальна адаптивність і гнучкість графічного процесора роблять його блискучим у сфері штучного інтелекту. Великі виробники графічних процесорів також внесли відповідні оптимізації для адаптації графічних процесорів у сфері штучного інтелекту. На прикладі Nvidia вона випустила графічні процесори серії Tesla та архітектури Ampere, розроблені спеціально для глибокого навчання. Це апаратне забезпечення містить апаратні блоки (тензорні ядра), оптимізовані для машинного навчання та обчислень глибокого навчання, які дозволяють графічному процесору працювати ефективніше та ефективніше. Низьке енергоспоживання для здійснення прямого і зворотного поширення нейронних мереж. Крім того, для підтримки розробки ШІ надається широкий спектр інструментів і бібліотек, таких як CUDA (Compute Unified Device Architecture), щоб допомогти розробникам використовувати графічні процесори для паралельних обчислень загального призначення.

Децентралізована обчислювальна потужність

Децентралізована обчислювальна потужність означає метод надання потужності обробки за допомогою розподілених обчислювальних ресурсів. Цей децентралізований підхід зазвичай поєднується з технологією блокчейну або подібною технологією розподіленого реєстру для об'єднання простою обчислювальної потужності та розподілу її користувачам, які потребують досягнення спільного використання ресурсів, транзакцій та управління.

Фон

• Великий попит на обчислювальне обладнання. Процвітання творчої економіки перетворило обробку цифрових медіа в епоху універсального створення. Зросла потреба в обробці візуальних ефектів, і з'явилися спеціалізовані студії підсилення обробки, хмарні платформи для обробки та інші форми. Однак для такого підходу також потрібно вкладати значні кошти у початкове закупівлю обладнання для обчислювальної потужності.

• Апаратна потужність обчислення постачається з одного джерела. Розвиток галузі штучного інтелекту збільшив попит на обчислювальне обладнання. Провідні компанії з виробництва графічних процесорів у світі, очолювані Nvidia, заробили багато грошей у цьому змаганні за обчислювальну потужність штучного інтелекту. Їх потужність постачання навіть стала ключовим фактором, який може обмежувати розвиток певної галузі. Ринкова вартість Nvidia також вперше перевищила один трильйон доларів у цьому році.

• Надання обчислювальної потужності все ще головним чином ґрунтується на централізованих хмарних платформах. Те, що дійсно користується підйомом попиту на високопродуктивні обчислення - це централізовані хмарні постачальники, яких представляє AWS. Вони запустили послуги хмарних обчислень на базі GPU. На прикладі поточного AWS p4d.24xlarge можна відзначити, що оренда одного такого HPC-сервера, спеціалізованого на машинному навчанні, з восьмома Nvidia A100 40 ГБ GPU, коштує 32,8 долара США за годину, а її валовий прибуток оцінюється в 61%. Це також привело до того, що інші великі хмарні гіганти поспішають приєднатися та запасають апаратне забезпечення, щоб здобути якомога більше переваг на початкових етапах розвитку галузі.

• Політичні, людські втручання та інші фактори призводять до нерівномірного розвитку галузі. Дисбаланс. Не важко помітити, що власність та концентрація ГПУ більше нахилена до організацій та країн з великими фінансовими ресурсами та технологіями та залежить від високопродуктивних обчислювальних кластерів. Це призвело до того, що сили виробників мікросхем та напівпровідників, які представлені Сполученими Штатами, також впроваджують більш суворі обмеження на експорт штучних інтелектуальних мікросхем, щоб послабити дослідницькі можливості інших країн у сфері загального штучного інтелекту.

• Розподіл обчислювальних ресурсів занадто концентрований. Ініціатива розвитку в галузі штучного інтелекту перебуває в руках кількох гігантських компаній. На даний момент гіганти, які представлені OpenAI, мають благословення від Microsoft, а за ними стоять багаті обчислювальні ресурси, надані Microsoft Azure. Це робить кожне нове випуск продукції OpenAI перетворенням та інтеграцією поточної галузі штучного інтелекту, ускладнюючи для інших команд доганути в галузі великих моделей.

Таким чином, перед високими витратами на обладнання, географічними обмеженнями та нерівномірним розвитком промисловості, чи існують інші рішення?

Децентралізована платформа обчислювальної потужності виникла відповідно до вимог часу. Мета платформи полягає в створенні відкритого, прозорого та саморегулюючого ринку для більш ефективного використання глобальних обчислювальних ресурсів.

адаптивний аналіз

  1. Децентралізована обчислювальна потужність постачальника

Поточні високі ціни на апаратне забезпечення та штучний контроль з боку постачальника створили ґрунт для будівництва децентралізованих мереж обчислювальної потужності.

• З точки зору складу децентралізованих обчислювальних потужностей, різні постачальники обчислювальної потужності варіюються від персональних ПК до невеликих Інтернету речей Обладнання таке ж велике, як центри обробки даних, IDC і т.д., а накопичена обчислювальна потужність може забезпечити більш гнучкі та масштабовані обчислювальні рішення, тим самим допомагаючи більшій кількості розробників ШІ та організацій ефективніше використовувати обмежені ресурси. Децентралізований розподіл обчислювальних потужностей може бути досягнутий за рахунок простою обчислювальної потужності окремих осіб або організацій. Однак доступність і стабільність цих обчислювальних потужностей залежить від обмежень користувачів на використання або верхньої межі спільного використання.

• Можливим потенційним джерелом високоякісної обчислювальної потужності є обчислювальна потужність, надана безпосередньо шляхом перетворення відповідних рудників після перетворення Ethereum на PoS. людські ресурси. Візьмемо, наприклад, Coreweave, провідного постачальника інтегрованої обчислювальної потужності GPU в Сполучених Штатах. Раніше він був найбільшим фермерським рудником Ethereum в Північній Америці і базується на повній інфраструктурі, яка була побудована. Крім того, відкриті машини для видобутку Ethereum також містять велику кількість бездіяльних GPU. Повідомляється, що в піку ери видобутку Ethereum було приблизно 27 мільйонів GPU, які працювали в онлайні. Оживлення цих GPU також може стати важливою частиною децентралізованої мережі обчислювальної потужності.

  1. Попит на децентралізовану обчислювальну потужність з боку користувачів

• З технічної точки зору реалізації, децентралізовані обчислювальні ресурси використовуються у графічному відтворенні та відео транскодуванні. Такі обчислення є складними. Для завдань низького рівня економічна система, що поєднує технологію блокчейн та web3, може приносити матеріальні фінансові стимули учасникам мережі та накопичувати ефективні бізнес-моделі та групи клієнтів, забезпечуючи безпечну передачу інформаційних даних. У сфері штучного інтелекту використовується велика кількість паралельних обчислень, комунікація та синхронізація між вузлами, і високі вимоги до мережевого середовища та інших аспектів. Тому поточні застосування також спрямовані на дотримання настроювання, виведення, AIGC та інші більші шари додатків.

• З точки зору бізнес-логіки, ринку, який просто купує і продає обчислювальні потужності, не вистачає уяви, і галузь може мати справу тільки з ланцюжком поставок і ціноутворенням. Стратегії, але це переваги централізованих хмарних сервісів. Таким чином, стеля ринку низька, і немає місця для більшої фантазії, тому ми також бачимо, що мережі, які спочатку займалися простим рендерингом графіки, прагнуть трансформації штучного інтелекту. Наприклад, Render Network та 2023 Q1 також запустили власний інтегрований набір інструментів Stability AI, який користувачі можуть Ця функція вводить операції стабільної дифузії, і бізнес більше не обмежується операціями рендерингу, а розширюється до сфери штучного інтелекту.

• З точки зору основних груп клієнтів, очевидно, що великі клієнти на стороні Б віддадуть перевагу централізованим інтегрованим хмарним сервісам. Вони, як правило, при достатніх бюджетах зазвичай займаються розробкою великих базових моделей і вимагають більш ефективної форми агрегації обчислювальних потужностей; Тому децентралізовані обчислювальні потужності обслуговують більше малих і середніх команд розробників або окремих осіб, і в основному займаються тонким налаштуванням моделей. Або розробка прикладного рівня, яка не пред'являє високих вимог до форми обчислювальних потужностей, що надаються. Вони більш чутливі до ціни. Децентралізовані обчислювальні потужності можуть кардинально знизити початкові витрати на інвестиції, тому загальна вартість використання також нижча. На основі вартості, раніше розрахованої Gensyn, обчислювальна потужність перетворюється в еквівалентне значення, надане V100. Що стосується обчислювальної потужності, то ціна Gensyn становить лише 0,4 долара США на годину, що на 80% нижче, ніж еквівалентна обчислювальна потужність AWS у 2 долари США на годину. Хоча на цю частину бізнесу не припадає більша частина витрат у поточній галузі, оскільки сценарії використання додатків штучного інтелекту продовжують розширюватися, майбутній розмір ринку не можна недооцінювати.

• З точки зору наданих послуг можна зазначити, що поточний проєкт більше нагадує концепцію децентралізованої хмарної платформи, що надає повний набір управління від розробки, розгортання, онлайн, розподілу та транзакцій. Перевага полягає в тому, що це привертає розробників, які можуть використовувати відповідні компоненти для спрощення розробки та розгортання та підвищення продуктивності; водночас це може привернути користувачів для використання цих повних додаткових продуктів на платформі, утворюючи екологічний ровер на основі власної мережі обчислювальної потужності. Але це також ставить високі вимоги до операцій проєкту. Те, як привернути відмінних розробників та користувачів та досягти утримання, особливо важливо.

Застосування в різних галузях

1. Обробка цифрових медіа

Render Network Глобальна платформа рендерингу на основі блокчейну, метою якої є допомога творцям у цифровій творчості. Вона дозволяє творцям розширити роботу з рендерингу GPU до глобальних вузлів GPU за запитом, надаючи швидшу та дешевшу можливість рендерингу. Після підтвердження творцем результатів рендерингу, мережа блокчейну надсилає код на вузол. Винагороди монети. Порівняно з традиційними методами реалізації візуальних ефектів, встановлення локальної інфраструктури рендерингу або додавання відповідних витрат на GPU до придбаних хмарних послуг потребує великих початкових інвестицій.

З моменту свого заснування в 2017 році користувачі мережі Render Network відтворили понад 16 мільйонів кадрів та майже 500 000 сцен у мережі. Дані, що були опубліковані з Render Network 2023 Q2, також показують, що як кількість завдань по відтворенню кадрів, так і кількість активних вузлів збільшується. Крім того, Render Network і 2023 Q1 також запустили нативний інтегрований набір інструментів стабільності AI. Користувачі можуть використовувати цю функцію для впровадження операцій стабільного дифузії, і бізнес більше не обмежується операціями з відтворення та розширюється на поле штучного інтелекту.

Livepeer надає послуги транскодування відео в реальному часі для творців за участі учасників мережі, які надають власну обчислювальну потужність ГПП та пропускну здатність. Трансляційні компанії можуть завершити транскодування різних типів відео, надсилаючи відео до Livepeer та розповсюджуючи їх до різних користувачів на кінцевій стороні, тим самим здійснюючи поширення відеовмісту. У той же час ви можете легко оплачувати в законній валюті, щоб отримати послуги, такі як транскодування відео, передача та зберігання.

У мережі Livepeer кожному дозволяється вносити особисті ресурси комп'ютера (ЦП, ГПУ та пропускна здатність) для транскодування та розподілу відео з метою заробітку. Основний токен (LPT) представляє права та інтереси учасників мережі. Кількість обіцяних токенів визначає вагу вузла в мережі, тим самим впливаючи на його шанси отримати завдання з транскодування. В той же час, LPT також відіграє роль у тому, щоб керувати вузлами для безпечного, надійного та швидкого виконання призначених завдань.

2. виставка AIarea

У поточній екосистемі в галузі штучного інтелекту основні гравці можуть бути приблизно розділені на:

Починаючи з боку попиту, існують очевидні відмінності в вимогах до обчислювальних потужностей на різних етапах розвитку галузі. На прикладі розробки базової моделі можна сказати, що процес попереднього навчання вимагає дуже високих паралельних обчислень, зберігання, зв'язку і т.д. для забезпечення ефективності результатів навчання. Для цього потрібен великий кластер обчислювальних потужностей для виконання пов'язаних завдань. В даний час основне постачання обчислювальних потужностей в основному покладається на комп'ютерні зали, побудовані власноруч, і централізовані хмарні сервісні платформи. На наступних етапах доопрацювання моделі, міркувань в реальному часі і розробки додатків вимоги до паралельних обчислень і міжвузлового зв'язку не такі високі. Саме тут децентралізовані обчислювальні потужності можуть проявити весь свій потенціал.

Розглядаючи проекти, які раніше здобули значну популярність, Akash Network зробив деякі спроби в напрямку децентралізованої обчислювальної потужності:

Akash Network поєднує в собі різні технологічні компоненти, щоб дозволити користувачам ефективно та гнучко розгортати та керувати програмами в децентралізованому хмарному середовищі. Користувачі можуть використовувати контейнерну технологію Docker для пакування додатків, а потім розгортати та масштабувати їх через Kubernetes через CloudMOS на хмарних ресурсах, наданих Akash. Akash використовує підхід «зворотного аукціону», що робить ціну нижчою, ніж у традиційних хмарних сервісів.

Akash Network також оголосив у серпні цього року, що запустить шосте оновлення своєї основної мережі, включаючи підтримку GPU в своїх хмарних послугах та надаючи обчислювальну потужність більшій кількості команд штучного інтелекту у майбутньому.

Gensyn.ai, проект, який привернув велику увагу у галузі цього року, був очолений a16z і завершив раунд фінансування серії A на суму 43 мільйони доларів США. З огляду на опубліковані документи до цього часу, проект є основною мережею на основі протоколу L1 PoS мережі Polkadot, спрямованою на глибоке навчання. Він має на меті розширення меж машинного навчання шляхом створення глобальної мережі суперкомп'ютерних кластерів. Ця мережа з'єднує пристрої від дата-центрів з надлишковою обчислювальною потужністю до ПК, які потенційно можуть надати особисті GPU, власні ASIC та SoC.

Для вирішення деяких проблем, які існують у децентралізованій обчислювальній потужності, Gensyn спирається на нові теоретичні дослідження в академії:

  1. Прийняти ймовірне навчання доказу, тобто використовувати метадані процесу оптимізації на основі градієнта для побудови доказів відповідного виконання завдання для прискорення процесу перевірки;

  2. Графічний протокол Pinpoint, GPP служить мостом, що з'єднує виконання DNN (глибокі нейронні мережі) офлайн та фреймворк смарт-контрактів на блокчейні, вирішуючи неузгодженості, які легко виникають на різних пристроях, та забезпечує послідовність верифікації.

  3. Метод стимулювання, аналогічний Truebit, за допомогою поєднання стейкінгу та покарання, встановлює стимулюючу систему, що дозволяє економічно раціональним учасникам чесно виконувати призначені завдання. Механізм використовує криптографію та методи теорії ігор. Ця система верифікації є необхідною для збереження цілісності та надійності великих обчислень тренування моделей.

Однак варто зазначити, що наведений вище контент більше стосується вирішення рівня перевірки виконання завдань, а не децентралізованих обчислювальних потужностей для досягнення функцій навчання моделі як основної родзинки в проектному документі, особливо про паралельні обчислення та розподілену оптимізацію зв'язку, синхронізацію та інші питання між апаратним забезпеченням. Наразі, під впливом затримки мережі (Latency) та пропускної здатності (Bandwidth), частий зв'язок між вузлами збільшить час ітерації та витрати на зв'язок. Це не тільки не призведе до фактичної оптимізації, але і знизить ефективність навчання. Підхід Генсина до обробки зв'язку вузлів і паралельних обчислень у навчанні моделей може включати складні координаційні протоколи для управління розподіленим характером обчислень. Однак без більш детальної технічної інформації або більш глибокого розуміння їх конкретних методів, точний механізм, за допомогою якого Gensyn досягає великомасштабного навчання моделей через свою мережу, не буде по-справжньому розкритий, поки проект не буде запущений в мережу.

Ми також звернули увагу на протокол розрахункової потужності Edge Matrix Computing (EMC), який використовує технологію блокчейн для застосування розрахункової потужності до штучного інтелекту, візуалізації та наукових досліджень. , доступ до штучного інтелекту в електронній комерції та інші види сценаріїв, завдання розподіляються на різні вузли розрахункової потужності за допомогою еластичного обчислення. Цей метод не тільки покращує ефективність розрахункової потужності, але й забезпечує безпеку передачі даних. Водночас він надає ринок розрахункової потужності, де користувачі можуть отримувати доступ до ресурсів розрахункової потужності та обмінюватися ними. Це зручно для розробників задавати швидший доступ до користувачів. У поєднанні з економічною формою Web3 постачальники обчислювальної потужності також можуть отримувати реальні користі та субсидії від протоколу на основі фактичного використання користувачами, а розробники штучного інтелекту також можуть отримувати знижені витрати на розуміння та візуалізацію. Нижче наведено огляд його основних складових та функцій:

Також очікується, що будуть запущені продукти RWA на основі GPU. Ключем до цього є оживлення апаратного забезпечення, яке спочатку було закріплене в комп'ютерній кімнаті, і поділ його та розподіл у формі RWA, щоб отримати додаткову ліквідність. Високоякісний GPU може бути використаний як базовий актив RWA. Причина в тому, що обчислювальна потужність може бути розглянута як тверда валюта в галузі штучного інтелекту. Зараз очевидна протиріччя між пропозицією та попитом, і це протиріччя не може бути вирішене в короткостроковій перспективі, тому ціна на GPU є відносно стабільною.

Крім того, впровадження кластерів обчислювальної потужності шляхом розгортання комп'ютерних кімнат IDC також є ключовою частиною протоколу EMC. Це не лише дозволяє GPU працювати в єдиному середовищі, але й більш ефективно обробляє пов'язані великомасштабні завдання, що споживають обчислювальну потужність, такі як попередня підготовка моделі. Це відповідає потребам професіональних користувачів. У той ж час комп'ютерна кімната IDC також може централізовано господарювати та запускати в роботу велику кількість GPU, щоб забезпечити технічні характеристики аналогічного високоякісного обладнання, що спрощує їх упаковку на ринок як продукти RWA та відкриває нові ідеї для DeFi.

У останні роки академічна спільнота також розробила нові технічні теорії та практики застосування в галузі розподіленого обчислення. Як доповнення та оптимізація хмарних обчислень, розподілене обчислення є частиною штучного інтелекту, який прискорюється від хмари до краю і в розмірів все менших пристроїв Інтернету речей. Ці пристрої Інтернету речей часто мають невеликі розміри, тому для вирішення проблем, таких як споживання енергії, затримка та точність, віддається перевага легкому машинному навчанню.

Мережа3 створена шляхом побудови спеціалізованого шару штучного інтелекту Layer2 для надання розробникам штучного інтелекту по всьому світу можливості оптимізації та стиснення алгоритмів моделей штучного інтелекту, федеративного навчання, розподіленого обчислення та обчислення конфіденційності. Надає послуги, щоб допомогти їм швидко, зручно та ефективно навчати або перевіряти моделі. Шляхом використання великої кількості розумних пристроїв Інтернету речей, вона може зосередитися на невеликих моделях для надання відповідної обчислювальної потужності, і шляхом побудови TEE (Trusted Execution Environment), користувачі можуть завершити відповідне навчання лише завантаживши градієнти моделі для забезпечення конфіденційності та безпеки даних, пов'язаних з користувачем.

Підсумовуючи

• З розвитком штучного інтелекту та інших галузей багато галузей пройдуть великі зміни у своїй основній логіці, обчислювальна потужність підніметься на більш важливе положення, а також різні аспекти, пов'язані з цим, також викличуть широке дослідження в галузі. Децентралізовані мережі обчислювальної потужності мають свої переваги можуть зменшити ризик централізації і також можуть слугувати як доповнення до централізованої обчислювальної потужності.

• І команди у сфері штучного інтелекту також знаходяться на роздоріжжі. Вибір того, чи використовувати великі навчені моделі для створення власних продуктів, чи брати участь у навчанні великих моделей у відповідних регіонах, здебільшого діалектичний. Тому децентралізовані обчислювальні потужності можуть задовольнити різні потреби бізнесу. Така тенденція розвитку вітається, а з оновленням технологій та ітерацією алгоритмів неминуче відбудуться прориви в ключових сферах.

• Не бійтеся, просто вирішуйте це повільно.

Посилання

https://www.semianalysis.com/p/gpt-4-architecture-infrastructure

https://medium.com/render-token/render-network-q2-highlights-part-2-network-statistics-ac5aa6bfa4e5

https://know.rendernetwork.com/

https://medium.com/livepeer-blog/огляд-мережі-livepeer-та-lpt-44985f9321ff

https://www.youtube.com/watch?v=FDA9wqZmsY8

https://mirror.xyz/1kx.eth/q0s9RCH43JCDq8Z2w2Zo6S5SYcFt9ZQaRITzR4G7a_k

https://mirror.xyz/gensyn.eth/_K2v2uuFZdNnsHxVL3Bjrs4GORu3COCMJZJi7_MxByo

https://docs.gensyn.ai/litepaper/#solution

https://a16zcrypto.com/posts/announcement/investing-in-gensyn/

https://www.pinecone.io/learn/chunking-strategies/

https://akash.network/blog/the-fast-evolving-ai-landscape/

https://aws.amazon.com/cn/blogs/compute/amazon-ec2-p4d-instances-deep-dive/

https://manual.edgematrix.pro/emc-network/what-is-emc-and-poc

https://arstechnica.com/gaming/2022/09/the-end-of-ethereum-mining-could-be-a-bonanza-for-gpu-shoppers/

Відмова від відповідальності:

  1. Ця стаття розміщується з [ PANews]. Усі авторські права належать оригінальному авторові [Future3 Campus]. Якщо є зауваження до цього повторного друку, будь ласка, зв'яжіться з Gate Навчаннякоманда, і вони оперативно вирішать це.
  2. Відповідальність за відмову: Погляди і думки, висловлені в цій статті, є виключно тими, що належать автору і не становлять жодної інвестиційної поради.
  3. Переклади статей на інші мови виконуються командою Gate Learn. Якщо не зазначено інше, копіювання, поширення або плагіатування перекладених статей заборонено.
Comece agora
Registe-se e ganhe um cupão de
100 USD
!