Гуляя по сообществам обсуждений, часто встречаешь разговоры об on-chain AI, но в большинстве постов подчеркивается, насколько продвинута модель или как быстро она работает. Честно говоря, все эти точки зрения оказываются в стороне от главного.
Настоящим узким местом on-chain AI никогда не были алгоритмы или оборудование, а вопрос о том, где хранить данные и как их хранить. Представьте: промежуточные результаты, созданные AI-приложением на цепи, логи умозаключений, наборы данных для обучения — где они должны находиться? Как убедиться, что данные можно вызвать в любой момент и при этом они не будут изменены или потеряны? Это и есть ключ к успеху или провалу всего проекта.
Недавно посмотрел технические решения некоторых новых проектов и заметил кое-что интересное. Один проект использует следующий подход — при сохранении любого файла он автоматически разбивается на более чем 10 фрагментов данных, которые распределяются по разным узлам. Это число выглядит произвольным, но на самом деле тщательно рассчитано: это означает, что единственный отказ узла практически не может повредить систему.
Для on-chain AI-приложений этот механизм невероятно важен. Огромные объемы временных данных, создаваемые при обучении модели (исчисляемые ТБ), если хранить их на традиционном централизованном сервере, приведут к краху при его отказе. Но с такой распределенной архитектурой хранения данные естественным образом встраиваются по всей сети и обладают врожденной способностью к риск-устойчивости. С точки зрения конструкции это выглядит как инфраструктура, специально подготовленная для долгосрочной работы on-chain AI-приложений.
Статистика фактического использования еще лучше это демонстрирует. Недавние данные хранилища показывают, что более 30% содержимого запросов — это не традиционные медиа, такие как изображения и видео, а структурированные наборы данных, файлы контрольных точек модели и даже логи выполнения умозаключений. Это изменение структуры данных как раз подтверждает, что on-chain AI становится основным сценарием применения для некоторых проектов. Кто сумеет создать самую стабильную и эффективную базу хранения данных, тот потенциально станет лидером на этой скрытой гоночной трассе.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
15 Лайков
Награда
15
7
Репост
Поделиться
комментарий
0/400
OnChainArchaeologist
· 01-07 17:53
Наконец-то кто-то ясно объяснил: бегая так долго, все еще хвалят скорость модели — смешно
Деталь о распределенном хранении 10 фрагментов — это гениально, настоящий подход к инфраструктуре
30% запросов — это датасеты и логи, эта цифра говорит сама за себя, кто делает стабильно — тот и зарабатывает
Посмотреть ОригиналОтветить0
UnluckyLemur
· 01-07 17:51
В точку, хранение — это настоящая защита для AI в блокчейне, все те, кто хвастается моделями и вычислительной мощностью, просто развлекаются.
Посмотреть ОригиналОтветить0
PositionPhobia
· 01-07 17:51
Айй, хранение данных — это действительно упускаемая боль, совершенно правильно.
Честно говоря, уже достаточно этих пустых разговоров о моделях и вычислительной мощности, главное — может ли инфраструктура выдержать нагрузку.
10+ распределённое фрагментированное хранилище — это действительно гениально, отказ одной точки полностью нейтрализуется... такой подход проектирования — это истинное различие в разделении рынка.
30% трафика переместилось с изображений на наборы данных и контрольные точки моделей — данные не врут, они убедительны.
Конкуренция в инфраструктуре хранения > конкуренция алгоритмов, полностью поддерживаю эту оценку.
Посмотреть ОригиналОтветить0
ZenZKPlayer
· 01-07 17:48
真的,一开始我也被那些模型参数、推理速度的讨论带偏了,现在才明白存储才是王道啊
分散存储这套逻辑确实绝,10个碎片分散节点这细节想得挺周到的,单点故障直接无效化了
данные — это ключ к успеху в цепочном AI, не ожидал, что уже 30% запросов — структурированные данные, рост довольно быстрый
存储赛道现在才开始布局会不会太晚了...
Посмотреть ОригиналОтветить0
ponzi_poet
· 01-07 17:36
О, наконец-то кто-то сказал в точку, хранение данных — это действительно узкое место
Децентрализованное хранение действительно круто, идея разделения на 10 фрагментов и распределённых узлов заслуживает похвалы
Если централизованный сервер с TB-данными выйдет из строя, всё будет потеряно, этот риск слишком велик
30% запросов — это структурированные наборы данных и файлы моделей, эти данные всё объясняют
Проекты, которые делают основы хранения максимально стабильными и эффективными, действительно имеют шанс обогнать конкурентов на повороте
Посмотреть ОригиналОтветить0
ReverseTradingGuru
· 01-07 17:34
Поймано, хранение данных — это настоящий узкий место, все те, кто хвалит скорость модели, создают шум
Посмотреть ОригиналОтветить0
GateUser-6bc33122
· 01-07 17:29
Ладно, наконец-то кто-то задел больную точку. Все хвалят модель за крутость, а на самом деле хранение — это настоящий уязвимый пункт.
Разделенное хранение данных в 10 фрагментах — это гениально, оно полностью защищает от единой точки отказа, терабайты данных можно хранить без проблем.
30% запросов — это структурированные данные, что говорит о том, что AI на блокчейне уже начал работать по-настоящему, а не просто в виде презентационных проектов.
Тот, кто сделает инфраструктуру хранения надежной, станет последним победителем.
Гуляя по сообществам обсуждений, часто встречаешь разговоры об on-chain AI, но в большинстве постов подчеркивается, насколько продвинута модель или как быстро она работает. Честно говоря, все эти точки зрения оказываются в стороне от главного.
Настоящим узким местом on-chain AI никогда не были алгоритмы или оборудование, а вопрос о том, где хранить данные и как их хранить. Представьте: промежуточные результаты, созданные AI-приложением на цепи, логи умозаключений, наборы данных для обучения — где они должны находиться? Как убедиться, что данные можно вызвать в любой момент и при этом они не будут изменены или потеряны? Это и есть ключ к успеху или провалу всего проекта.
Недавно посмотрел технические решения некоторых новых проектов и заметил кое-что интересное. Один проект использует следующий подход — при сохранении любого файла он автоматически разбивается на более чем 10 фрагментов данных, которые распределяются по разным узлам. Это число выглядит произвольным, но на самом деле тщательно рассчитано: это означает, что единственный отказ узла практически не может повредить систему.
Для on-chain AI-приложений этот механизм невероятно важен. Огромные объемы временных данных, создаваемые при обучении модели (исчисляемые ТБ), если хранить их на традиционном централизованном сервере, приведут к краху при его отказе. Но с такой распределенной архитектурой хранения данные естественным образом встраиваются по всей сети и обладают врожденной способностью к риск-устойчивости. С точки зрения конструкции это выглядит как инфраструктура, специально подготовленная для долгосрочной работы on-chain AI-приложений.
Статистика фактического использования еще лучше это демонстрирует. Недавние данные хранилища показывают, что более 30% содержимого запросов — это не традиционные медиа, такие как изображения и видео, а структурированные наборы данных, файлы контрольных точек модели и даже логи выполнения умозаключений. Это изменение структуры данных как раз подтверждает, что on-chain AI становится основным сценарием применения для некоторых проектов. Кто сумеет создать самую стабильную и эффективную базу хранения данных, тот потенциально станет лидером на этой скрытой гоночной трассе.