Я погрузился в этот проект Lagrange, и честно говоря, он одновременно увлекателен и разочаровывающ. Они строят то, что называют "бесконечным слоем доказательства" для Web3 - по сути, децентрализованную инфраструктуру с нулевым знанием, которая может проверять доказательства между цепями, DeFi и ИИ-инференцией. Они только что запустили свой токен LA после того, как собрали внушительные 17,2 миллиона долларов, и у них уже есть листинги на крупных биржах.
Смотря на их сеть ZK Prover, ZK Coprocessor и систему DeepProve zkML - это амбициозные технологии, возможно, слишком амбициозные? Вопрос, который у меня возникает: решает ли это реальную проблему или это просто еще один токен, который едет на хайпе ZK и ИИ?
Их утверждение о том, что они делают "каждое решение ИИ доказуемым", звучит революционно в теории. Традиционные методы верификации говорят нам, что произошло, но не почему или как - что и является той самой пробелом, который Лагранж стремится заполнить. Это различие имеет огромное значение для систем ИИ, где обоснование решений часто так же важно, как и само решение.
Что привлекло мое внимание, так это их архитектура, которая разделяет генерацию доказательств от сред выполнения. Это означает, что они могут проверять результаты ИИ, сложные операции SQL и исторические кросс-цепочные данные - вещи, с которыми современные системы сталкиваются с трудностями.
Экономика токенов кажется простой, но потенциально проблематичной. Спрос на доказательства стимулирует спрос на токены LA, с комиссиями, оплачиваемыми в LA ( или конвертированными в LA). Операторы и делегаторы получают часть этих комиссий, создавая экосистему, которая теоретически согласует стимулы. Но мы видели, как эта модель проваливалась раньше, когда фактическое использование не осуществлялось.
Их аукционная система DARA для сопоставления задач доказательства с операторами умна - напоминает механизмы ордер-бука, но для вычислительных ресурсов. Однако я задаюсь вопросом, не ограничит ли эта сложность принятие.
Партнёрства с 0G Labs и Matter Labs являются интересными сигналами. Но я скептически настроен - мы видели бесчисленные "революционные" инфраструктуры в крипто, которые никогда не достигли реального применения.
Когда они утверждают, что DeepProve "уже проверил миллионы внецепочных вычислений", я хочу увидеть подтверждения. Какие вычисления? Для кого? С какой экономической ценностью?
К 2030 году Лагранж предполагает, что системы ИИ будут генерировать криптографические квитанции за все, что они делают. Это мощное видение, которое в корне изменит наше доверие к машинам. Но путь от настоящего к этому наполнен неудавшимися протоколами.
Вопрос не в том, важен ли верifiable AI - он абсолютно важен. Вопрос в том, победит ли подход Лагранжа в невероятно конкурентной среде. Я внимательно наблюдаю, но пока не убежден.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
За кулисами хайпа: Мой взгляд на инфраструктуру ZK Лагранжа для AI и кросс-цепной верификации
Я погрузился в этот проект Lagrange, и честно говоря, он одновременно увлекателен и разочаровывающ. Они строят то, что называют "бесконечным слоем доказательства" для Web3 - по сути, децентрализованную инфраструктуру с нулевым знанием, которая может проверять доказательства между цепями, DeFi и ИИ-инференцией. Они только что запустили свой токен LA после того, как собрали внушительные 17,2 миллиона долларов, и у них уже есть листинги на крупных биржах.
Смотря на их сеть ZK Prover, ZK Coprocessor и систему DeepProve zkML - это амбициозные технологии, возможно, слишком амбициозные? Вопрос, который у меня возникает: решает ли это реальную проблему или это просто еще один токен, который едет на хайпе ZK и ИИ?
Их утверждение о том, что они делают "каждое решение ИИ доказуемым", звучит революционно в теории. Традиционные методы верификации говорят нам, что произошло, но не почему или как - что и является той самой пробелом, который Лагранж стремится заполнить. Это различие имеет огромное значение для систем ИИ, где обоснование решений часто так же важно, как и само решение.
Что привлекло мое внимание, так это их архитектура, которая разделяет генерацию доказательств от сред выполнения. Это означает, что они могут проверять результаты ИИ, сложные операции SQL и исторические кросс-цепочные данные - вещи, с которыми современные системы сталкиваются с трудностями.
Экономика токенов кажется простой, но потенциально проблематичной. Спрос на доказательства стимулирует спрос на токены LA, с комиссиями, оплачиваемыми в LA ( или конвертированными в LA). Операторы и делегаторы получают часть этих комиссий, создавая экосистему, которая теоретически согласует стимулы. Но мы видели, как эта модель проваливалась раньше, когда фактическое использование не осуществлялось.
Их аукционная система DARA для сопоставления задач доказательства с операторами умна - напоминает механизмы ордер-бука, но для вычислительных ресурсов. Однако я задаюсь вопросом, не ограничит ли эта сложность принятие.
Партнёрства с 0G Labs и Matter Labs являются интересными сигналами. Но я скептически настроен - мы видели бесчисленные "революционные" инфраструктуры в крипто, которые никогда не достигли реального применения.
Когда они утверждают, что DeepProve "уже проверил миллионы внецепочных вычислений", я хочу увидеть подтверждения. Какие вычисления? Для кого? С какой экономической ценностью?
К 2030 году Лагранж предполагает, что системы ИИ будут генерировать криптографические квитанции за все, что они делают. Это мощное видение, которое в корне изменит наше доверие к машинам. Но путь от настоящего к этому наполнен неудавшимися протоколами.
Вопрос не в том, важен ли верifiable AI - он абсолютно важен. Вопрос в том, победит ли подход Лагранжа в невероятно конкурентной среде. Я внимательно наблюдаю, но пока не убежден.