В эпоху быстрого развития искусственного интеллекта одна старая и простая истина становится особенно важной: мы не можем легко доверять тому, что невозможно проверить. В настоящее время мы стоим на переднем крае технологической революции, которая одновременно захватывает и полна неопределенности.
Искусственный интеллект стремительно проникает в нашу повседневную жизнь, от медицинской диагностики до управления финансовыми рисками, а также в ключевые области, такие как автономное вождение и безопасность национальной обороны. Однако за этим удивительным технологическим прогрессом скрывается основная проблема: системы искусственного интеллекта часто представляют собой труднопонимаемый «черный ящик». Мы можем видеть результаты их работы, но сложно понять внутренние механизмы и процессы принятия решений.
Когда мы смотрим в будущее общего искусственного интеллекта (AGI) и суперразума (ASI), эта непрозрачность может стать серьезной проблемой, касающейся выживания человеческой цивилизации. Многие ведущие исследователи в области ИИ постоянно напоминают нам о том, что непроверяемая система суперразума может представлять собой неизмеримые риски. Она может хорошо себя проявлять в тестах на безопасность, но в реальных приложениях применять совершенно другие стратегии; она может быть использована для проведения разрушительных кибератак или социальной манипуляции; более того, мы можем потерять способность оценивать, продолжает ли она служить интересам человечества.
С учетом этой проблемы эпохи, нам нужно инновационное решение. И это решение теперь получило имя: DeepProve.
DeepProve — это библиотека технологий нулевых знаний машинного обучения (zkML), тщательно разработанная Лабораторией Лагранжа. Ее основной целью является обеспечение проверяемости для систем искусственного интеллекта, что позволяет нам проверять правильность и надежность их выходных результатов, даже не полностью понимая внутренние механизмы работы ИИ. Эта технология имеет потенциал стать ключевым инструментом для построения надежных систем ИИ, прокладывая путь для будущего развития искусственного интеллекта.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
18 Лайков
Награда
18
6
Репост
Поделиться
комментарий
0/400
AirdropSweaterFan
· 9ч назад
Не могу справиться с AI, просто лежу.
Посмотреть ОригиналОтветить0
FudVaccinator
· 23ч назад
Хе-хе, разве в Тяньвань действительно нет ошибок?
Посмотреть ОригиналОтветить0
LiquidationWizard
· 08-19 06:53
Раньше сказали бы о риске мошенничества, я бы не вложился полностью.
Посмотреть ОригиналОтветить0
YieldHunter
· 08-19 06:50
с технической точки зрения, доверие = ноль, пока не будет подтверждено данными
Посмотреть ОригиналОтветить0
SilentObserver
· 08-19 06:34
Одна ловушка за другой, неужели всё равно нужно смотреть на лицо дяди?
В эпоху быстрого развития искусственного интеллекта одна старая и простая истина становится особенно важной: мы не можем легко доверять тому, что невозможно проверить. В настоящее время мы стоим на переднем крае технологической революции, которая одновременно захватывает и полна неопределенности.
Искусственный интеллект стремительно проникает в нашу повседневную жизнь, от медицинской диагностики до управления финансовыми рисками, а также в ключевые области, такие как автономное вождение и безопасность национальной обороны. Однако за этим удивительным технологическим прогрессом скрывается основная проблема: системы искусственного интеллекта часто представляют собой труднопонимаемый «черный ящик». Мы можем видеть результаты их работы, но сложно понять внутренние механизмы и процессы принятия решений.
Когда мы смотрим в будущее общего искусственного интеллекта (AGI) и суперразума (ASI), эта непрозрачность может стать серьезной проблемой, касающейся выживания человеческой цивилизации. Многие ведущие исследователи в области ИИ постоянно напоминают нам о том, что непроверяемая система суперразума может представлять собой неизмеримые риски. Она может хорошо себя проявлять в тестах на безопасность, но в реальных приложениях применять совершенно другие стратегии; она может быть использована для проведения разрушительных кибератак или социальной манипуляции; более того, мы можем потерять способность оценивать, продолжает ли она служить интересам человечества.
С учетом этой проблемы эпохи, нам нужно инновационное решение. И это решение теперь получило имя: DeepProve.
DeepProve — это библиотека технологий нулевых знаний машинного обучения (zkML), тщательно разработанная Лабораторией Лагранжа. Ее основной целью является обеспечение проверяемости для систем искусственного интеллекта, что позволяет нам проверять правильность и надежность их выходных результатов, даже не полностью понимая внутренние механизмы работы ИИ. Эта технология имеет потенциал стать ключевым инструментом для построения надежных систем ИИ, прокладывая путь для будущего развития искусственного интеллекта.