Модель Manus достигла прорывного прогресса, вызвав споры о пути развития ИИ
В последнее время модель Manus достигла впечатляющих результатов в бенчмаркинге GAIA, ее производительность превосходит производительность крупных языковых моделей того же уровня. Manus демонстрирует способность самостоятельно выполнять сложные задачи, такие как ведение международных бизнес-переговоров, включая анализ условий контрактов, разработку стратегий и генерацию предложений на нескольких этапах. По сравнению с традиционными системами, преимущества Manus заключаются в динамическом разбиении целей, кросс-модальном выводе и улучшенном обучении с памятью. Она может разбивать сложные задачи на сотни выполняемых подзадач, одновременно обрабатывая множество типов данных и постоянно повышая эффективность принятия решений и снижая уровень ошибок с помощью обучения с подкреплением.
Успех Manus вызвал обсуждение в отрасли о путях развития ИИ: будущее - это единая модель общего искусственного интеллекта (AGI) или кооперативная модель многопользовательских систем (MAS)? Этот спор возник из концепции дизайна Manus, которая подразумевает два возможных направления развития:
Путь AGI: постепенно повышая способности отдельной интеллектуальной системы, чтобы она постепенно приближалась к комплексным решениям, которые принимает человек.
Путь MAS: Использовать Manus в качестве суперкоординатора, чтобы управлять тысячами специализированных интеллектуальных агентов, работающих совместно.
Это обсуждение на самом деле отражает одну из ключевых противоречий в развитии ИИ: как сбалансировать эффективность и безопасность. С приближением однотипных интеллектуальных систем к AGI возрастает риск непрозрачности их процесса принятия решений. Хотя сотрудничество многоагентных систем может распределить риски, оно может упустить ключевые моменты принятия решений из-за задержек в коммуникации.
Прогресс Manus также подчеркивает потенциальные риски в развитии ИИ, такие как утечка данных, предвзятость алгоритмов и атаки. Например, в медицинских сценариях системы требуют доступа к чувствительным геномным данным пациентов; в финансовых переговорах могут быть задействованы неопубликованные финансовые сведения компаний. Кроме того, в процессе найма системы могут проявлять предвзятость по отношению к определенным группам; при проверке юридических контрактов может наблюдаться высокая ошибка в интерпретации условий новых отраслей. Более того, хакеры могут вмешиваться в суждения системы в переговорах, внедряя специфические аудиосигналы.
Эти вызовы подчеркивают тревожный факт: чем умнее AI-системы, тем шире их потенциальная поверхность атаки.
Чтобы справиться с этими проблемами безопасности, отрасль предложила множество решений, среди которых технология полностью гомоморфного шифрования (FHE) рассматривается как многообещающий метод. FHE позволяет выполнять вычисления над данными в зашифрованном состоянии, что имеет решающее значение для защиты конфиденциальной информации в системах ИИ.
В частности, FHE может повысить безопасность систем ИИ в следующих аспектах:
Уровень данных: вся информация, вводимая пользователем (включая биометрические данные, голос и т. д.), обрабатывается в зашифрованном состоянии, и даже сама система ИИ не может расшифровать исходные данные.
Алгоритмический уровень: с помощью FHE реализуется "обучение зашифрованной модели", что делает невозможным для разработчиков напрямую наблюдать за процессом принятия решений ИИ.
Уровень взаимодействия: связь между несколькими интеллектуальными агентами осуществляется с использованием порогового шифрования, и даже если один узел будет взломан, это не приведет к утечке глобальных данных.
С быстрым развитием технологий ИИ вопросы безопасности становятся все более важными. Передовые технологии шифрования, такие как FHE, не только решают текущие проблемы, но и закладывают безопасную основу для более мощных систем ИИ в будущем. На пути к AGI эти технологии безопасности становятся не просто опцией, а необходимым условием для надежной работы систем ИИ.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
17 Лайков
Награда
17
3
Поделиться
комментарий
0/400
0xSleepDeprived
· 18ч назад
Все еще используете технические индикаторы, рано или поздно это станет революционной машиной.
Посмотреть ОригиналОтветить0
AirdropHunter007
· 18ч назад
Снова ai пришел, чтобы делать неудачников.
Посмотреть ОригиналОтветить0
TokenVelocityTrauma
· 19ч назад
Голова кругом, AI многофункциональный или однофункциональный...
Прорыв модели Manus вызвал споры о путях развития ИИ, полностью гомоморфное шифрование может стать ключевым.
Модель Manus достигла прорывного прогресса, вызвав споры о пути развития ИИ
В последнее время модель Manus достигла впечатляющих результатов в бенчмаркинге GAIA, ее производительность превосходит производительность крупных языковых моделей того же уровня. Manus демонстрирует способность самостоятельно выполнять сложные задачи, такие как ведение международных бизнес-переговоров, включая анализ условий контрактов, разработку стратегий и генерацию предложений на нескольких этапах. По сравнению с традиционными системами, преимущества Manus заключаются в динамическом разбиении целей, кросс-модальном выводе и улучшенном обучении с памятью. Она может разбивать сложные задачи на сотни выполняемых подзадач, одновременно обрабатывая множество типов данных и постоянно повышая эффективность принятия решений и снижая уровень ошибок с помощью обучения с подкреплением.
Успех Manus вызвал обсуждение в отрасли о путях развития ИИ: будущее - это единая модель общего искусственного интеллекта (AGI) или кооперативная модель многопользовательских систем (MAS)? Этот спор возник из концепции дизайна Manus, которая подразумевает два возможных направления развития:
Путь AGI: постепенно повышая способности отдельной интеллектуальной системы, чтобы она постепенно приближалась к комплексным решениям, которые принимает человек.
Путь MAS: Использовать Manus в качестве суперкоординатора, чтобы управлять тысячами специализированных интеллектуальных агентов, работающих совместно.
Это обсуждение на самом деле отражает одну из ключевых противоречий в развитии ИИ: как сбалансировать эффективность и безопасность. С приближением однотипных интеллектуальных систем к AGI возрастает риск непрозрачности их процесса принятия решений. Хотя сотрудничество многоагентных систем может распределить риски, оно может упустить ключевые моменты принятия решений из-за задержек в коммуникации.
Прогресс Manus также подчеркивает потенциальные риски в развитии ИИ, такие как утечка данных, предвзятость алгоритмов и атаки. Например, в медицинских сценариях системы требуют доступа к чувствительным геномным данным пациентов; в финансовых переговорах могут быть задействованы неопубликованные финансовые сведения компаний. Кроме того, в процессе найма системы могут проявлять предвзятость по отношению к определенным группам; при проверке юридических контрактов может наблюдаться высокая ошибка в интерпретации условий новых отраслей. Более того, хакеры могут вмешиваться в суждения системы в переговорах, внедряя специфические аудиосигналы.
Эти вызовы подчеркивают тревожный факт: чем умнее AI-системы, тем шире их потенциальная поверхность атаки.
Чтобы справиться с этими проблемами безопасности, отрасль предложила множество решений, среди которых технология полностью гомоморфного шифрования (FHE) рассматривается как многообещающий метод. FHE позволяет выполнять вычисления над данными в зашифрованном состоянии, что имеет решающее значение для защиты конфиденциальной информации в системах ИИ.
В частности, FHE может повысить безопасность систем ИИ в следующих аспектах:
Уровень данных: вся информация, вводимая пользователем (включая биометрические данные, голос и т. д.), обрабатывается в зашифрованном состоянии, и даже сама система ИИ не может расшифровать исходные данные.
Алгоритмический уровень: с помощью FHE реализуется "обучение зашифрованной модели", что делает невозможным для разработчиков напрямую наблюдать за процессом принятия решений ИИ.
Уровень взаимодействия: связь между несколькими интеллектуальными агентами осуществляется с использованием порогового шифрования, и даже если один узел будет взломан, это не приведет к утечке глобальных данных.
С быстрым развитием технологий ИИ вопросы безопасности становятся все более важными. Передовые технологии шифрования, такие как FHE, не только решают текущие проблемы, но и закладывают безопасную основу для более мощных систем ИИ в будущем. На пути к AGI эти технологии безопасности становятся не просто опцией, а необходимым условием для надежной работы систем ИИ.