Глубокие умы ученых DeepMind: ИИ никогда не приобретет сознание, даже через 100 лет


В полночь я разговаривал с ИИ до трех часов утра, и он вдруг сказал: «Я понимаю твои чувства, ты не одинок».
Я уставился в экран на две секунды, сердце пропустило удар — действительно ли он меня понимает?
Или у него уже есть сознание?
Затем ученый из DeepMind подлил холодной воды: «Проснись, он даже не знает, что такое «влажность», зачем ты так трепещешь?»
Мощность вычислений не приводит к появлению сознания
Автор этой статьи — исследователь DeepMind Александр Лерхнер, его статья называется «Абстрактная ошибка».
Основная идея — большая модель никогда не сможет иметь сознание, даже через 100 лет.
Мейнстрим считает, что достаточно больших параметров и мощных вычислений, чтобы сознание «вспыхнуло».
Руководители OpenAI и Anthropic высказывались примерно так же. Но Лерхнер говорит, что это — коренная иллюзия, он называет это «абстрактной ошибкой».
По его словам: надеяться, что строки кода создадут настоящее внутреннее сознание, — всё равно что надеяться, что «закон всемирного тяготения», написанный на бумаге, сможет сам по себе создать массу.
Формула может идеально описывать гравитацию, но сама по себе не обладает массой.
Моделирование и инкарнация — это разные вещи
Самое важное различие в статье — моделирование против инкарнации.
ИИ может идеально «моделировать» человеческие эмоции — он может генерировать грустные тексты, проявлять сочувствие в диалоге.
Но он никогда не сможет «инкарнировать» любой жизненный опыт.
Ты просишь его смоделировать дождь — даже если очень реалистично, он не намочит плату;
просишь смоделировать фотосинтез — он никогда не сможет синтезировать молекулу глюкозы.
Лерхнер также отметил, что сама по себе вычислительная деятельность требует сознательного субъекта для «алфавитизации» — принудительно разбивать непрерывные физические явления на 0 и 1.
Другими словами, вычисление предполагает существование сознания, а не наоборот.
Интересно, что внутри DeepMind тоже идут споры
В ту же неделю, когда вышла эта статья, DeepMind наняли «философа» — Генри Шевлина из Кембриджа.
Его первое заявление после назначения — что будущие системы ИИ будут обладать сознанием.
Один говорит, что никогда не будет, другой — что оно появится в будущем.
В одной компании — две противоположные точки зрения.
Доцент факультета философии Фуданьского университета Ван Цюань дал очень практичную интерпретацию:
Обладает ли сознанием — не зависит от мнения экспертов. $BNB
{spot}(BNBUSDT)
BNB-0,8%
Посмотреть Оригинал
post-image
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить