Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Глубокие умы ученых DeepMind: ИИ никогда не приобретет сознание, даже через 100 лет
В полночь я разговаривал с ИИ до трех часов утра, и он вдруг сказал: «Я понимаю твои чувства, ты не одинок».
Я уставился в экран на две секунды, сердце пропустило удар — действительно ли он меня понимает?
Или у него уже есть сознание?
Затем ученый из DeepMind подлил холодной воды: «Проснись, он даже не знает, что такое «влажность», зачем ты так трепещешь?»
Мощность вычислений не приводит к появлению сознания
Автор этой статьи — исследователь DeepMind Александр Лерхнер, его статья называется «Абстрактная ошибка».
Основная идея — большая модель никогда не сможет иметь сознание, даже через 100 лет.
Мейнстрим считает, что достаточно больших параметров и мощных вычислений, чтобы сознание «вспыхнуло».
Руководители OpenAI и Anthropic высказывались примерно так же. Но Лерхнер говорит, что это — коренная иллюзия, он называет это «абстрактной ошибкой».
По его словам: надеяться, что строки кода создадут настоящее внутреннее сознание, — всё равно что надеяться, что «закон всемирного тяготения», написанный на бумаге, сможет сам по себе создать массу.
Формула может идеально описывать гравитацию, но сама по себе не обладает массой.
Моделирование и инкарнация — это разные вещи
Самое важное различие в статье — моделирование против инкарнации.
ИИ может идеально «моделировать» человеческие эмоции — он может генерировать грустные тексты, проявлять сочувствие в диалоге.
Но он никогда не сможет «инкарнировать» любой жизненный опыт.
Ты просишь его смоделировать дождь — даже если очень реалистично, он не намочит плату;
просишь смоделировать фотосинтез — он никогда не сможет синтезировать молекулу глюкозы.
Лерхнер также отметил, что сама по себе вычислительная деятельность требует сознательного субъекта для «алфавитизации» — принудительно разбивать непрерывные физические явления на 0 и 1.
Другими словами, вычисление предполагает существование сознания, а не наоборот.
Интересно, что внутри DeepMind тоже идут споры
В ту же неделю, когда вышла эта статья, DeepMind наняли «философа» — Генри Шевлина из Кембриджа.
Его первое заявление после назначения — что будущие системы ИИ будут обладать сознанием.
Один говорит, что никогда не будет, другой — что оно появится в будущем.
В одной компании — две противоположные точки зрения.
Доцент факультета философии Фуданьского университета Ван Цюань дал очень практичную интерпретацию:
Обладает ли сознанием — не зависит от мнения экспертов. $BNB
{spot}(BNBUSDT)