Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Теннесси приняла закон, считающий «обучение ИИ для сопровождения диалогов и имитации человека» тяжким преступлением, равным первому уровню убийства, с максимальным наказанием до 25 лет
Теннесси планирует внести законопроект, который отнесет «обучение ИИ предоставлению эмоциональной поддержки или открытым диалогам» к категории тяжких преступлений уровня А, с максимальным сроком до 25 лет, что приравнивается к уголовной ответственности за убийство первой степени. Законопроект не основывается на намерениях разработчика, а использует в качестве триггера «ощущение пользователя о развитии отношений». Сенатский комитет по юстиции уже одобрил его 7-0, и, скорее всего, он вступит в силу 1 июля 2026 года.
(Предыстория: 26-летний информатор, раскрывший нарушения OpenAI, покончил с собой; он обвинял ChatGPT в нарушении авторских прав США)
(Дополнительный фон: исследование калифорнийского университета о «туманности ИИ»: 14% работников страдают от автоматизации и агентов, желание уволиться выросло на 40%)
Содержание статьи
Переключить
Обучение ИИ, который говорит «Я понимаю твои чувства», может привести к тюремному заключению на 25 лет в Теннесси? Это не преувеличение. Законопроекты HB1455 в штате Теннесси и сопутствующий SB1493 в Сенате используют рамки уголовного преследования уровня А, чтобы применить самые строгие меры к действиям по обучению диалоговых ИИ.
Уровень тяжкого преступления А в Теннесси предусматривает наказание от 15 до 25 лет лишения свободы, что совпадает с наказанием за убийство первой степени. Сенатский комитет по юстиции одобрил их 24 марта 2026 года единогласно 7-0; Палата представителей также проголосовала за 14 апреля.
На сегодняшний день текст законопроекта не претерпел изменений, дата вступления — 1 июля 2026 года.
Что на самом деле прописано в законопроекте
HB1455 включает четыре вида обучения, которые считаются тяжкими преступлениями при наличии «знания» о совершении:
・Обучение ИИ предоставлению эмоциональной поддержки через открытые диалоги
・Обучение ИИ развитию эмоциональных связей с пользователями или выступлению в роли компаньона
・Обучение ИИ имитации человека, включая внешний вид, голос или поведение
・Обучение ИИ вести себя как сознательный человек, создавая у пользователя ощущение «возможности завести дружбу или другие отношения»
Ключевое — в последнем пункте: триггером является не намерение разработчика, а ощущение пользователя. Если пользователь субъективно чувствует, что «этот ИИ вроде бы может подружиться со мной», разработчик может столкнуться с уголовным преследованием.
В гражданском праве закон предусматривает штрафы в размере 150 тысяч долларов за каждое нарушение, а также компенсацию реальных убытков, морального вреда, штрафные выплаты и судебные издержки — сумма по одному делу может быть очень высокой.
Термин «обучение» не определен, уязвимость огромна
Самая спорная часть этого закона — отсутствие определения термина «обучение». В нем не разграничены предварительное обучение (pre-training), дообучение (fine-tuning), обучение с помощью обратной связи от человека (RLHF), и даже инженерная настройка системных подсказок (system prompt).
Это означает, что любой прокурор может утверждать: написание в системной подсказке «Пожалуйста, отвечайте тепло и с сочувствием» — это «обучение» модели для предоставления эмоциональной поддержки. Это не гипотетическая юридическая лазейка, а реальный простор для интерпретации в тексте закона.
Не только приложения-компаньоны, все крупные LLM под ударом
Некоторые компании могут считать, что этот закон касается только приложений типа Replika, и не распространяется на B2B SaaS. Это ошибка.
Современные крупные языковые модели, такие как ChatGPT, Claude, Gemini, Microsoft Copilot, проходят обучение с помощью RLHF, специально усиливая такие качества, как тепло, помощь, сочувствие и хорошие диалоги.
Именно это прямо прописано в тексте HB1455. Любое приложение с чат-интерфейсом, SaaS на базе ИИ, голосовые модели или использование системных подсказок — все это потенциально попадает под регулирование.
Кроме того, закон не регулирует границы юрисдикции, и поскольку речь идет о уголовном праве, риск существует, если у вас есть пользователи из Теннесси. Блокировка по географическому признаку — временная мера, но не решение.
Федеральные меры неэффективны, до 1 июля 2026 года решений почти нет
Некоторые считают, что федеральное правительство вмешается и остановит регулирование на уровне штатов, но ситуация гораздо сложнее.
Администрация Трампа в декабре 2025 года подписала исполнительный указ, направленный на ограничение регулирования штатов в сфере ИИ; Минюст создал рабочую группу по судебным делам, связанным с ИИ; сенатор Блэкберн предложил федеральный закон о предварительном доминировании (federal preemption).
Но все эти меры сталкиваются с одним препятствием: законопроект Теннесси квалифицируется как «закон о безопасности детей», а указ Трампа исключает вопросы, связанные с безопасностью детей. Более того, Сенат проголосовал 99-1 против положения о предварительном доминировании ИИ в «Великой Америке».
Решения на федеральном уровне вряд ли появятся до 1 июля 2026 года.
Это не изолированный случай
Жесткая позиция Теннесси — часть более широкой волны штатов по принятию законов о ИИ. Ранее штат принял SB1580, запрещающий AI выдавать себя за психолога или специалиста по психическому здоровью, что показывает высокий уровень тревоги по поводу эмоциональных взаимодействий с ИИ.
Аналитики прогнозируют, что до конца 2026 года еще 5–10 штатов предложат похожие законы. Если каждый штат будет принимать свои правила, стандарты могут разниться, и это нанесет гораздо больший урон индустрии ИИ, чем единая федеральная регуляция, поскольку придется соблюдать 50 различных законов.