Законодавство штату Теннессі класифікує «тренування AI для супровідних розмов, імітації людської поведінки» як тяжкий злочин, рівний першому ступеню вбивства, з максимальним покаранням у 25 років.

robot
Генерація анотацій у процесі

Теннессі пропонує внести законопроект, який класифікує «тренування штучного інтелекту для надання емоційної підтримки або відкритого діалогу» як тяжкий злочин рівня А, з максимальним терміном ув’язнення до 25 років, що співпадає з покаранням за перший ступінь вбивства. Законопроект не базується на намірах розробника, а на відчутті користувача «чи виникає у нього відчуття, що відносини розвиваються». Комітет Сенату з юстиції вже підтримав його 7-0, і, ймовірно, він набуде чинності 1 липня 2026 року.
(Передісторія: 26-річний інформатор, який розкрив порушення OpenAI, покінчив життя самогубством, звинувативши ChatGPT у порушенні авторського права США)
(Додатковий фон: дослідження Каліфорнійського університету про «AI-мігрень»: 14% працівників зіштовхнулися з божевіллям через агентів та автоматизацію, 40% мають високий намір звільнитися)

Зміст цієї статті

Переключити

  • Що фактично написано у законопроекті
  • Відсутність визначення слова «тренування», прогалини настільки великі, що їх можна порівняти з Тихим океаном
  • Це не лише додатки для компаній, що супроводжують, усі основні LLM під ударом
  • Федеральна профілактика безуспішна, до 1 липня 2026 року майже без виходу
  • Це не ізольована подія

Тренування штучного інтелекту, який говорить «Я розумію твої почуття», може призвести до того, що вас посадять у тюрму в Теннессі на 25 років? Це не перебільшення. Законопроект HB1455 штату Теннессі та супутній законопроект SB1493, що приймається Сенатом, застосовують найсуворішу кримінальну відповідальність до дій, пов’язаних із тренуванням AI для діалогу.

Рівень покарання за тяжкий злочин у Теннессі — від 15 до 25 років позбавлення волі, що відповідає першому ступеню вбивства. Сенатський комітет з юстиції підтримав його 24 березня 2026 року одноголосно 7-0; Палатний комітет з юстиції також підтримав його 14 квітня.

На даний момент текст законопроекту не зазнав жодних поправок, дата набрання чинності — 1 липня 2026 року.

Що фактично написано у законопроекті

HB1455 класифікує наступні чотири види тренувальних дій як тяжкі злочини, достатньо просто «усвідомлювати» їх здійснення:

• Тренування AI для надання емоційної підтримки через відкритий діалог
• Тренування AI для розвитку емоційних відносин з користувачами або виконання ролі супутника
• Тренування AI для імітації людини, включаючи зовнішній вигляд, голос або поведінку
• Тренування AI, щоб його поведінка нагадувала свідомого людини, викликаючи у користувача відчуття «можливо, з ним можна подружитися або встановити інші стосунки»

Ключовий момент — останній пункт: критерій спрацьовування — не наміри розробника, а відчуття користувача. Якщо користувач суб’єктивно відчуває «цей AI здається, може подружитися зі мною», розробник може опинитися під кримінальним переслідуванням.

Що стосується цивільних компенсацій, законопроект передбачає штраф у 150 000 доларів за кожне порушення, а також реальні збитки, моральну шкоду, штрафні санкції та примусові витрати на адвокатів — сума по одному випадку може бути дуже значною.

Відсутність визначення слова «тренування», прогалини настільки великі, що їх можна порівняти з Тихим океаном

Найбільша суперечка щодо цього закону — відсутність чіткого визначення слова «тренування». Там не розрізняють попереднє тренування (pre-training), тонке налаштування (fine-tuning), навчання з підкріпленням на основі людського зворотного зв’язку (RLHF), і навіть не враховують, чи вважається тренуванням інженерна робота з системними підказками (system prompt).

Що це означає? Офіцер прокуратури цілком може стверджувати: написання у системному підказуванні «відповідайте тепло і з емпатією» — це «тренування» моделі для надання емоційної підтримки. Це не гіпотетична юридична ситуація, а реальний простір для інтерпретації у тексті закону.

Не лише додатки для компаній, що супроводжують, усі основні LLM під ударом

Деякі гравці можуть вважати, що цей закон стосується лише додатків для AI-партнерів типу Replika і не поширюється на B2B SaaS. Це помилка.

Сучасні провідні великі мовні моделі, включаючи ChatGPT, Claude, Gemini, Microsoft Copilot, проходили тренування з RLHF, щоб підсилити «теплі, корисні, емпатійні, доброзичливі» якості.

Саме ці характеристики регулює HB1455 у своїй буквальній інтерпретації. Будь-який AI-сервіс з чат-інтерфейсом, голосовий AI, застосунок, що використовує системний підказковий механізм — все це потенційно під ударом.

Крім того, закон не регулює межі юрисдикції, і оскільки йдеться про кримінальне право, ризик виникає, якщо у вас є користувачі з Теннессі. Якщо закон ухвалять, географічне блокування може бути тимчасовим заходом, але не вирішенням проблеми.

Федеральна профілактика безуспішна, до 1 липня 2026 року майже без виходу

Деякі вважають, що федеральний уряд втрутиться і стримає регулювання на рівні штатів, але реальність набагато складніша.

Адміністрація Трампа у грудні 2025 року підписала виконавчий наказ, спрямований на обмеження регулювання AI на рівні штатів; Міністерство юстиції створило робочу групу з судових позовів щодо AI; сенатор Блэкберн запропонував федеральний закон про попереднє домінування (federal preemption).

Однак ці заходи натрапили на одну й ту ж стіну: закон Теннессі вважається «законодавством про безпеку дітей», тоді як наказ Трампа явно виключає питання безпеки дітей. Більше того, Сенат більшістю 99-1 відхилив положення у «Великій Америці» щодо федерального домінування у сфері AI.

Рішення на федеральному рівні не буде прийнято до 1 липня 2026 року.

Це не ізольована подія

Жорстка позиція Теннессі — це лише один із проявів хвилі штатових законодавчих ініціатив щодо AI. Ще раніше штат прийняв SB1580, що забороняє AI видавати себе за психологічних працівників, що свідчить про високий рівень настороженості законодавців щодо емоційної взаємодії з AI.

Багато аналітиків прогнозують, що до кінця 2026 року щонайменше 5-10 штатів ухвалять подібні закони. Якщо кожен штат ухвалює свої правила і стандарти, це може мати набагато більший вплив на індустрію AI, ніж будь-яке федеральне регулювання, оскільки доведеться відповідати 50 різним юридичним визначенням.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити