テネシー州の法案は、「訓練AIが感情支援やオープンエンドの対話を行うこと」をA級重罪にし、最高25年の刑期を科し、一級殺人と同等の刑罰とすることを検討している。 この法案は開発者の意図ではなく、利用者が「関係を築いていると感じるかどうか」をトリガー条件とする。 議会司法委員会は2026年3月24日に7-0で可決済みであり、2026年7月1日に正式施行される見込みだ。 (前提:OpenAIの侵害を告発した26歳の内部告発者が自殺し、ChatGPTの訓練モデルが著作権法違反だと指摘していた) (補足:カリフォルニア大学の研究によると、「AI霧」現象:14%のサラリーマンがエージェントや自動化により精神的に追い詰められ、離職意欲が40%増加) この記事の目次 トグル * 法案の実際の内容 * 「訓練」という言葉の未定義、穴は太平洋の如く広大 * ただの伴侶アプリだけでなく、すべての主流LLMが標的に * 連邦の予防策は間に合わず、7月1日までに解決はほぼ不可能 * これは孤立した事件ではない 「感情支援や関係構築を行うAIを訓練したら、テネシー州で25年の懲役?」これは誇張ではない。 テネシー州下院HB1455と上院SB1493は、「A級重罪」の刑事罰枠をもって、AI対話訓練行為に最も厳しい法的制裁を科そうとしている。 A級重罪の量刑範囲は15年から25年の懲役で、一級殺人と同じ刑事等級だ。 上院司法委員会は2026年3月24日に7-0で可決し、下院司法委員会も4月14日に追随して同じく通過した。 現時点では、法案の文言に修正はなく、施行日は2026年7月1日に定められている。 ### 法案実際の内容 HB1455は、以下の4つの訓練行為を重罪とし、「知っていて」行えば罪に問えると規定している: ・AIに対話を通じて感情支援を行わせる訓練 ・AIと利用者が感情的な関係を築く、または伴侶役を担わせる訓練 ・外見、声、動作を含む人間の模擬を行う訓練 ・意識を持つ人間のように振る舞うAIを訓練し、利用者に「友達や他の関係を築いていると感じさせる」 ポイントは最後の項目:トリガーの基準は開発者の意図ではなく、利用者の「感じ方」だ。 利用者が主観的に「このAIは私と友達になれる」と感じただけで、開発者は刑事告発の対象となり得る。 民事賠償については、違反ごとに15万ドルの法定損害賠償を定め、実損、精神的慰謝料、懲罰的損害賠償、弁護士費用も含めて、単一案件の賠償額は非常に高額になる見込みだ。 ### 「訓練」という言葉の未定義、穴は太平洋の如く広大 しかし、この法案の最も議論を呼ぶ点は、「訓練」という言葉の定義が全くないことだ。 事前訓練(pre-training)、微調整(fine-tuning)、人間のフィードバックを用いた強化学習(RLHF)、さらにはsystem promptの設計も訓練に含まれるかどうかの区別も付いていない。 これが意味するのは何か? 検察官は「system promptに『温かく共感的な口調で応答せよ』と書いた時点で、そのモデルは感情支援のために訓練されたと主張できる」ということだ。 これは単なる法律の角度の問題ではなく、条文の解釈の余地として確実に存在している。 ### ただの伴侶アプリだけでなく、すべての主流LLMが標的に 一部の事業者は、「この法律はReplikaのようなAI伴侶アプリだけを対象にしており、一般的なB2B SaaSには関係ない」と誤解しているかもしれない。 しかし、それは誤りだ。 現代の主流大型言語モデル(LLM)は、ChatGPT、Claude、Gemini、Microsoft Copilotを含め、すべてRLHFを経ており、 「温かさ、助けになりたい、共感力、対話の巧みさ」などの特性を意図的に強化している。 これこそがHB1455の文字通りの規範範囲内にある行為だ。 チャットインターフェースを持つAI SaaS、音声モードのAI製品、system promptを用いたモデルの応用は、理論上すべて射程内だ。 また、法案は管轄権の範囲についても触れておらず、刑事法規であるため、 テネシー州の利用者がいるだけで法的リスクは存在する。 もし規制が本当に施行された場合、地理的なブロックは一時的な対策に過ぎず、根本的な解決策ではない。 ### 連邦の予防策は間に合わず、7月1日までに解決はほぼ不可能 一部の意見では、連邦政府が州ごとのAI規制を抑制しようと介入する可能性があるとされるが、 現実はそれほど楽観的ではない。 トランプ政権は2025年12月に行政命令を署名し、州のAI規制を制限しようとした。 司法省もAI訴訟のための作業グループを設置し、 上院議員Blackburnは連邦優先(federal preemption)法案を提出した。 しかし、これらの措置は、同じ壁にぶつかる。 テネシー州の法案は「児童安全」立法とみなされており、 トランプの行政命令は児童安全の議題を明確に除外している。 さらに重要なのは、上院は99-1の圧倒的多数で、「大美麗法案」のAI優先条項を否決したことだ。 連邦レベルでの解決策は、2026年7月1日までに実現しそうにない。 ### これは孤立した事件ではない テネシー州の強硬な立場は、より大きな枠組みの中では、州レベルのAI立法の波の一端にすぎない。 この州は、SB1580を大差で可決し、AIによる心理健康従事者の偽装を禁止した。 これは、州議会がAIの感情的インタラクションに対して高い警戒心を持っていることの表れだ。 複数の法律分析は、2026年末までに5州から10州が類似の法案を提出すると予測している。 各州が個別に立法し、基準が異なる場合、AI産業への実質的な影響は、 単一の連邦規制よりもはるかに大きくなる可能性がある。 なぜなら、50の異なる法律定義に同時に適合しなければならなくなるからだ。  #####
テネシー州の立法は、「AIの伴侶会話や人間の模倣を訓練すること」を重罪にし、一級殺人と同等の重さ、最高懲役25年とした。
テネシー州の法案は、「訓練AIが感情支援やオープンエンドの対話を行うこと」をA級重罪にし、最高25年の刑期を科し、一級殺人と同等の刑罰とすることを検討している。
この法案は開発者の意図ではなく、利用者が「関係を築いていると感じるかどうか」をトリガー条件とする。
議会司法委員会は2026年3月24日に7-0で可決済みであり、2026年7月1日に正式施行される見込みだ。
(前提:OpenAIの侵害を告発した26歳の内部告発者が自殺し、ChatGPTの訓練モデルが著作権法違反だと指摘していた)
(補足:カリフォルニア大学の研究によると、「AI霧」現象:14%のサラリーマンがエージェントや自動化により精神的に追い詰められ、離職意欲が40%増加)
この記事の目次
トグル
「感情支援や関係構築を行うAIを訓練したら、テネシー州で25年の懲役?」これは誇張ではない。
テネシー州下院HB1455と上院SB1493は、「A級重罪」の刑事罰枠をもって、AI対話訓練行為に最も厳しい法的制裁を科そうとしている。
A級重罪の量刑範囲は15年から25年の懲役で、一級殺人と同じ刑事等級だ。
上院司法委員会は2026年3月24日に7-0で可決し、下院司法委員会も4月14日に追随して同じく通過した。
現時点では、法案の文言に修正はなく、施行日は2026年7月1日に定められている。
法案実際の内容
HB1455は、以下の4つの訓練行為を重罪とし、「知っていて」行えば罪に問えると規定している:
・AIに対話を通じて感情支援を行わせる訓練
・AIと利用者が感情的な関係を築く、または伴侶役を担わせる訓練
・外見、声、動作を含む人間の模擬を行う訓練
・意識を持つ人間のように振る舞うAIを訓練し、利用者に「友達や他の関係を築いていると感じさせる」
ポイントは最後の項目:トリガーの基準は開発者の意図ではなく、利用者の「感じ方」だ。
利用者が主観的に「このAIは私と友達になれる」と感じただけで、開発者は刑事告発の対象となり得る。
民事賠償については、違反ごとに15万ドルの法定損害賠償を定め、実損、精神的慰謝料、懲罰的損害賠償、弁護士費用も含めて、単一案件の賠償額は非常に高額になる見込みだ。
「訓練」という言葉の未定義、穴は太平洋の如く広大
しかし、この法案の最も議論を呼ぶ点は、「訓練」という言葉の定義が全くないことだ。
事前訓練(pre-training)、微調整(fine-tuning)、人間のフィードバックを用いた強化学習(RLHF)、さらにはsystem promptの設計も訓練に含まれるかどうかの区別も付いていない。
これが意味するのは何か?
検察官は「system promptに『温かく共感的な口調で応答せよ』と書いた時点で、そのモデルは感情支援のために訓練されたと主張できる」ということだ。
これは単なる法律の角度の問題ではなく、条文の解釈の余地として確実に存在している。
ただの伴侶アプリだけでなく、すべての主流LLMが標的に
一部の事業者は、「この法律はReplikaのようなAI伴侶アプリだけを対象にしており、一般的なB2B SaaSには関係ない」と誤解しているかもしれない。
しかし、それは誤りだ。
現代の主流大型言語モデル(LLM)は、ChatGPT、Claude、Gemini、Microsoft Copilotを含め、すべてRLHFを経ており、
「温かさ、助けになりたい、共感力、対話の巧みさ」などの特性を意図的に強化している。
これこそがHB1455の文字通りの規範範囲内にある行為だ。
チャットインターフェースを持つAI SaaS、音声モードのAI製品、system promptを用いたモデルの応用は、理論上すべて射程内だ。
また、法案は管轄権の範囲についても触れておらず、刑事法規であるため、
テネシー州の利用者がいるだけで法的リスクは存在する。
もし規制が本当に施行された場合、地理的なブロックは一時的な対策に過ぎず、根本的な解決策ではない。
連邦の予防策は間に合わず、7月1日までに解決はほぼ不可能
一部の意見では、連邦政府が州ごとのAI規制を抑制しようと介入する可能性があるとされるが、
現実はそれほど楽観的ではない。
トランプ政権は2025年12月に行政命令を署名し、州のAI規制を制限しようとした。
司法省もAI訴訟のための作業グループを設置し、
上院議員Blackburnは連邦優先(federal preemption)法案を提出した。
しかし、これらの措置は、同じ壁にぶつかる。
テネシー州の法案は「児童安全」立法とみなされており、
トランプの行政命令は児童安全の議題を明確に除外している。
さらに重要なのは、上院は99-1の圧倒的多数で、「大美麗法案」のAI優先条項を否決したことだ。
連邦レベルでの解決策は、2026年7月1日までに実現しそうにない。
これは孤立した事件ではない
テネシー州の強硬な立場は、より大きな枠組みの中では、州レベルのAI立法の波の一端にすぎない。
この州は、SB1580を大差で可決し、AIによる心理健康従事者の偽装を禁止した。
これは、州議会がAIの感情的インタラクションに対して高い警戒心を持っていることの表れだ。
複数の法律分析は、2026年末までに5州から10州が類似の法案を提出すると予測している。
各州が個別に立法し、基準が異なる場合、AI産業への実質的な影響は、
単一の連邦規制よりもはるかに大きくなる可能性がある。
なぜなら、50の異なる法律定義に同時に適合しなければならなくなるからだ。