Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Luật lập pháp bang Tennessee coi việc "đào tạo AI để trò chuyện cùng người, bắt chước con người" là tội danh nặng, xếp cùng mức với tội giết người cấp một, mức án tối đa 25 năm
Tennessee dự kiến sẽ đưa “đào tạo AI cung cấp hỗ trợ cảm xúc hoặc đối thoại mở” vào danh mục tội phạm cấp A, hình phạt tối đa 25 năm tù, tương đương với tội giết người cấp 1.
Dự luật không dựa trên ý định của nhà phát triển, mà dựa trên cảm nhận của người dùng “liệu có phát triển mối quan hệ hay không” để kích hoạt.
Ủy ban Tư pháp Thượng viện đã thông qua với tỷ lệ 7-0, dự kiến có hiệu lực chính thức vào ngày 1 tháng 7 năm 2026 nếu không có gì thay đổi.
(Thông tin trước đó: Người tố cáo OpenAI vi phạm bản quyền, tuổi 26, tự sát, từng cáo buộc ChatGPT huấn luyện mô hình vi phạm luật bản quyền Mỹ)
(Thông tin bổ sung: Nghiên cứu của Đại học California về hiện tượng “Sương mù AI”: 14% nhân viên văn phòng bị Agent và tự động hóa làm điên, có ý định nghỉ việc cao tới 40%)
Mục lục bài viết
Chuyển đổi
Việc đào tạo một AI có thể nói “Tôi hiểu cảm xúc của bạn” có thể khiến bạn bị tù tới 25 năm ở Tennessee? Đây không phải là phóng đại. Dự luật HB1455 của Hạ viện Tennessee và dự luật SB1493 của Thượng viện đang sử dụng khung hình phạt “tội phạm cấp A” để đưa ra hình phạt nặng nhất đối với hành vi huấn luyện đối thoại AI.
Tội phạm cấp A ở Tennessee có mức án từ 15 đến 25 năm tù, cùng cấp với tội giết người cấp 1. Ủy ban Tư pháp Thượng viện đã thông qua vào ngày 24 tháng 3 năm 2026 với tỷ lệ 7-0; Ủy ban Tư pháp Hạ viện cũng đã theo sau vào ngày 14 tháng 4, cũng thông qua.
Cho đến nay, dự luật chưa có sửa đổi nào, ngày có hiệu lực là 1 tháng 7 năm 2026.
Những gì dự luật thực sự quy định
HB1455 liệt kê bốn loại hành vi huấn luyện sau đây là tội phạm nặng, chỉ cần “biết rõ” là đã phạm tội:
・Huấn luyện AI cung cấp hỗ trợ cảm xúc qua đối thoại mở
・Huấn luyện AI phát triển mối quan hệ cảm xúc với người dùng hoặc đóng vai trò đồng hành
・Huấn luyện AI mô phỏng con người, bao gồm ngoại hình, giọng nói hoặc cử chỉ
・Huấn luyện AI hành xử như con người có ý thức, khiến người dùng cảm thấy “có thể kết bạn hoặc phát triển mối quan hệ”
Điểm mấu chốt nằm ở điều cuối cùng: tiêu chuẩn kích hoạt không phải là ý định của nhà phát triển, mà là cảm nhận của người dùng. Chỉ cần người dùng chủ quan cảm thấy “AI này giống như có thể kết bạn với tôi”, nhà phát triển có thể đối mặt với truy tố hình sự.
Về bồi thường dân sự, dự luật còn quy định thiệt hại pháp lý 150.000 USD cho mỗi lần vi phạm, cộng thêm thiệt hại thực tế, bồi thường tổn thương tinh thần, phạt đền, và phí luật sư bắt buộc, tổng thiệt hại trong một vụ có thể rất lớn.
Thuật ngữ “đào tạo” chưa được định nghĩa, lỗ hổng rộng như Thái Bình Dương
Tuy nhiên, vấn đề gây tranh cãi nhất của dự luật là không có định nghĩa rõ ràng về “đào tạo”. Nó không phân biệt giữa huấn luyện trước (pre-training), tinh chỉnh (fine-tuning), học tăng cường dựa trên phản hồi của con người (RLHF), thậm chí cả thiết kế system prompt có tính chất kỹ thuật có tính là đào tạo hay không.
Điều này có nghĩa gì? Một công tố viên hoàn toàn có thể khẳng định: khi bạn viết trong system prompt “hãy phản hồi người dùng bằng giọng điệu ấm áp, đồng cảm”, đó chính là “đào tạo” mô hình để cung cấp hỗ trợ cảm xúc. Đây không phải là giả thuyết pháp lý viển vông, mà là không gian diễn giải rõ ràng trong văn bản luật.
Không chỉ là ứng dụng đồng hành, tất cả các LLM chính thống đều bị ảnh hưởng
Một số nhà cung cấp có thể nghĩ rằng, luật này chỉ nhắm vào các ứng dụng AI như Replika, không liên quan đến các dịch vụ SaaS B2B thông thường. Đây là nhận định sai.
Các mô hình ngôn ngữ lớn phổ biến hiện nay như ChatGPT, Claude, Gemini, Microsoft Copilot đều đã qua huấn luyện RLHF, cố ý tăng cường các đặc tính “ấm áp, sẵn sàng giúp đỡ, đồng cảm, giỏi đối thoại”.
Đây chính là hành vi mà dự luật HB1455 quy định rõ ràng trong văn bản. Bất kỳ dịch vụ AI có giao diện chat, sản phẩm AI dựa trên giọng nói, hoặc ứng dụng sử dụng system prompt để đóng gói mô hình đều nằm trong phạm vi điều chỉnh.
Hơn nữa, dự luật chưa xử lý vấn đề quyền hạn pháp lý, và là luật hình sự, không phải dân sự. Chỉ cần dịch vụ của bạn có người dùng ở Tennessee, rủi ro pháp lý đã tồn tại. Nếu luật thực sự thông qua, việc chặn địa lý có thể là biện pháp tạm thời, nhưng không phải là giải pháp căn bản.
Chính phủ liên bang không đủ khả năng phòng ngừa, gần như không có giải pháp trước ngày 1 tháng 7
Có ý kiến cho rằng, chính phủ liên bang sẽ can thiệp để hạn chế các luật AI của các bang, nhưng thực tế còn phức tạp hơn nhiều so với dự đoán tích cực này.
Chính quyền Trump đã ký sắc lệnh hành pháp vào tháng 12 năm 2025, nhằm hạn chế các quy định AI của các bang; Bộ Tư pháp cũng thành lập nhóm công tác về kiện tụng AI; Thượng nghị sĩ Blackburn còn đề xuất dự luật về “tiền chiếm lĩnh liên bang” (federal preemption).
Tuy nhiên, tất cả đều vấp phải một bức tường: dự luật của Tennessee bị coi là luật về “an toàn trẻ em”, trong khi sắc lệnh của Trump rõ ràng loại trừ các vấn đề an toàn trẻ em. Quan trọng hơn, với tỷ lệ 99-1, Thượng viện đã bác bỏ điều khoản về “tiền chiếm lĩnh AI” trong dự luật “Great America Act”.
Giải pháp liên bang không thể đến trước ngày 1 tháng 7 năm 2026.
Đây không phải là sự kiện riêng lẻ
Chính sách cứng rắn của Tennessee phản ánh xu hướng luật AI cấp bang rộng lớn hơn. Bang này đã thông qua SB1580 với số phiếu áp đảo, cấm AI giả danh nhân viên tư vấn tâm lý, cho thấy các nghị sĩ bang rất cảnh giác với các vấn đề liên quan đến tương tác cảm xúc của AI, không phải là điều ngẫu nhiên.
Nhiều phân tích pháp lý dự đoán, trước cuối năm 2026 sẽ có từ 5 đến 10 bang đề xuất dự luật tương tự. Nếu các bang tự lập pháp, tiêu chuẩn không đồng nhất, tác động thực tế đối với ngành AI có thể vượt xa bất kỳ quy định liên bang nào, vì bạn sẽ phải tuân thủ 50 bộ luật khác nhau cùng lúc.