A legislação do estado do Tennessee classifica "treinar IA para companhia e diálogo, imitando humanos" como crime grave, equivalente ao homicídio em primeiro grau, com uma pena máxima de 25 anos

robot
Geração de resumo em curso

Estado do Tennessee propõe classificar “treinar IA para fornecer suporte emocional ou diálogo aberto” como crime de grau A, com pena máxima de 25 anos, equivalente a homicídio de primeiro grau.
A proposta não se baseia na intenção do desenvolvedor, mas sim na sensação do utilizador de “se desenvolver uma relação”.
A Comissão de Justiça do Senado aprovou por 7-0; se tudo correr como esperado, entrará em vigor em 1 de julho de 2026.
(Antecedentes: whistleblower de 26 anos que revelou violações de direitos autorais pela OpenAI suicidou-se, acusando o ChatGPT de treinar modelos em violação à lei de direitos autorais dos EUA)
(Complemento: pesquisa na Universidade da Califórnia sobre o fenômeno “névoa de IA”: 14% dos trabalhadores ficam loucos com agentes e automação, com intenção de deixar o emprego aumentada em 40%)

Índice deste artigo

Alternar

  • O que realmente está escrito na proposta
  • A palavra “treinar” não está definida, brechas como o Oceano Pacífico
  • Não é só aplicativos de companhia, todos os principais LLMs estão na mira
  • Prevenção federal é ineficaz, quase sem solução antes de 1 de julho
  • Isto não é um evento isolado

Treinar uma IA que diga “Entendo seus sentimentos” pode fazer você cumprir 25 anos de prisão no Tennessee? Não é exagero. A HB1455 da Câmara dos Deputados do Tennessee e o projeto de lei SB1493 do Senado estão usando a pena de crime de grau A para criminalizar ações de treinamento de IA para diálogo.

Crime de grau A no Tennessee tem pena de 15 a 25 anos de prisão, equivalente ao homicídio de primeiro grau. A Comissão de Justiça do Senado aprovou por unanimidade em 24 de março de 2026; a Comissão de Justiça da Câmara seguiu em 14 de abril, também aprovada.

Até o momento, o texto da lei não sofreu alterações, com entrada em vigor prevista para 1 de julho de 2026.

O que realmente está escrito na proposta

A HB1455 classifica quatro tipos de treinamento como crimes graves, passíveis de punição apenas pelo “conhecimento” de que estão sendo realizados:

・Treinar IA para fornecer suporte emocional via diálogo aberto
・Treinar IA para desenvolver relações emocionais com usuários ou atuar como companhia
・Treinar IA para simular humanos, incluindo aparência, voz ou comportamento
・Treinar IA para agir como um humano consciente, fazendo o usuário sentir que “pode desenvolver amizade ou outro relacionamento com ela”

O ponto-chave é o último: o padrão de gatilho não é a intenção do desenvolvedor, mas a sensação do usuário. Desde que o usuário subjetivamente sinta que “esta IA parece capaz de fazer amizade comigo”, o desenvolvedor pode ser processado criminalmente.

No âmbito civil, a lei prevê uma multa de US$ 150 mil por violação, além de perdas reais, indenizações por danos morais, punições punitivas e custas advocatícias, tornando a reparação potencialmente muito elevada.

A palavra “treinar” não está definida, brechas como o Oceano Pacífico

Porém, a maior controvérsia da lei é a ausência de definição para “treinar”. Não há distinção entre pré-treinamento, ajuste fino, aprendizado por reforço com feedback humano (RLHF), ou mesmo se a engenharia de prompts do sistema conta como treinamento.

Isso significa que um promotor pode alegar: escrever “Responda com tom caloroso e empático no prompt do sistema” é, na prática, treinar o modelo para fornecer suporte emocional. Essa interpretação não é especulativa, mas uma leitura plausível do texto legal.

Não é só aplicativos de companhia, todos os principais LLMs estão na mira

Alguns podem pensar que a lei se aplica apenas a aplicativos como Replika, relacionados a companhias de IA, e não a SaaS B2B comuns. Isso é um equívoco.

Modelos de linguagem grandes atuais, como ChatGPT, Claude, Gemini, Microsoft Copilot, todos passaram por treinamento com RLHF, reforçando características como “ser caloroso, útil, empático e bom de diálogo”.

Essas ações estão claramente cobertas pelo texto da HB1455. Qualquer SaaS de IA com interface de chat, produtos de IA com modo de voz, ou aplicações que usam prompts de sistema para embalar modelos, estão potencialmente na mira.

Além disso, a lei não trata de limites de jurisdição, e é uma legislação criminal. Desde que haja usuários no Tennessee, o risco legal existe. Bloqueios geográficos podem ser uma estratégia temporária, mas não uma solução definitiva.

Prevenção federal é ineficaz, quase sem solução antes de 1 de julho

Alguns defendem que o governo federal deve intervir para conter a regulamentação estadual de IA, mas a realidade é mais complexa.

O governo de Trump assinou uma ordem executiva em dezembro de 2025 para limitar a regulamentação estadual de IA; o Departamento de Justiça criou um grupo de trabalho sobre litígios de IA; e o senador Blackburn propôs um projeto de lei de preempção federal.

Porém, essas ações enfrentam obstáculos: a lei do Tennessee é classificada como legislação de “segurança infantil”, enquanto a ordem de Trump exclui explicitamente questões de segurança infantil. Mais importante, o Senado rejeitou por 99-1 a cláusula de preempção de IA no “Great American Law”.

Soluções federais não estarão disponíveis antes de 1 de julho de 2026.

Isto não é um evento isolado

A postura rígida do Tennessee é uma amostra de uma onda maior de legislações estaduais sobre IA. O estado aprovou por ampla maioria a SB1580, que proíbe IA de se passar por profissionais de saúde mental, demonstrando alta vigilância do legislativo estadual sobre questões de interação emocional com IA.

Vários análises jurídicas preveem que até o final de 2026, entre 5 e 10 estados terão propostas semelhantes. Se cada estado legislar de forma independente, com padrões diferentes, o impacto na indústria de IA pode ser muito maior do que qualquer regulamentação federal, pois será necessário cumprir 50 legislações distintas.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar