Nova Iorque aprovou a primeira lei nos EUA que obriga os anunciantes a divulgar quando atores gerados por IA aparecem em anúncios, mesmo enquanto Trump avançou para penalizar estados com regras próprias de IA.
A governadora Kathy Hochul assinou projetos de lei apoiados pelo SAG-AFTRA que exigem divulgação visível de IA e proíbem réplicas deepfake de atores falecidos sem consentimento.
A ordem executiva de Trump orienta o DOJ a contestar leis estaduais de IA e ameaça fundos de banda larga BEAD, preparando um confronto federal-estadual sobre quem controla a regulamentação de IA.
Centro de Arte, Moda e Entretenimento da Decrypt.
Descubra SCENE
Nova Iorque tornou-se o primeiro estado a exigir que os anunciantes divulguem quando atores gerados por IA aparecem em comerciais, exatamente quando o presidente Donald Trump assinou uma ordem executiva ameaçando retirar fundos federais de estados com regulações de IA que sua administração considera “excessivas.”
A governadora Kathy Hochul assinou na quinta-feira dois projetos de lei de IA na sede do SAG-AFTRA em Nova Iorque, exigindo transparência no uso de IA e protegendo as likeness digitais de atores falecidos.
Hoje, Nova Iorque fez história, tornando-se o primeiro estado a exigir que as empresas divulguem quando usam atores gerados por IA em anúncios.
Nova Iorque não seria Nova Iorque sem sua indústria de cinema e TV. Políticas responsáveis de IA como esta protegem os atores que a sustentam. pic.twitter.com/8nuEFrSTh9
— Governadora Kathy Hochul (@GovKathyHochul) 11 de dezembro de 2025
A legislação S.8420-A/A.8887-B exige que os anunciantes “divulguem de forma conspícua” quando atores sintéticos de IA são utilizados, enquanto S.8391/A.8882 proíbe o uso da likeness de um ator falecido sem consentimento do espólio.
“Ao assinar esses projetos de lei hoje, estamos promulgando leis de bom senso que garantirão total transparência ao usar imagens geradas por inteligência artificial,” disse Hochul em uma declaração.
O confronto entre a legislação protetora de Nova Iorque e a tentativa de preempção federal de Trump configura um possível enfrentamento legal sobre quem controla a regulamentação de IA, e se os estados que promovem a proteção do consumidor e do trabalhador perderão fundos federais por isso.
As proteções são “resultado direto de artistas, legisladores e defensores que se unem para confrontar os riscos reais e imediatos apresentados pelo uso descontrolado de IA,” afirmou Duncan Crabtree-Ireland, Diretor Executivo Nacional e Negociador-Chefe do SAG-AFTRA, em uma declaração.
A pressão do SAG-AFTRA por proteções de IA decorre do acordo de greve de novembro de 2023 com os estúdios de Hollywood, que incluiu disposições avaliadas em mais de um bilhão de dólares, com medidas de consentimento e compensação.
O sindicato conseguiu fazer lobby por legislação semelhante na Califórnia em 2024 e defende a Lei No Fakes em nível federal, “um projeto de lei bipartidário que visa proteger as vozes e likeness de indivíduos contra réplicas digitais não autorizadas.”
Desafios de aplicação
A ordem executiva de Trump, também assinada na quinta-feira, orienta o Justiça a contestar leis estaduais de IA com base na preempção federal e cria uma Força-Tarefa de Litígios de IA.
A ordem alerta que estados com “leis de IA excessivas” podem perder elegibilidade para fundos de infraestrutura de banda larga sob o programa Broadband Equity Access and Deployment (BEAD), uma iniciativa federal de vários bilhões de dólares para ampliar o acesso à internet de alta velocidade.
“Minha administração deve agir junto ao Congresso para garantir que haja um padrão nacional minimamente oneroso—não 50 padrões discordantes estaduais,” escreveu Trump na ordem. “A estrutura resultante deve proibir leis estaduais que conflitem com a política estabelecida nesta ordem.”
Himanshu Tyagi, professor do Instituto Indiano de Ciência e cofundador da startup de IA Sentient, disse à Decrypt que remover a likeness de uma pessoa de modelos de IA é “extremamente difícil” uma vez que os pipelines de treinamento existem.
“Por isso algumas empresas, como a Adobe, optaram por treinar modelos do zero com dados licenciados e limpos,” afirmou Tyagi. “Mesmo assim, conteúdos deepfake continuarão a circular nas redes sociais e em outros canais pouco regulados.”
Onde essas leis têm impacto, ele observou, é em grandes anunciantes e principais empresas criativas, que se tornam “muito mais cautelosas ao usar IA generativa.”
“De qualquer forma, devemos nos preparar para a próxima evolução da pós-verdade, onde você não pode confiar nos seus olhos ou ouvidos ao lidar com conteúdo digital,” acrescentou.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Nova Iorque exige divulgações de publicidade de IA, enfrenta confronto sobre a Ordem Executiva de Trump
Resumo
Centro de Arte, Moda e Entretenimento da Decrypt.
Descubra SCENE
Nova Iorque tornou-se o primeiro estado a exigir que os anunciantes divulguem quando atores gerados por IA aparecem em comerciais, exatamente quando o presidente Donald Trump assinou uma ordem executiva ameaçando retirar fundos federais de estados com regulações de IA que sua administração considera “excessivas.”
A governadora Kathy Hochul assinou na quinta-feira dois projetos de lei de IA na sede do SAG-AFTRA em Nova Iorque, exigindo transparência no uso de IA e protegendo as likeness digitais de atores falecidos.
A legislação S.8420-A/A.8887-B exige que os anunciantes “divulguem de forma conspícua” quando atores sintéticos de IA são utilizados, enquanto S.8391/A.8882 proíbe o uso da likeness de um ator falecido sem consentimento do espólio.
“Ao assinar esses projetos de lei hoje, estamos promulgando leis de bom senso que garantirão total transparência ao usar imagens geradas por inteligência artificial,” disse Hochul em uma declaração.
O confronto entre a legislação protetora de Nova Iorque e a tentativa de preempção federal de Trump configura um possível enfrentamento legal sobre quem controla a regulamentação de IA, e se os estados que promovem a proteção do consumidor e do trabalhador perderão fundos federais por isso.
As proteções são “resultado direto de artistas, legisladores e defensores que se unem para confrontar os riscos reais e imediatos apresentados pelo uso descontrolado de IA,” afirmou Duncan Crabtree-Ireland, Diretor Executivo Nacional e Negociador-Chefe do SAG-AFTRA, em uma declaração.
A pressão do SAG-AFTRA por proteções de IA decorre do acordo de greve de novembro de 2023 com os estúdios de Hollywood, que incluiu disposições avaliadas em mais de um bilhão de dólares, com medidas de consentimento e compensação.
O sindicato conseguiu fazer lobby por legislação semelhante na Califórnia em 2024 e defende a Lei No Fakes em nível federal, “um projeto de lei bipartidário que visa proteger as vozes e likeness de indivíduos contra réplicas digitais não autorizadas.”
Desafios de aplicação
A ordem executiva de Trump, também assinada na quinta-feira, orienta o Justiça a contestar leis estaduais de IA com base na preempção federal e cria uma Força-Tarefa de Litígios de IA.
A ordem alerta que estados com “leis de IA excessivas” podem perder elegibilidade para fundos de infraestrutura de banda larga sob o programa Broadband Equity Access and Deployment (BEAD), uma iniciativa federal de vários bilhões de dólares para ampliar o acesso à internet de alta velocidade.
“Minha administração deve agir junto ao Congresso para garantir que haja um padrão nacional minimamente oneroso—não 50 padrões discordantes estaduais,” escreveu Trump na ordem. “A estrutura resultante deve proibir leis estaduais que conflitem com a política estabelecida nesta ordem.”
Himanshu Tyagi, professor do Instituto Indiano de Ciência e cofundador da startup de IA Sentient, disse à Decrypt que remover a likeness de uma pessoa de modelos de IA é “extremamente difícil” uma vez que os pipelines de treinamento existem.
“Por isso algumas empresas, como a Adobe, optaram por treinar modelos do zero com dados licenciados e limpos,” afirmou Tyagi. “Mesmo assim, conteúdos deepfake continuarão a circular nas redes sociais e em outros canais pouco regulados.”
Onde essas leis têm impacto, ele observou, é em grandes anunciantes e principais empresas criativas, que se tornam “muito mais cautelosas ao usar IA generativa.”
“De qualquer forma, devemos nos preparar para a próxima evolução da pós-verdade, onde você não pode confiar nos seus olhos ou ouvidos ao lidar com conteúdo digital,” acrescentou.