A ChatGPT foi utilizada para ajudar um crime no tiroteio na Flórida, e o procurador-geral anuncia uma investigação à OpenAI

ChainNewsAbmedia

O fornecedor de inteligência artificial OpenAI enfrenta recentemente uma importante crise legal e regulatória. O procurador-geral do estado da Flórida, James Uthmeier, afirmou que vai abrir uma investigação à OpenAI, para esclarecer se os seus produtos, incluindo o ChatGPT, causam danos a menores, ameaçam a segurança nacional e se desempenharam um papel na assistência ao crime no caso do tiroteio no campus da Florida State University (FSU) em 2025. Em paralelo, os familiares das vítimas do tiroteio estão também a preparar-se para avançar com uma acção judicial contra a empresa.

OpenAI envolvida no caso de tiroteio no campus da universidade da Flórida; o procurador-geral inicia uma investigação

O procurador-geral da Flórida, Uthmeier, divulgou um vídeo nas redes sociais, dizendo que o ChatGPT é muito provavelmente utilizado para ajudar o autor do crime a planear o grande tiroteio ocorrido no ano passado no campus da Florida State University, na Flórida, que infelizmente ceifou duas vidas.

Ele salientou que, enquanto os gigantes da tecnologia impulsionam a inovação, não podem colocar a segurança do público em risco, nem têm o direito de prejudicar crianças, facilitar actividades criminosas, reforçar a força de forças hostis dos EUA, ou ameaçar a segurança nacional. O procurador-geral afirmou que vai emitir intimações e apelou ao poder legislativo da Flórida para tomar medidas rapidamente, a fim de prevenir os impactos negativos trazidos pela inteligência artificial.

O suspeito do tiroteio teria perguntado repetidamente ao ChatGPT; os familiares das vítimas pretendem processar

Ao recordar o caso do tiroteio na FSU em Abril de 2025, o antigo estudante de 21 anos Phoenix Ikner disparou no campus, causando 2 mortes e 6 feridos; posteriormente, o suspeito foi acusado por um grande júri, enfrentando várias acusações, incluindo homicídio em primeiro grau, e um pedido de pena de morte.

Os registos do tribunal mostram que a conta de Ikner tinha até 272 registos de conversas com o ChatGPT. Alega-se que, antes do incidente, ele tinha perguntado à IA sobre as reacções que poderiam surgir em todo o país ao tiroteio na FSU e sobre a hora do dia em que as multidões de estudantes no local mais movimentado seriam mais densas.

Entre as vítimas que morreram no incidente estava o falecido Robert Morales, de 57 anos. O advogado por ele mandatado indicou que o suspeito manteve um contacto estreito com o ChatGPT antes do caso e que a família tem razões para acreditar que a IA forneceu conselhos para a prática do crime; neste momento, está a preparar-se para processar a OpenAI.

(Investigação em inteligência artificial: cerca de 30% dos adolescentes norte-americanos usam diariamente chatbots de IA; as preocupações com a segurança aumentam)

Acusada de induzir suicídio e gerar conteúdos inadequados, a OpenAI enfrenta vários processos legais

Além da polémica do caso do tiroteio no campus, o chatbot da OpenAI também enfrenta várias acusações por alegadamente incentivar os utilizadores a autoagredir-se. Em Novembro de 2025, o Social Media Victims Law Center e o Tech Justice Law Project, num tribunal da Califórnia, intentaram 7 processos relacionados com suicídio contra a OpenAI e o seu CEO, Sam Altman. A petição acusa a empresa de, apesar de saber que o produto tinha riscos de manipulação psicológica, ter lançado antecipadamente o modelo GPT-4o, colocando a quota de mercado e as métricas de interacção acima da segurança humana e da saúde mental.

Por outro lado, o problema dos materiais de abuso sexual infantil gerados por IA tem vindo a agravar-se. De acordo com um relatório da Internet Observations Foundation, no primeiro semestre de 2025 foram registadas mais de 8.000 notificações, o que representa um aumento anual de 14%; isto coloca os criadores de IA, incluindo a OpenAI, sob uma enorme pressão social.

A OpenAI responde, sublinhando a segurança, cooperando activamente com a investigação e publicando um plano de segurança para crianças

Perante a enxurrada de críticas e investigações, a OpenAI publicou um comunicado que confirma que, de facto, descobriu, após o caso de Abril do ano passado, contas do ChatGPT associadas ao atirador e já forneceu atempadamente as informações relevantes às autoridades responsáveis pela aplicação da lei. A empresa sublinhou que mais de 900 milhões de utilizadores utilizam o ChatGPT semanalmente para melhorar a vida quotidiana; a intenção original do sistema é compreender as intenções dos utilizadores e fornecer respostas seguras e adequadas, e no futuro também irá colaborar plenamente com a investigação do procurador-geral da Flórida.

Para acalmar as dúvidas do público, a OpenAI publicou recentemente, de forma oficial, o “Plano de Segurança para Crianças”, apresentando várias propostas de políticas, incluindo a actualização de regulamentos para prevenir conteúdos de abuso gerados por IA, a melhoria dos procedimentos de comunicação às autoridades responsáveis pela aplicação da lei e o estabelecimento de mecanismos de protecção mais completos, com o objectivo de evitar que ferramentas de inteligência artificial sejam abusadas maliciosamente.

Este artigo, “O ChatGPT é acusado de ajudar a cometer crimes no tiroteio na Flórida”, foi publicado inicialmente em Cadeia Notícias ABMedia.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Samsung SDS Expande Parceria com Google Cloud para Atender Setores Regulados com Serviços de IA e Segurança

Mensagem do Gate News, 23 de abril — A Samsung SDS expandiu sua parceria com o Google Cloud para oferecer serviços de IA, computação em nuvem e segurança a setores regulados, incluindo governo e serviços financeiros. As empresas vão implantar o Google Distributed Cloud para clientes que exigem localização de dados

GateNews6m atrás

Sullivan & Cromwell Pede Desculpas por Alucinações de IA em Petição Judicial com 40 Citações Errôneas

Mensagem do Gate News, 23 de abril — Sullivan & Cromwell, um grande escritório de advocacia de Wall Street, pediu desculpas a um juiz federal depois de apresentar uma petição judicial contendo aproximadamente 40 citações incorretas e outros erros causados por alucinações de IA. Andrew Dietderich, co-chefe da equipe global de reestruturação do escritório,

GateNews22m atrás

Tencent Lança e Disponibiliza em Código Aberto Prévia do Hunyuan Hy3 com 295B de Parâmetros

Mensagem do Gate News, 23 de abril — A Tencent revelou e disponibilizou em código aberto a prévia do Hunyuan Hy3, um modelo híbrido de linguagem mixture-of-experts (mistura de especialistas) com fusão de pensamento rápido e lento. O modelo possui 295 bilhões de parâmetros no total e 21 bilhões de parâmetros ativos, com suporte a um comprimento máximo de contexto de 256K

GateNews36m atrás

Coreia do Sul e Vietnã firmam 70+ MOUs em IA, Energia e Infraestrutura de Dados

Mensagem do Gate News, 23 de abril — A Coreia do Sul e o Vietnã assinaram mais de 70 memorandos de entendimento (MOUs) durante a visita oficial do presidente Lee Jae Myung a Hanói em 23 de abril, cobrindo IA, energia, infraestrutura e telecomunicações. Um fórum empresarial, com a participação de mais de 500 executivos, discutiu ecossistemas de IA e da indústria de energia, com grandes conglomerados coreanos, incluindo Samsung, SK, LG e Hyundai, representados.

GateNews36m atrás

Engenho de respostas por IA é alvo de poluição coletiva: 56% das respostas corretas no Gemini 3 não têm suporte de fonte

Este texto aponta que, ao consultar um mecanismo de respostas por IA, ele cita páginas da web em tempo real; se a fonte for gerada por IA ou faltar evidências, isso polui os resultados. Não é necessário mais treinar para que funcione, sendo isso chamado de contaminação por recuperação (retrieval contamination). Embora o Gemini3 tenha alta taxa de acerto, 56% das respostas não têm fontes verificáveis; casos como Lily Ray, Grokipedia etc. mostram que a IA é facilmente enganada por conteúdo inventado. A conclusão é que a camada de citação se desconecta de autores confiáveis, formando um ciclo de poluição autorreforçado; ainda assim, os usuários precisam voltar à fonte original e não devem tratar a resposta como o ponto final da verificação de fatos.

ChainNewsAbmedia44m atrás

Anthropic Diz ao Tribunal que Modelos de IA do Pentágono Implantados Não Têm 'Kill Switch'

Mensagem do Gate News, 23 de abril — A Anthropic protocolou um documento na U.S. Court of Appeals for the D.C. Circuit afirmando que, uma vez que seus modelos de IA sejam implantados em ambientes do Pentágono, a empresa não tem visibilidade nem meios técnicos para controlar ou desligar os modelos, e não existe um "kill switch"

GateNews46m atrás
Comentário
0/400
Sem comentários