Jin10 dados 11 de abril - De acordo com o Financial Times do Reino Unido, a OpenAI reduziu drasticamente o tempo e os recursos usados para testar a segurança de seus poderosos modelos de inteligência artificial, o que levantou preocupações sobre o lançamento apressado de sua tecnologia sem garantias suficientes. Em comparação com alguns meses atrás, os funcionários e equipes externas tiveram recentemente apenas alguns dias para “avaliar” o mais recente grande modelo de linguagem da OpenAI. De acordo com oito pessoas familiarizadas com o processo de teste da OpenAI, os testes da startup tornaram-se menos rigorosos, sem tempo e recursos suficientes dedicados à identificação e mitigação de riscos, já que a startup, com uma capitalização de mercado de 300 bilhões de dólares, enfrenta a pressão de lançar novos modelos rapidamente e manter a vantagem competitiva. Fontes informaram que a OpenAI está tentando lançar seu novo modelo o3 já na próxima semana, dando a alguns testadores menos de uma semana para realizar verificações de segurança. Anteriormente, a OpenAI permitia meses para testes de segurança.