Las noticias de IA de esta semana provenientes de OpenAI tienen un filo marcado: la compañía lanzó una Beca de Seguridad remunerada, ofreciendo estipendios semanales de $3,850 a investigadores externos que estudian lo que podría salir mal con la IA avanzada — anunciada en cuestión de horas después de una investigación de The New Yorker que informó que OpenAI había disuelto sus equipos internos de seguridad y había eliminado en silencio la palabra “safely” de su declaración de misión ante el IRS.
Resumen
OpenAI anunció la beca el 6 de abril como “un programa piloto para apoyar la investigación independiente de seguridad y alineación y desarrollar la próxima generación de talento”. El programa paga $3,850 por semana, más de $200,000 anualizados, además de aproximadamente $15,000 en cómputo mensual y mentoría de investigadores de OpenAI. Las becas trabajan desde el espacio de trabajo Berkeley de Constellation o de forma remota, y las solicitudes cierran el 3 de mayo. La beca no está limitada a especialistas en IA — OpenAI está reclutando desde ciberseguridad, ciencias sociales e interacción humano-computadora junto con ciencias de la computación.
El momento es la historia. La investigación de Ronan Farrow en The New Yorker, publicada el mismo día, documentó que OpenAI había disuelto tres organizaciones internas consecutivas de seguridad en 22 meses. El equipo de superalineamiento se cerró en mayo de 2024 después de que los codirectores Ilya Sutskever y Jan Leike se marcharan. Leike escribió al irse que “la cultura y los procesos de seguridad se han quedado rezagados frente a los productos brillantes”. El equipo de Preparación para AGI siguió en octubre de 2024. El equipo de Alineación de Misión se desmanteló en febrero de 2026 después de solo 16 meses. The New Yorker también informó que cuando un periodista pidió hablar con investigadores de seguridad existencial de OpenAI, un representante de la compañía respondió: “¿Qué quieres decir con seguridad existencial? Eso no es, como, una cosa.”
La beca explícitamente no reemplaza la infraestructura interna. Las becas reciben créditos de API y recursos de cómputo pero no acceso al sistema, posicionando el programa como financiación de investigación a distancia, en lugar de una reconstrucción de los equipos disueltos.
La agenda de investigación abarca siete áreas prioritarias: evaluación de seguridad, ética, robustez, mitigaciones escalables, métodos de seguridad que preservan la privacidad, supervisión agentica y dominios de uso indebido de alta severidad. Al final del programa en febrero de 2027, cada beca debe producir una salida sustantiva — un documento, un benchmark o un conjunto de datos. No se requieren credenciales académicas específicas; OpenAI afirmó que prioriza la capacidad de investigación, el juicio técnico y la capacidad de ejecución.
Como ha informado crypto.news, la confianza en los compromisos de seguridad declarados por las empresas líderes en IA es una señal de mercado que afecta la asignación de capital en infraestructura de IA, tokens de IA y los protocolos DePIN y de agentes de IA que se sitúan en la intersección entre cripto e inteligencia artificial. Como ha señalado crypto.news, la trayectoria de gasto de OpenAI y la credibilidad de sus prioridades operativas se siguen de cerca por inversores que evalúan el sector de infraestructura de IA — un sector con una superposición creciente con sistemas basados en blockchain. Si las becas externas que trabajan sin acceso interno pueden influir de manera significativa en el desarrollo del modelo es una pregunta que la investigación del primer grupo comenzará a responder a principios de 2027.