Noticias de IA: OpenAI está pagando a los investigadores para descubrir qué podría salir mal, pero sus equipos internos de seguridad ya no están

Cryptonews

Las noticias de IA de esta semana provenientes de OpenAI tienen un filo marcado: la compañía lanzó una Beca de Seguridad remunerada, ofreciendo estipendios semanales de $3,850 a investigadores externos que estudian lo que podría salir mal con la IA avanzada — anunciada en cuestión de horas después de una investigación de The New Yorker que informó que OpenAI había disuelto sus equipos internos de seguridad y había eliminado en silencio la palabra “safely” de su declaración de misión ante el IRS.
Resumen

  • La OpenAI Safety Fellowship, anunciada el 6 de abril, se desarrolla del 14 de septiembre de 2026 al 5 de febrero de 2027; las becas reciben un estipendio semanal de $3,850, aproximadamente $15,000 en recursos de cómputo mensuales y mentoría de investigadores de OpenAI, pero no tendrán acceso a los sistemas internos de la compañía
  • Las áreas de investigación prioritarias incluyen evaluación de seguridad, ética, robustez, mitigaciones escalables, métodos que preservan la privacidad, supervisión agentica y uso indebido de alta severidad — las solicitudes cierran el 3 de mayo, y las becas serán notificadas antes del 25 de julio
  • Ronan Farrow, de The New Yorker, informó la misma semana que OpenAI había disuelto su equipo de superalineamiento, su equipo de Preparación para AGI y su equipo de Alineación de Misión desde 2024, y que un representante de OpenAI respondió a un periodista que preguntaba sobre investigadores de seguridad existencial con: “¿Qué quieres decir con seguridad existencial? Eso no es, como, una cosa.”

OpenAI anunció la beca el 6 de abril como “un programa piloto para apoyar la investigación independiente de seguridad y alineación y desarrollar la próxima generación de talento”. El programa paga $3,850 por semana, más de $200,000 anualizados, además de aproximadamente $15,000 en cómputo mensual y mentoría de investigadores de OpenAI. Las becas trabajan desde el espacio de trabajo Berkeley de Constellation o de forma remota, y las solicitudes cierran el 3 de mayo. La beca no está limitada a especialistas en IA — OpenAI está reclutando desde ciberseguridad, ciencias sociales e interacción humano-computadora junto con ciencias de la computación.

Noticias de IA: OpenAI lanza una beca de seguridad mientras sus equipos internos de seguridad ya no existen

El momento es la historia. La investigación de Ronan Farrow en The New Yorker, publicada el mismo día, documentó que OpenAI había disuelto tres organizaciones internas consecutivas de seguridad en 22 meses. El equipo de superalineamiento se cerró en mayo de 2024 después de que los codirectores Ilya Sutskever y Jan Leike se marcharan. Leike escribió al irse que “la cultura y los procesos de seguridad se han quedado rezagados frente a los productos brillantes”. El equipo de Preparación para AGI siguió en octubre de 2024. El equipo de Alineación de Misión se desmanteló en febrero de 2026 después de solo 16 meses. The New Yorker también informó que cuando un periodista pidió hablar con investigadores de seguridad existencial de OpenAI, un representante de la compañía respondió: “¿Qué quieres decir con seguridad existencial? Eso no es, como, una cosa.”

La beca explícitamente no reemplaza la infraestructura interna. Las becas reciben créditos de API y recursos de cómputo pero no acceso al sistema, posicionando el programa como financiación de investigación a distancia, en lugar de una reconstrucción de los equipos disueltos.

Qué exige la beca que las becas produzcan

La agenda de investigación abarca siete áreas prioritarias: evaluación de seguridad, ética, robustez, mitigaciones escalables, métodos de seguridad que preservan la privacidad, supervisión agentica y dominios de uso indebido de alta severidad. Al final del programa en febrero de 2027, cada beca debe producir una salida sustantiva — un documento, un benchmark o un conjunto de datos. No se requieren credenciales académicas específicas; OpenAI afirmó que prioriza la capacidad de investigación, el juicio técnico y la capacidad de ejecución.

Por qué esto importa más allá de la industria de la IA

Como ha informado crypto.news, la confianza en los compromisos de seguridad declarados por las empresas líderes en IA es una señal de mercado que afecta la asignación de capital en infraestructura de IA, tokens de IA y los protocolos DePIN y de agentes de IA que se sitúan en la intersección entre cripto e inteligencia artificial. Como ha señalado crypto.news, la trayectoria de gasto de OpenAI y la credibilidad de sus prioridades operativas se siguen de cerca por inversores que evalúan el sector de infraestructura de IA — un sector con una superposición creciente con sistemas basados en blockchain. Si las becas externas que trabajan sin acceso interno pueden influir de manera significativa en el desarrollo del modelo es una pregunta que la investigación del primer grupo comenzará a responder a principios de 2027.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios