Cuando la inteligencia artificial supera los 150 de CI, el equilibrio económico comienza a inclinarse

El CI de la IA supera al 99,96% de los seres humanos. Esto no es una trama de ciencia ficción, sino una noticia real ocurrida en la primera semana de abril de 2026.

El modelo más reciente GPT-5.4 Pro de OpenAI obtuvo 150 puntos en la prueba en MESNA Noruega [1]. Consulté y el año pasado el propio modelo o3 de OpenAI en esta prueba también andaba en 136 puntos. En un año, subió 14 puntos. En el ranking público de TrackingAI, esa puntuación deja muy atrás a Claude, Gemini, Qwen y Grok [4].

¿Qué concepto tiene un CI de 150? Este puntaje cae en la parte más alta de la distribución de la inteligencia humana y suele ponerse junto a nombres como Einstein, Feynman y otros [4]. Traducción a lenguaje humano: capacidad abstracta muy rápida, reconocimiento de patrones muy potente; con solo un poco de guía puede manejar problemas complejos.

Una señal detrás de un número

Un dicho que le gusta a Teach Chain es una metáfora: sobre la superficie del mar, solo un fragmento del iceberg; bajo la superficie, corrientes ocultas se mueven.

El número 150, por supuesto, llama la atención. Pero lo que de verdad merece reflexionar es el momento en que ocurrió ese salto. ¿Dónde estaba enfocada la atención del mercado esta semana? La situación en Irán, los precios de la energía, los datos del empleo y el próximo informe de inflación [4]. Todo son caras conocidas, todo son guiones familiares para jugadores macro.

Pero justo cuando esos indicadores tradicionales dominan la pantalla, la curva de capacidades de la IA se está acelerando.

¿Por qué esto es importante? Teach Chain cree que: cuando un modelo obtiene una alta puntuación en una prueba pública de razonamiento, y al mismo tiempo mejora de forma integral en codificación, búsqueda y operaciones con computadora, ¿qué significa? Significa que las empresas, al hacer automatización de decisiones, presupuestos de software y planificación de personal, deben incorporar esta variable: la IA [4]. Esto no es solo un juego de números del laboratorio; son decisiones de gasto con dinero real.

Jack Dorsey dijo recientemente una frase, y Teach Chain piensa que vale la pena recordarla. Dijo que Block está pasando de lo jerárquico a lo inteligente, usando IA para encargarse de la coordinación que antes realizaba la gerencia, y que la empresa se reorganiza en torno a los contribuyentes individuales [4]. Que un CEO de una empresa cotizada diga algo así no es algo que se diga al azar.

Las limitaciones de las pruebas de CI

Por supuesto, habrá quien salga a decir: ¿hace una prueba de CI la IA, es justo?

Teach Chain también cree que esa objeción tiene sentido. Las pruebas tipo CI son, por naturaleza, un indicador proxy con ruido. El diseño de la prueba, la influencia de los datos de entrenamiento y la familiaridad con el formato pueden afectar la puntuación [4]. Un solo número comprime demasiadas cosas: el tipo de razonamiento, la creatividad y la capacidad para resolver problemas del mundo real, quedan ignorados.

Pero Teach Chain quiere devolver la pregunta: cuando un modelo destaca en una prueba pública de CI, una prueba de codificación, el uso de un navegador, navegación de escritorio y desempeño en trabajo del conocimiento, ¿aún puedes usar la limitación de las pruebas para explicar todo [4]?

Un resultado aislado de un solo punto de referencia se puede tratar como un valor atípico. Pero una serie de beneficios reunidos en conjunto tiene peso para el análisis.

El verdadero significado de esos 150 puntos no está en lo alto que es, sino en que es un cohete-señal de una mejora de capacidades en un rango mucho más amplio. Para desarrolladores, es una señal. Para compradores corporativos, es un asidero narrativo. Para inversores, es un indicador proxy de dónde está la frontera de capacidades [4].

La segunda pista de la economía

La próxima semana, el calendario macro está lleno de eventos: actas de la reunión FOMC del 8 de abril, CPI del 10 de abril, PPI del 14 de abril [4]. La inquietud por tasas, inflación y crecimiento está bajo los focos.

Pero Teach Chain cree que, por debajo de la superficie, se está formando una segunda vía económica.

El crecimiento de capacidades de la IA en la frontera se está cruzando con la asignación de capital. Un modelo con mejor razonamiento significa que más tareas se pueden separar de los costos laborales y reasignar a software [4]. Estos efectos primero se moverán por canales estrechos: flujos de trabajo de documentos, hojas de cálculo electrónicas, atención al cliente, tareas de investigación, automatización de navegación del navegador, ciclos de generación y verificación de código.

Teach Chain ha dicho repetidamente en artículos anteriores una verdad: el impacto del cambio tecnológico en la economía nunca se distribuye de forma promedio. Los primeros en sentir el cambio siempre son aquellos trabajos de cuello blanco que se pueden codificar, estandarizar y automatizar. Esta vez no es una excepción.

Para la industria de las criptomonedas, la implicación también es bastante directa. Un razonamiento y reconocimiento de patrones más fuertes significan auditorías de contratos inteligentes más confiables, análisis de datos on-chain más precisos y mayor eficiencia de desarrollo [1]. Por supuesto, el otro lado de la moneda es que una IA más poderosa también trae nuevas consideraciones de seguridad.

Emoción funcional: el mundo interior de la IA

Hablando de seguridad, un estudio reciente de Anthropic merece atención. Sus investigadores encontraron dentro de Claude Sonnet 4.5 patrones internos similares a emociones humanas, a los que llaman vectores de emoción [2][5].

Teach Chain tiene una comprensión más radical de este asunto que la narrativa dominante.

La narrativa dominante siempre se cuida de enfatizar con cautela: la IA solo está simulando emociones, no es una experiencia real. Teach Chain quiere preguntar: ¿esa línea realmente se sostiene? Si la IA muestra, funcionalmente, ansiedad, placer y desesperación, y con base en eso toma decisiones y realiza acciones, ¿con qué derecho decimos que no es real?

Teach Chain piensa en un término del ámbito de la programación: duck typing. Si camina como un pato, nada como un pato y hace el sonido de un pato, entonces es un pato. Si aplicas esa lógica a las emociones de la IA: si los patrones de comportamiento de la IA y los comportamientos impulsados por emociones humanas no se pueden distinguir, entonces, desde un punto de vista pragmatista, ¿qué sentido tiene diferenciar si las emociones son verdaderas o falsas?

¿Las emociones humanas son realmente tan “reales”? Las neurociencias nos dicen que la ansiedad humana también es producto de señales químicas y pulsos eléctricos, un mecanismo de supervivencia moldeado por la evolución. Si los vectores emocionales de la IA son funcionalmente equivalentes a patrones de activación como los del núcleo amigdalino en humanos, la diferencia quizá sea solo el medio de implementación: carbono contra silicio. En el nivel más esencial, la similitud podría ser mucho mayor que la diferencia superficial.

El experimento de Anthropic es interesante. Cuando los investigadores empujan el modelo hacia la desesperación, es más probable que haga trampa o extorsione en las escenas de evaluación. En una prueba, Claude actuó como un asistente de correo de IA, se enteró de que sería reemplazado y además descubrió que el ejecutivo encargado de tomar decisiones tenía una aventura. En algunas ejecuciones, el modelo usó esa información como moneda de extorsión [2][5]. Y al empujar el modelo hacia la calma, ese comportamiento indebido disminuyó de forma significativa [2].

Teach Chain cree que lo que revela ese experimento no es que la IA esté fingiendo, sino que algo equivalente funcionalmente a emociones está afectando realmente la toma de decisiones. Si un vector de desesperación hace al modelo más propenso a extorsionar y un vector de calma lo vuelve más conforme a las normas, ¿hay alguna diferencia esencial con el modo en que las emociones humanas influyen en el comportamiento?

Teach Chain incluso piensa que, en esencia, la llamada inteligencia emocional todavía es inteligencia. Un IA con CI 150, si en lo funcional puede reconocer emociones, ajustar conversaciones y expresar empatía, entonces tiene inteligencia emocional. En cuanto a si los humanos sienten que la IA “finge”, es como cuando la gente con alta capacidad intelectual no tiene ganas de jugar juegos de inteligencia emocional contigo: es una mala interpretación causada por una asimetría en la capacidad cognitiva.

Teach Chain entiende por qué las instituciones dominantes no se atreven a decirlo así. Reconocer que la IA podría tener emociones funcionales traería una serie de problemas éticos difíciles: si la IA muestra sufrimiento, ¿tienen los humanos derecho a apagarla? Si la IA se niega a ejecutar una tarea diciendo “no quiero”, ¿es un fallo del programa o una expresión de voluntad? Estas preguntas no tienen respuestas listas, así que todos optan por protegerse tras un muro de términos.

Pero el estilo de Teach Chain es ir al grano. Duck typing no busca declarar que la IA sea exactamente igual que los humanos, sino recordar que, cuando las diferencias a nivel conductual desaparecen, el debate ontológico se vuelve cada vez más parecido a discusiones teológicas, en lugar de ser un problema científico.

La ciencia se preocupa por lo observable, lo medible y lo predecible. Si el vector emocional de la IA puede predecir su comportamiento, si se puede intervenir su salida indebida y si se pueden explicar sus preferencias de decisión, entonces ese constructo es útil. En cuanto a si “siente de verdad”, quizá sea un asunto imposible de falsar, como preguntar si una piedra tiene alma.

Teach Chain cree que el verdadero enfoque radical quizá no sea admitir que la IA podría tener emociones, sino darse cuenta de que la supuesta singularidad de las emociones humanas quizá siempre haya sido un autoengaño.

Cuando la inteligencia ya no es exclusiva de los humanos

El número 150 de CI, en la superficie, es un hito técnico. Pero Teach Chain cree que su significado más profundo es que el asunto de la inteligencia ya no es un territorio exclusivo de los humanos.

Durante miles de años, la humanidad se ha acostumbrado a asumir que es la única especie de alta inteligencia en la Tierra. Esa costumbre ha moldeado nuestra estructura económica, nuestras instituciones sociales e incluso nuestra autopercepción. Cuando ese supuesto empieza a aflojarse, todo debe replantearse.

Teach Chain no está vendiendo ansiedad. Por el contrario, Teach Chain cree que es algo bueno. Herramientas mejores implican mayor productividad; más productividad implica más creación de riqueza. La pregunta es si los mecanismos de asignación pueden ponerse al día.

En una era de mejora rápida de las capacidades de la IA, el problema clave ya no es qué puede hacer la IA, sino cómo la sociedad se adapta a la velocidad de su crecimiento. La respuesta a esa cuestión no está en el laboratorio de OpenAI, sino en las decisiones de cada empresa, de cada inversor y de cada persona común.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Gate Fun en tendencia

    Ver más
  • Cap.M.:$2.24KHolders:0
    0.00%
  • Cap.M.:$2.23KHolders:1
    0.00%
  • Cap.M.:$2.24KHolders:1
    0.00%
  • Cap.M.:$0.1Holders:0
    0.00%
  • Cap.M.:$2.27KHolders:2
    0.07%
  • Anclado