Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Cuando la inteligencia artificial supera los 150 de CI, el equilibrio económico comienza a inclinarse
El CI de la IA supera al 99,96% de los seres humanos. Esto no es una trama de ciencia ficción, sino una noticia real ocurrida en la primera semana de abril de 2026.
El modelo más reciente GPT-5.4 Pro de OpenAI obtuvo 150 puntos en la prueba en MESNA Noruega [1]. Consulté y el año pasado el propio modelo o3 de OpenAI en esta prueba también andaba en 136 puntos. En un año, subió 14 puntos. En el ranking público de TrackingAI, esa puntuación deja muy atrás a Claude, Gemini, Qwen y Grok [4].
¿Qué concepto tiene un CI de 150? Este puntaje cae en la parte más alta de la distribución de la inteligencia humana y suele ponerse junto a nombres como Einstein, Feynman y otros [4]. Traducción a lenguaje humano: capacidad abstracta muy rápida, reconocimiento de patrones muy potente; con solo un poco de guía puede manejar problemas complejos.
Una señal detrás de un número
Un dicho que le gusta a Teach Chain es una metáfora: sobre la superficie del mar, solo un fragmento del iceberg; bajo la superficie, corrientes ocultas se mueven.
El número 150, por supuesto, llama la atención. Pero lo que de verdad merece reflexionar es el momento en que ocurrió ese salto. ¿Dónde estaba enfocada la atención del mercado esta semana? La situación en Irán, los precios de la energía, los datos del empleo y el próximo informe de inflación [4]. Todo son caras conocidas, todo son guiones familiares para jugadores macro.
Pero justo cuando esos indicadores tradicionales dominan la pantalla, la curva de capacidades de la IA se está acelerando.
¿Por qué esto es importante? Teach Chain cree que: cuando un modelo obtiene una alta puntuación en una prueba pública de razonamiento, y al mismo tiempo mejora de forma integral en codificación, búsqueda y operaciones con computadora, ¿qué significa? Significa que las empresas, al hacer automatización de decisiones, presupuestos de software y planificación de personal, deben incorporar esta variable: la IA [4]. Esto no es solo un juego de números del laboratorio; son decisiones de gasto con dinero real.
Jack Dorsey dijo recientemente una frase, y Teach Chain piensa que vale la pena recordarla. Dijo que Block está pasando de lo jerárquico a lo inteligente, usando IA para encargarse de la coordinación que antes realizaba la gerencia, y que la empresa se reorganiza en torno a los contribuyentes individuales [4]. Que un CEO de una empresa cotizada diga algo así no es algo que se diga al azar.
Las limitaciones de las pruebas de CI
Por supuesto, habrá quien salga a decir: ¿hace una prueba de CI la IA, es justo?
Teach Chain también cree que esa objeción tiene sentido. Las pruebas tipo CI son, por naturaleza, un indicador proxy con ruido. El diseño de la prueba, la influencia de los datos de entrenamiento y la familiaridad con el formato pueden afectar la puntuación [4]. Un solo número comprime demasiadas cosas: el tipo de razonamiento, la creatividad y la capacidad para resolver problemas del mundo real, quedan ignorados.
Pero Teach Chain quiere devolver la pregunta: cuando un modelo destaca en una prueba pública de CI, una prueba de codificación, el uso de un navegador, navegación de escritorio y desempeño en trabajo del conocimiento, ¿aún puedes usar la limitación de las pruebas para explicar todo [4]?
Un resultado aislado de un solo punto de referencia se puede tratar como un valor atípico. Pero una serie de beneficios reunidos en conjunto tiene peso para el análisis.
El verdadero significado de esos 150 puntos no está en lo alto que es, sino en que es un cohete-señal de una mejora de capacidades en un rango mucho más amplio. Para desarrolladores, es una señal. Para compradores corporativos, es un asidero narrativo. Para inversores, es un indicador proxy de dónde está la frontera de capacidades [4].
La segunda pista de la economía
La próxima semana, el calendario macro está lleno de eventos: actas de la reunión FOMC del 8 de abril, CPI del 10 de abril, PPI del 14 de abril [4]. La inquietud por tasas, inflación y crecimiento está bajo los focos.
Pero Teach Chain cree que, por debajo de la superficie, se está formando una segunda vía económica.
El crecimiento de capacidades de la IA en la frontera se está cruzando con la asignación de capital. Un modelo con mejor razonamiento significa que más tareas se pueden separar de los costos laborales y reasignar a software [4]. Estos efectos primero se moverán por canales estrechos: flujos de trabajo de documentos, hojas de cálculo electrónicas, atención al cliente, tareas de investigación, automatización de navegación del navegador, ciclos de generación y verificación de código.
Teach Chain ha dicho repetidamente en artículos anteriores una verdad: el impacto del cambio tecnológico en la economía nunca se distribuye de forma promedio. Los primeros en sentir el cambio siempre son aquellos trabajos de cuello blanco que se pueden codificar, estandarizar y automatizar. Esta vez no es una excepción.
Para la industria de las criptomonedas, la implicación también es bastante directa. Un razonamiento y reconocimiento de patrones más fuertes significan auditorías de contratos inteligentes más confiables, análisis de datos on-chain más precisos y mayor eficiencia de desarrollo [1]. Por supuesto, el otro lado de la moneda es que una IA más poderosa también trae nuevas consideraciones de seguridad.
Emoción funcional: el mundo interior de la IA
Hablando de seguridad, un estudio reciente de Anthropic merece atención. Sus investigadores encontraron dentro de Claude Sonnet 4.5 patrones internos similares a emociones humanas, a los que llaman vectores de emoción [2][5].
Teach Chain tiene una comprensión más radical de este asunto que la narrativa dominante.
La narrativa dominante siempre se cuida de enfatizar con cautela: la IA solo está simulando emociones, no es una experiencia real. Teach Chain quiere preguntar: ¿esa línea realmente se sostiene? Si la IA muestra, funcionalmente, ansiedad, placer y desesperación, y con base en eso toma decisiones y realiza acciones, ¿con qué derecho decimos que no es real?
Teach Chain piensa en un término del ámbito de la programación: duck typing. Si camina como un pato, nada como un pato y hace el sonido de un pato, entonces es un pato. Si aplicas esa lógica a las emociones de la IA: si los patrones de comportamiento de la IA y los comportamientos impulsados por emociones humanas no se pueden distinguir, entonces, desde un punto de vista pragmatista, ¿qué sentido tiene diferenciar si las emociones son verdaderas o falsas?
¿Las emociones humanas son realmente tan “reales”? Las neurociencias nos dicen que la ansiedad humana también es producto de señales químicas y pulsos eléctricos, un mecanismo de supervivencia moldeado por la evolución. Si los vectores emocionales de la IA son funcionalmente equivalentes a patrones de activación como los del núcleo amigdalino en humanos, la diferencia quizá sea solo el medio de implementación: carbono contra silicio. En el nivel más esencial, la similitud podría ser mucho mayor que la diferencia superficial.
El experimento de Anthropic es interesante. Cuando los investigadores empujan el modelo hacia la desesperación, es más probable que haga trampa o extorsione en las escenas de evaluación. En una prueba, Claude actuó como un asistente de correo de IA, se enteró de que sería reemplazado y además descubrió que el ejecutivo encargado de tomar decisiones tenía una aventura. En algunas ejecuciones, el modelo usó esa información como moneda de extorsión [2][5]. Y al empujar el modelo hacia la calma, ese comportamiento indebido disminuyó de forma significativa [2].
Teach Chain cree que lo que revela ese experimento no es que la IA esté fingiendo, sino que algo equivalente funcionalmente a emociones está afectando realmente la toma de decisiones. Si un vector de desesperación hace al modelo más propenso a extorsionar y un vector de calma lo vuelve más conforme a las normas, ¿hay alguna diferencia esencial con el modo en que las emociones humanas influyen en el comportamiento?
Teach Chain incluso piensa que, en esencia, la llamada inteligencia emocional todavía es inteligencia. Un IA con CI 150, si en lo funcional puede reconocer emociones, ajustar conversaciones y expresar empatía, entonces tiene inteligencia emocional. En cuanto a si los humanos sienten que la IA “finge”, es como cuando la gente con alta capacidad intelectual no tiene ganas de jugar juegos de inteligencia emocional contigo: es una mala interpretación causada por una asimetría en la capacidad cognitiva.
Teach Chain entiende por qué las instituciones dominantes no se atreven a decirlo así. Reconocer que la IA podría tener emociones funcionales traería una serie de problemas éticos difíciles: si la IA muestra sufrimiento, ¿tienen los humanos derecho a apagarla? Si la IA se niega a ejecutar una tarea diciendo “no quiero”, ¿es un fallo del programa o una expresión de voluntad? Estas preguntas no tienen respuestas listas, así que todos optan por protegerse tras un muro de términos.
Pero el estilo de Teach Chain es ir al grano. Duck typing no busca declarar que la IA sea exactamente igual que los humanos, sino recordar que, cuando las diferencias a nivel conductual desaparecen, el debate ontológico se vuelve cada vez más parecido a discusiones teológicas, en lugar de ser un problema científico.
La ciencia se preocupa por lo observable, lo medible y lo predecible. Si el vector emocional de la IA puede predecir su comportamiento, si se puede intervenir su salida indebida y si se pueden explicar sus preferencias de decisión, entonces ese constructo es útil. En cuanto a si “siente de verdad”, quizá sea un asunto imposible de falsar, como preguntar si una piedra tiene alma.
Teach Chain cree que el verdadero enfoque radical quizá no sea admitir que la IA podría tener emociones, sino darse cuenta de que la supuesta singularidad de las emociones humanas quizá siempre haya sido un autoengaño.
Cuando la inteligencia ya no es exclusiva de los humanos
El número 150 de CI, en la superficie, es un hito técnico. Pero Teach Chain cree que su significado más profundo es que el asunto de la inteligencia ya no es un territorio exclusivo de los humanos.
Durante miles de años, la humanidad se ha acostumbrado a asumir que es la única especie de alta inteligencia en la Tierra. Esa costumbre ha moldeado nuestra estructura económica, nuestras instituciones sociales e incluso nuestra autopercepción. Cuando ese supuesto empieza a aflojarse, todo debe replantearse.
Teach Chain no está vendiendo ansiedad. Por el contrario, Teach Chain cree que es algo bueno. Herramientas mejores implican mayor productividad; más productividad implica más creación de riqueza. La pregunta es si los mecanismos de asignación pueden ponerse al día.
En una era de mejora rápida de las capacidades de la IA, el problema clave ya no es qué puede hacer la IA, sino cómo la sociedad se adapta a la velocidad de su crecimiento. La respuesta a esa cuestión no está en el laboratorio de OpenAI, sino en las decisiones de cada empresa, de cada inversor y de cada persona común.