Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Dos mil millones de dólares: OpenAI y Nvidia en la guerra de "razonamiento"
NVIDIA y OpenAI invierten 20 mil millones de dólares cada uno en el mercado de chips de inferencia de IA, Cerebras presenta una solicitud de IPO valorada en 35 mil millones de dólares. Esta silenciosa guerra por el control del poder de cálculo en IA está redefiniendo la estructura del mercado tecnológico, valorado en miles de millones. Este artículo proviene de Wall Street Journal, organizado y reportado por PANews.
(Resumen previo: Los ingresos de NVIDIA crecen un 114% en su informe financiero, ¿por qué Jensen Huang no teme el impacto de DeepSeek?)
(Información adicional: The Economist predice que 2025 será la era de los “Agentes de IA”, pero hay tres dificultades a tener en cuenta)
Índice del artículo
Alternar
En diciembre de 2025, NVIDIA silenciosamente gastó 20 mil millones de dólares para adquirir una empresa de chips de IA llamada Groq.
El 17 de abril de 2026, OpenAI anunció que compraría más de 20 mil millones de dólares en chips a otra compañía de chips de IA, Cerebras. El mismo día, Cerebras presentó oficialmente su solicitud de IPO en Nasdaq, con una valoración objetivo de 35 mil millones de dólares.
Estas dos transacciones, con montos casi idénticos. Una es una adquisición, la otra una compra. Una proviene del mayor vendedor mundial de chips de IA, la otra del mayor comprador global de IA.
No son hechos independientes, sino dos movimientos simétricos en la misma guerra. El campo de batalla se llama: inferencia de IA.
La mayoría no ha notado esta guerra, porque no hay explosiones, solo informes financieros y discusiones técnicas que circulan en círculos de ingenieros en Silicon Valley. Pero su impacto puede ser más profundo que cualquier lanzamiento de IA en los últimos dos años, ya que está redistribuyendo el control de uno de los mercados tecnológicos más grandes de la historia.
¿Qué es la inferencia y por qué la palabra clave en 2026 ya no será “entrenamiento”?
Antes de hablar de los dos 20 mil millones, hay que entender un contexto: el campo de batalla de chips de IA está experimentando un cambio de enfoque.
El entrenamiento y la inferencia son las dos fases del consumo de poder de cálculo en IA. El entrenamiento consiste en crear modelos: alimentar a las redes neuronales con datos masivos para que aprendan cierta habilidad. Este proceso generalmente ocurre una sola vez o se actualiza periódicamente. La inferencia es usar el modelo: cada vez que un usuario hace una pregunta, ChatGPT da una respuesta, que en realidad es una solicitud de inferencia.
En 2023, la mayor parte del gasto en poder de cálculo de IA en el mundo se destinaba al entrenamiento, con la inferencia como un papel secundario.
Pero esta proporción está cambiando rápidamente.
Según datos de Deloitte y CES 2026, en 2025 la inferencia ya representaba el 50% del gasto total en poder de cálculo de IA; para 2026, esta proporción saltará a las dos terceras partes. El CEO de Lenovo, Yang Yuanqing, lo expresó claramente en CES: la estructura del gasto en IA cambiará de “80% entrenamiento + 20% inferencia” a “20% entrenamiento + 80% inferencia”.
La lógica no es complicada. El entrenamiento es un costo único, la inferencia es un costo continuo. GPT-4 se entrenó una sola vez, pero responde a millones de usuarios todos los días, cada conversación es una solicitud de inferencia. Tras la implementación a escala, el consumo acumulado de inferencia supera ampliamente al del entrenamiento.
¿Y qué significa esto? Significa que la parte más rentable de la industria de IA está moviéndose del “chip de entrenamiento” al “chip de inferencia”. Y estos dos tipos de chips requieren arquitecturas completamente diferentes.
El problema de NVIDIA: chips diseñados para entrenamiento, inherentemente no aptos para inferencia
Los chips H100 y H200 de NVIDIA están diseñados para entrenamiento. Su principal ventaja es un rendimiento de cálculo extremadamente alto: el entrenamiento requiere realizar muchas multiplicaciones en matrices masivas, y las GPU son excelentes en este tipo de “cálculo paralelo de múltiples núcleos”.
Pero el cuello de botella en inferencia no es el cálculo, sino el ancho de banda de memoria.
Cuando un usuario hace una pregunta, el chip necesita mover los pesos del modelo desde la memoria a la unidad de cálculo para generar una respuesta. Este proceso de “movimiento” es la verdadera fuente de latencia en inferencia. La GPU de NVIDIA usa memoria de alta velocidad (HBM) externa, y este movimiento inevitable introduce retrasos: para ChatGPT, que procesa miles de solicitudes por segundo, esta latencia, multiplicada por escala, se convierte en un verdadero cuello de botella de rendimiento.
Los ingenieros internos de OpenAI notaron este problema al optimizar Codex (herramienta de generación de código), y descubrieron que, sin importar cómo ajustaran los parámetros, la velocidad de respuesta seguía limitada por la arquitectura de la GPU de NVIDIA.
En otras palabras, la desventaja de NVIDIA en inferencia no es cuestión de esfuerzo, sino de arquitectura.
La chip WSE-3 de Cerebras tomó un camino completamente diferente. Este chip es tan grande que requiere empaquetado a nivel de oblea: con un área de 46,255 mm², más grande que la palma de una mano, integra 900,000 núcleos de IA y 44 GB de SRAM de alta velocidad en una sola oblea de silicio. La memoria está directamente pegada a los núcleos de cálculo, acortando la “distancia de movimiento” de centímetros a micrómetros. Como resultado, la velocidad de inferencia es 15 a 20 veces más rápida que la H100 de NVIDIA.
Cabe aclarar: NVIDIA no está de brazos cruzados. Su arquitectura Blackwell (B200), lanzada recientemente, mejora en cuatro veces el rendimiento en inferencia respecto a la H100, y ya está en despliegue masivo. Pero Blackwell persigue un objetivo móvil: Cerebras también está en iteración, y en el mercado de chips emergen competidores que ya no son solo Cerebras.
Los 20 mil millones de NVIDIA: un reconocimiento tras la mayor adquisición de la historia
El 24 de diciembre de 2025, NVIDIA anunció su mayor adquisición hasta la fecha.
El objetivo era Groq.
Groq es un competidor similar a Cerebras, especializado en chips SRAM optimizados para inferencia — llamado LPU (Unidad de Procesamiento de Lenguaje). En evaluaciones públicas, fue considerado el chip de inferencia más rápido del mundo en ese momento. NVIDIA pagó 20 mil millones de dólares para comprar toda la tecnología y el equipo fundador de Groq, incluyendo al fundador Jonathan Ross y varios ingenieros de chips de Google TPU.
Esta fue la mayor adquisición de NVIDIA desde la compra de Mellanox en 2019 por 7 mil millones, triplicando esa cifra.
Para muchos analistas, lo que transmite esta inversión va más allá del monto: NVIDIA reconoce que tiene una brecha estructural en inferencia, y que esa brecha es tan grande que vale la pena gastar 20 mil millones para cerrarla.
Si NVIDIA realmente creyera que sus GPU son invencibles en inferencia, no necesitaría comprar Groq. En esencia, esta compra es una orden de compra de tecnología por valor de 20 mil millones, que reconoce la ventaja real de la arquitectura SRAM en inferencia — y que NVIDIA, con su línea de productos actual, no puede cubrir naturalmente esa ventaja. La compra más cara para adquirir una brecha tecnológica que no puede llenar por sí misma.
Por supuesto, la narrativa oficial tras la adquisición es otra: “Integración profunda con Groq, para ofrecer soluciones de inferencia más completas”. La traducción técnica sería: “Nos damos cuenta de que nuestro producto no basta, así que compramos el de otros”.
Los 20 mil millones de OpenAI: comprar chips es solo la superficie, la inversión en acciones es la clave
Volviendo a OpenAI.
En enero de 2026, OpenAI y Cerebras firmaron un acuerdo de compra de capacidad de cálculo por 10 mil millones de dólares a tres años — la cobertura mediática se centró en “OpenAI diversifica sus proveedores de chips”, con tono ligero.
Pero los detalles revelados el 17 de abril cambian radicalmente la naturaleza de la operación:
Primero, el monto de compra se duplicó, pasando a 20 mil millones de dólares.
Segundo, OpenAI obtendrá warrants (derechos de compra de acciones) de Cerebras, que, a medida que aumente la compra, podrán representar hasta el 10% del total de acciones de Cerebras.
Tercero, OpenAI también proporcionará 1,000 millones de dólares para construir centros de datos para Cerebras — en otras palabras, OpenAI está ayudando a Cerebras a construir fábricas.
Estos tres detalles en conjunto dibujan un escenario completamente diferente: OpenAI no solo está comprando chips, sino que está incubando un proveedor.
Este patrón tiene precedentes claros en la historia tecnológica. En 2006, Apple empezó a colaborar con Samsung para chips personalizados de la serie A, inicialmente con acuerdos de compra en volumen. Pero a medida que Apple profundizó su participación y finalmente desarrolló sus propios chips M, el control de la cadena de suministro pasó de Intel y Samsung a Apple misma. Lo que hace OpenAI es similar — pero con una diferencia clave: Apple desde el principio controlaba el diseño del chip, mientras que OpenAI todavía es un comprador. Después de que Cerebras salga a bolsa, seguirá desarrollándose de forma independiente y atendiendo a más clientes. El fin de este camino no necesariamente será que OpenAI controle completamente a Cerebras, sino que ambas partes construyan una ecosistema de dependencia mutua.
Por un lado, con 20 mil millones y la inversión en acciones, aseguran un suministro continuo de poder de cálculo de inferencia que no dependa de NVIDIA; por otro, OpenAI está colaborando con Broadcom para desarrollar su propio ASIC, que se espera produzca en masa a finales de 2026. Caminar en ambas direcciones, hacia la autonomía en poder de cálculo.
Cerebras hoy en IPO, ¿qué estás comprando?
El 17 de abril, Cerebras presentó oficialmente su solicitud de IPO en Nasdaq, con una valoración de 35 mil millones de dólares y un plan de recaudación de 3 mil millones.
Esa valoración, que en septiembre de 2025 era de solo 8.1 mil millones, se ha cuadruplicado. En febrero, había cerrado una ronda de financiamiento con una valoración de 23 mil millones, y ahora, con la IPO, se sobrevalora en un 52% respecto a esa cifra.
Quienes conocen la historia de Cerebras saben que este es su segundo intento de salir a bolsa. La primera fue en 2024, pero fue retirada debido a que su cliente principal, G42 (Fondo de Inversiones Tecnológicas de Emiratos Árabes), representaba entre el 83% y 97% de sus ingresos en ese año, y CFIUS intervino por motivos de seguridad nacional.
En esta ocasión, G42 ya no figura en la lista de accionistas, reemplazada por OpenAI.
En otras palabras, la estructura de concentración de clientes de Cerebras aún no se ha resuelto por completo: el nombre del gran cliente cambió, pero la dependencia sigue allí. Los inversores deben juzgar si este cliente es mejor o peor. Desde la perspectiva crediticia, OpenAI es claramente mejor que G42; desde la estrategia, OpenAI también es un competidor que puede reemplazar a Cerebras — si su chip ASIC propio madura, será una amenaza real.
Para ser justos, Cerebras también está ampliando su base de clientes, y en su prospecto de oferta pública planea listar más fuentes de ingresos diversificadas, lo que mejorará la concentración. Pero antes de que la línea de producción de chips propios de OpenAI esté en marcha, la respuesta a esta duda aún no está clara.
Al comprar acciones de Cerebras, en realidad estás apostando a que: OpenAI seguirá eligiendo a Cerebras, y que su chip ASIC propio no llegará antes de lo esperado. Ambas cosas no son seguras.
Por supuesto, también hay argumentos a favor: si el tamaño del mercado de inferencia crece según las predicciones, incluso si Cerebras solo logra una pequeña participación en ese mercado, las cifras absolutas serán considerables. La cuestión no es si Cerebras tiene oportunidad, sino si la valoración de 35 mil millones ya refleja el escenario más optimista.
Los dos 20 mil millones aparecen de manera simétrica entre finales de 2025 y abril de 2026.
Uno, de la mayor vendedora de chips de IA del mundo, compra tecnología de un competidor en el mercado de inferencia.
El otro, del mayor comprador de IA del mundo, está incubando una empresa que desafía a NVIDIA en ese mercado.
Los 20 mil millones de NVIDIA son una medida defensiva: usan el precio más alto para cerrar una brecha tecnológica que no pueden llenar por sí mismos.
Los 20 mil millones de OpenAI son una medida ofensiva: están quemando dinero para construir una autopista de inferencia que no dependa de NVIDIA, y además, han obtenido una participación en esa vía.
Esta guerra no tiene disparos, pero el flujo de fondos nunca miente. Estas dos transacciones muestran claramente: el control de la infraestructura de inferencia de IA está en disputa. Y en 2026, ese mercado representará dos tercios del gasto total en poder de cálculo de la industria.
La IPO de Cerebras es la señal de aviso de esta guerra.