Actualmente, ¿cómo romper la "burbuja" de la IA? - Plataforma de intercambio de criptomonedas cifradas segura y confiable

Las acciones de empresas relacionadas con IA recientemente han sido duramente golpeadas debido a diversos ciclos de financiamiento en Estados Unidos,

la falta de retorno en inversiones de alto monto y la escasez de liquidez en los mercados globales.

Las grandes empresas de CSP están ajustando la depreciación,

el flujo de caja,

la proporción de gastos de capital respecto a los ingresos ya es bastante alta, esto ya lo mencioné a mediados del año pasado,

pero en ese momento el mercado lo ignoró,

seguimos invirtiendo agresivamente en IA,

ahora vuelve a ser tema de discusión,

la razón principal es exactamente la misma que entonces,

aún no se han visto ganancias ni aplicaciones exitosas que justifiquen los gastos de capital,

en pocas palabras, el mercado considera que la burbuja se debe a los costos de inversión demasiado altos.

Pero ahora mismo, nadie puede realmente dejar de invertir en IA,

en lugar de hacer predicciones vagas sobre cuándo se romperán los gastos de capital o cuándo aparecerán aplicaciones exitosas,

es mejor estudiar las tendencias actuales del sector para resolver el problema de la “burbuja” en IA.

¿Y cómo resolverlo?

La respuesta es reducir costos,

el desarrollo de cualquier tecnología siempre implica una disminución continua en su costo unitario,

de lo contrario, no sería posible su popularización.

Desde los grandes teléfonos móviles hasta los teléfonos inteligentes,

pasando por internet y la internet móvil, todo ha sido así.

Entonces, ¿dónde está el mayor problema actual de la IA? En los altos gastos de capital y la escasez de electricidad,

lo que se traduce en GPUs demasiado caras,

alto consumo de energía,

¿cómo resolverlo?

Hay dos caminos:

Uno,

Reducir los costos del sistema de tarjetas de cálculo

(1) Chips desarrollados internamente,

el ejemplo típico es Google,

y Google, al igual que Apple, tiene suficiente liquidez,

un ecosistema cerrado,

una estrategia integral de hardware y software,

que naturalmente se convirtió en la última inversión del fundador de Google, Larry Page.

De la siguiente tabla también se puede ver que la configuración de TPU7 de Google sigue siendo bastante buena,

dos unidades con capacidades similares a la B300,

pero en términos de precio,

una B300 probablemente cuesta lo mismo que cuatro TPU7.

Por eso, la proyección de envíos de TPU para 2026 ya alcanza los cuatro millones de unidades,

casi igualando la previsión de Rubin para ese año.

El impacto en la industria radica en que,

si la cuota de mercado de GPUs genéricas y tarjetas desarrolladas internamente alcanza una proporción 1:1 a largo plazo,

significa que, con los mismos gastos de capital,

se puede lograr aproximadamente un 1.5 veces más de potencia de cálculo y almacenamiento.

Lo mismo aplica para productos complementarios como módulos ópticos,

más tarjetas implican mayor demanda de componentes.

(Esta parte la escribí el 7 de septiembre,

justo antes de la explosión en almacenamiento,

puedes revisar ese contenido para más detalles).

(2) Dividir una GPU tradicional en dos configuraciones distintas: inferencia y entrenamiento profundo,

utilizando esquemas de memoria de diferentes capacidades,

como la combinación Rubin+CPX de Nvidia y la serie de chips Ascend con 950pr+950dr, son ejemplos de esto,

la lógica puede usar el mismo chip,

pero reducir costos mediante diferentes configuraciones de memoria.

Por ejemplo, la memoria HBM4 de 288G ya cuesta más de 30,000 RMB,

pero con GDDR7 de 288G, quizás solo unos 15,000 RMB,

el preprocesamiento de textos liviano puede reducir significativamente el costo de las tarjetas de inferencia,

permitiendo desplegar más tarjetas para inferencia.

El chip de inferencia propio Ascend 950pr, basado en la arquitectura HI BL1.0, es una innovación nacional que propone una solución de alta ancho de banda sin usar HBM tradicional,

aún no se ha lanzado oficialmente y no es apropiado discutirlo públicamente,

pero en la industria probablemente ya se tenga una idea de qué se trata.

Dos,

Reducir el consumo energético de los servidores

Ya se mencionó en las noticias de esta semana,

para disminuir el consumo de energía de los servidores de IA,

Nvidia decidió recientemente cambiar la memoria utilizada en los servidores de DDR5 (la memoria de doble velocidad de datos de quinta generación),

por LPDDR5X, que también usan muchos teléfonos flagship.

En cuanto a la eficiencia energética de los chips de IA nacionales,

al igual que Qualcomm,

son mucho más agresivos que Nvidia,

ellos todavía usan LPDDR en la memoria de CPU para ahorrar energía,

nosotros directamente enfocamos en la memoria de las GPUs,

no puedo adelantar más detalles,

solo puedo decir que tú sabes.

Además, se está cambiando el enfriamiento de servidores de aire a líquido,

esto no necesita explicación,

el enfriamiento,

también es un aspecto clave en el consumo de energía.

En resumen,

el sector experimentará muchas transformaciones estructurales, y estos aspectos seguirán siendo las grandes oportunidades futuras.

En almacenamiento,

esta semana también fue dura,

por un lado, problemas de liquidez,

por otro, la llamada expansión masiva de la capacidad de memoria.

Primero, Hynix y Samsung solo han construido nuevas capacidades en M15X y P4 en Pyeongtaek,

el resto son solo transferencias de capacidad de procesos antiguos DDR4/LPDDR5 existentes,

en realidad, no son capacidades nuevas,

el titular de una expansión de 8 veces es más un juego de palabras,

primero, porque los procesos avanzados de 1C tenían una base pequeña,

y segundo, más del 50% son solo actualizaciones de capacidad existente con mejoras en el proceso,

el aumento total real es bastante limitado.

Además, esta expansión no se materializará hasta la segunda mitad de 2026 como mínimo,

algunos incluso en 2027-2028, en forma de futuros contratos,

la capacidad instalada puede ajustarse según la demanda del mercado.

Mantener los precios del DRAM en niveles relativamente altos y fluctuar,

ampliar ventas para satisfacer la demanda,

es lo que los fabricantes de memoria deben hacer,

para obtener márgenes altos a largo plazo similares a los de HBM,

incrementando volumen y precio simultáneamente.

Dado que solo Samsung, Micron y Hynix dominan el mercado de DRAM,

se dice que las dos empresas coreanas tienen ciertos acuerdos en el mercado de escritorio.

Además,

es importante tener en cuenta que,

el precio spot que vemos es diferente del precio de contrato que suministran los fabricantes,

que es mucho más bajo,

incluso si el precio spot se reduce a la mitad, el precio de contrato sigue siendo un 50% más bajo que el spot.

Desde la expansión de HBM a almacenamiento general,

la proporción de IA en los negocios de almacenamiento ha aumentado significativamente,

llega el momento en que los fabricantes de memoria experimentarán un aumento en volumen y precio, en una especie de “momento brillante” para módulos ópticos.

El banco estadounidense también publicó un informe describiendo la situación actual,

las opiniones entre los compradores son muy divididas,

los investigadores de compras ven potencial en el almacenamiento,

pero los gestores temen ser los que compran en el pico,

en términos simples, los expertos creen que no hay problema,

pero los responsables de gestionar el dinero están preocupados,

y solo podrán invertir más cuando el mercado secundario toque fondo.

TAO-3,24%
DAI-0,01%
AIA-3,53%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado