Buffett dijo una vez: “Nunca inviertas en una empresa que no entiendas”. Sin embargo, justo cuando la “era del Oráculo de Omaha” está llegando a su fin, Buffett ha tomado una decisión que contradice su “regla de la casa”: comprar acciones de Google, y además a una prima muy alta, aproximadamente 40 veces el flujo de caja libre. Es la primera vez que Buffett invierte en una acción relacionada con la IA, y no es ni OpenAI ni Nvidia.
De la alerta roja al contraataque de Google AI
Volvamos a finales de 2022. En ese momento apareció ChatGPT, y la alta dirección de Google activó una “alerta roja”. Se sucedieron reuniones y hasta llamaron de urgencia a los dos fundadores. Pero en ese momento, Google parecía un dinosaurio lento y atrapado en la burocracia. Lanzaron apresuradamente el chatbot Bard, pero cometió errores fácticos en la demostración, las acciones de la empresa se desplomaron y su capitalización bursátil perdió más de cien mil millones de dólares en un solo día.
Después, integraron sus equipos de IA y lanzaron el multimodal Google AI. Pero este producto, que debía ser su as bajo la manga, solo generó unas pocas horas de discusión en el sector tecnológico antes de que Sora, el modelo de generación de vídeo de OpenAI, le robara todo el protagonismo y quedara rápidamente en el olvido. Resulta algo embarazoso que fueran los propios investigadores de Google quienes, en 2017, publicaron el revolucionario artículo “Attention Is All You Need”, en el que se presentó el modelo Transformer y se sentaron las bases teóricas sólidas de esta revolución de la IA.
Los rivales se burlan de Google. El CEO de OpenAI, Altman, menosprecia el gusto de Google: “No puedo evitar pensar en las diferencias estéticas entre OpenAI y Google”. El ex CEO de Google también critica la pereza de la empresa: “Google siempre ha pensado que el equilibrio entre trabajo y vida… es más importante que ganar la competencia”. Esta serie de situaciones embarazosas hizo que muchos dudaran de que Google estuviera perdiendo la carrera de la IA.
Pero el cambio finalmente llegó. En noviembre, se lanzó la tercera versión de Google AI, que superó a sus rivales en la mayoría de los benchmarks, incluido OpenAI. Un dato de prueba mostró que, en la mayoría de los tests que cubrían conocimiento experto, razonamiento lógico, matemáticas y reconocimiento de imágenes, la tercera versión de Google AI obtuvo puntuaciones significativamente superiores. Solo quedó en segundo lugar en la única prueba de capacidad de programación.
The Wall Street Journal afirmó: “Podría considerarse el modelo de próxima generación líder en Estados Unidos”. Bloomberg dijo que Google por fin había despertado. Musk y Altman lo elogiaron. Algunos usuarios bromeaban diciendo que esto era el GPT-5 de los sueños de Altman. El CEO de la plataforma de gestión de contenido en la nube Box, tras probar en primicia la tercera versión de Google AI, declaró que la mejora de rendimiento era tan grande que en un momento llegaron a dudar de que su método de evaluación fuera correcto.
El CEO de Salesforce dijo que había usado ChatGPT durante tres años, pero que la tercera versión de Google AI le rompió los esquemas en solo dos horas: “Santo cielo… no hay vuelta atrás. Es un salto cualitativo, el razonamiento, la velocidad, el procesamiento de texto, imagen y vídeo… todo es más agudo, más rápido. Parece que el mundo ha vuelto a cambiar radicalmente”.
¿Por qué es tan destacable el rendimiento de la tercera versión de Google AI? El responsable del proyecto publicó: “Sencillo: mejoramos el preentrenamiento y el postentrenamiento”. Algunos análisis indican que el preentrenamiento del modelo sigue la lógica de la Scaling Law: optimizando el preentrenamiento (por ejemplo, con datos a mayor escala, métodos de entrenamiento más eficientes, más parámetros, etc.), se consigue mejorar la capacidad del modelo.
El chip TPU abre una brecha en la fortaleza de Nvidia
Hace un mes, la capitalización de Nvidia superó los 5 billones de dólares, y el entusiasmo del mercado por la inteligencia artificial llevó a este “traficante de armas de la IA” a un nuevo máximo. Pero el chip TPU utilizado por la tercera versión de Google AI ha abierto una brecha en la fortaleza de Nvidia. The Economist, citando datos de la firma de análisis Bernstein, señala que las GPU de Nvidia suponen más de dos tercios del coste total de un rack de servidores de IA típico, mientras que el precio de los chips TPU de Google es solo entre el 10% y el 50% del de un chip Nvidia de rendimiento equivalente.
Estos ahorros acumulados son considerables. El banco de inversión Jefferies estima que Google producirá unos 3 millones de estos chips el año que viene, casi la mitad de la producción de Nvidia. El mes pasado, la conocida startup de IA Anthropic ya planea adoptar masivamente los chips TPU de Google, y se dice que el acuerdo ascendería a varios miles de millones de dólares. El 25 de noviembre se informó de que el gigante tecnológico Meta también está en negociaciones para adoptar los chips TPU en sus centros de datos antes de 2027, por un valor de varios miles de millones de dólares.
La historia de los TPU se remonta a más de una década. Por entonces, Google empezó a desarrollar un chip acelerador especializado de uso interno para aumentar la eficiencia de búsqueda, mapas y traducción. Desde 2018, empezó a vender TPU a clientes de computación en la nube. Posteriormente, los TPU también se utilizaron para apoyar el desarrollo interno de IA en Google. Durante el desarrollo de modelos como Google AI, el equipo de IA y el equipo de chips han trabajado en conjunto: los primeros proporcionan necesidades reales y feedback, los segundos optimizan los TPU en función de ello, lo que a su vez mejora la eficiencia del desarrollo de IA.
Diferencias clave entre TPU y GPU de Nvidia
Ventaja de costes: el precio del TPU es solo entre el 10% y el 50% del de un chip Nvidia de rendimiento equivalente
Especializado vs. generalista: el TPU está diseñado específicamente para tareas de IA, mientras que la GPU es más versátil pero costosa
Eficiencia energética: el TPU sacrifica adaptabilidad por mayor eficiencia, ofreciendo más capacidad de cálculo por unidad de consumo
Escala de producción: Google producirá unos 3 millones el próximo año, aproximadamente la mitad de la producción de Nvidia
El TPU de Google es un circuito integrado específico (ASIC), es un “especialista”, diseñado para tareas informáticas concretas. Sacrifica algo de flexibilidad y adaptabilidad para conseguir mayor eficiencia energética. La GPU de Nvidia, en cambio, es un “generalista”, más flexible y programable, pero a costa de un mayor coste.
El modelo de integración vertical que atrae a Buffett
El chip de IA de Google se ha convertido en una de las pocas alternativas al chip de Nvidia, lo que ha tirado directamente del precio de las acciones de Nvidia. Nvidia incluso publicó un mensaje para calmar el pánico del mercado causado por los TPU. Dijo estar “feliz por el éxito de Google”, pero destacó que Nvidia ya lidera la industria por una generación, y que su hardware es más versátil que los TPU y otros chips especializados.
Google disfruta ahora de una etapa dulce, con sus acciones subiendo a contracorriente en la burbuja de la IA. La empresa de Buffett compró acciones suyas en el tercer trimestre, la tercera versión de Google AI ha sido recibida positivamente, y los chips TPU generan expectativas entre los inversores; todo esto ha llevado a Google a lo más alto. En el último mes, Nvidia, Microsoft y otras acciones relacionadas con la IA han caído más del 10%, mientras que Google ha subido alrededor de un 16%. Actualmente, con una capitalización de 3,86 billones de dólares, ocupa el tercer puesto mundial, solo por detrás de Nvidia y Apple.
Los analistas llaman al modelo de inteligencia artificial de Google integración vertical. Como uno de los pocos actores “full stack” del sector tecnológico, Google controla toda la cadena: despliega sus propios chips TPU en Google Cloud, entrena sus propios modelos de IA, y estos modelos se integran perfectamente en negocios clave como búsquedas o YouTube. Las ventajas de este modelo son evidentes: no depende de Nvidia, y disfruta de una potencia de cálculo eficiente y de bajo coste.
Esto es precisamente lo que atrae a Buffett. El Oráculo de Omaha siempre ha preferido empresas con “fosos defensivos”, y el modelo de integración vertical de Google es el más ancho de todos. Mientras otros dependen de Nvidia para la potencia de cálculo y de OpenAI para los modelos, Google ya controla toda la cadena, desde el chip hasta el modelo y la aplicación. Esta autonomía le otorga ventajas significativas en control de costes, iteración tecnológica y flexibilidad estratégica.
El otro modelo es el de la alianza laxa, más habitual. Los gigantes se reparten las tareas: Nvidia fabrica las GPU, OpenAI, Anthropic, etc. desarrollan los modelos de IA, los gigantes de la nube como Microsoft compran GPU a los fabricantes de chips para alojar modelos de estos laboratorios de IA. En esta red, no existen aliados ni rivales absolutos: colaboran cuando pueden, compiten cuando deben.
Los actores han creado una “estructura circular”, donde el capital circula en bucle entre unos pocos gigantes tecnológicos. Un ejemplo: OpenAI gasta 300.000 millones de dólares en comprar capacidad a Oracle, Oracle a su vez invierte miles de millones en comprar chips Nvidia para construir centros de datos, y Nvidia reinvierte hasta 100.000 millones en OpenAI, con la condición de que siga usando sus chips. Los analistas de Morgan Stanley advierten que la falta de transparencia dificulta a los inversores evaluar los riesgos y rendimientos reales.
Ventaja de flujo de caja y base de usuarios de Google
OpenAI tiene actualmente una valoración de 500.000 millones de dólares, siendo la startup más valiosa del mundo. Es también una de las empresas de más rápido crecimiento de la historia: sus ingresos pasaron de casi 0 en 2022 a los 13.000 millones estimados para este año, pero también prevé que, para alcanzar la inteligencia artificial general, tendrá que quemar más de 100.000 millones de dólares en los próximos años, y gastar cientos de miles de millones más en alquiler de servidores. Es decir, aún necesita buscar financiación.
Google tiene una ventaja nada desdeñable: una cartera mucho más sólida. Su último informe trimestral muestra que sus ingresos superaron por primera vez los 100.000 millones, alcanzando 102.300 millones, un aumento interanual del 16%, y un beneficio de 35.000 millones, un 33% más. Su flujo de caja libre es de 73.000 millones, y su gasto de capital relacionado con IA alcanzará los 90.000 millones este año. Tampoco tiene que preocuparse, por ahora, de que la IA erosione su negocio de búsqueda, ya que las búsquedas y la publicidad siguen creciendo a doble dígito. Su negocio en la nube va viento en popa, incluso OpenAI alquila sus servidores.
Además de su capacidad de autofinanciación, Google cuenta con recursos que OpenAI no puede igualar, como enormes volúmenes de datos disponibles para entrenar y optimizar modelos, e infraestructuras de computación propias. El 14 de noviembre, Google anunció una inversión de 40.000 millones de dólares en nuevos centros de datos. Con cerca del 90% de cuota en el mercado global de búsquedas en Internet, Google controla el canal clave para promocionar sus modelos de IA y puede llegar directamente a una masa de usuarios enorme.
Aunque en número de usuarios, ChatGPT sigue superando claramente a la tercera versión de Google AI, la brecha se está reduciendo. En febrero de este año, ChatGPT tenía 400 millones de usuarios activos semanales; este mes han llegado a 800 millones. Google AI publica cifras mensuales: en julio, tenía 450 millones de usuarios activos mensuales, y este mes han llegado a 650 millones.
El CEO de Google, Sundar Pichai, dijo recientemente en un pódcast que sus empleados deberían descansar un poco. “Desde fuera puede que en ese periodo pareciéramos silenciosos o rezagados, pero en realidad estábamos consolidando todos los componentes básicos y, sobre esa base, impulsando a fondo”. Ahora la situación se ha invertido. Pichai afirma: “Ya hemos llegado al punto de inflexión”.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¡Buffett rompe la regla y apuesta por Google! Compra acciones de IA con una prima del 40x para desafiar la hegemonía de Nvidia
Buffett dijo una vez: “Nunca inviertas en una empresa que no entiendas”. Sin embargo, justo cuando la “era del Oráculo de Omaha” está llegando a su fin, Buffett ha tomado una decisión que contradice su “regla de la casa”: comprar acciones de Google, y además a una prima muy alta, aproximadamente 40 veces el flujo de caja libre. Es la primera vez que Buffett invierte en una acción relacionada con la IA, y no es ni OpenAI ni Nvidia.
De la alerta roja al contraataque de Google AI
Volvamos a finales de 2022. En ese momento apareció ChatGPT, y la alta dirección de Google activó una “alerta roja”. Se sucedieron reuniones y hasta llamaron de urgencia a los dos fundadores. Pero en ese momento, Google parecía un dinosaurio lento y atrapado en la burocracia. Lanzaron apresuradamente el chatbot Bard, pero cometió errores fácticos en la demostración, las acciones de la empresa se desplomaron y su capitalización bursátil perdió más de cien mil millones de dólares en un solo día.
Después, integraron sus equipos de IA y lanzaron el multimodal Google AI. Pero este producto, que debía ser su as bajo la manga, solo generó unas pocas horas de discusión en el sector tecnológico antes de que Sora, el modelo de generación de vídeo de OpenAI, le robara todo el protagonismo y quedara rápidamente en el olvido. Resulta algo embarazoso que fueran los propios investigadores de Google quienes, en 2017, publicaron el revolucionario artículo “Attention Is All You Need”, en el que se presentó el modelo Transformer y se sentaron las bases teóricas sólidas de esta revolución de la IA.
Los rivales se burlan de Google. El CEO de OpenAI, Altman, menosprecia el gusto de Google: “No puedo evitar pensar en las diferencias estéticas entre OpenAI y Google”. El ex CEO de Google también critica la pereza de la empresa: “Google siempre ha pensado que el equilibrio entre trabajo y vida… es más importante que ganar la competencia”. Esta serie de situaciones embarazosas hizo que muchos dudaran de que Google estuviera perdiendo la carrera de la IA.
Pero el cambio finalmente llegó. En noviembre, se lanzó la tercera versión de Google AI, que superó a sus rivales en la mayoría de los benchmarks, incluido OpenAI. Un dato de prueba mostró que, en la mayoría de los tests que cubrían conocimiento experto, razonamiento lógico, matemáticas y reconocimiento de imágenes, la tercera versión de Google AI obtuvo puntuaciones significativamente superiores. Solo quedó en segundo lugar en la única prueba de capacidad de programación.
The Wall Street Journal afirmó: “Podría considerarse el modelo de próxima generación líder en Estados Unidos”. Bloomberg dijo que Google por fin había despertado. Musk y Altman lo elogiaron. Algunos usuarios bromeaban diciendo que esto era el GPT-5 de los sueños de Altman. El CEO de la plataforma de gestión de contenido en la nube Box, tras probar en primicia la tercera versión de Google AI, declaró que la mejora de rendimiento era tan grande que en un momento llegaron a dudar de que su método de evaluación fuera correcto.
El CEO de Salesforce dijo que había usado ChatGPT durante tres años, pero que la tercera versión de Google AI le rompió los esquemas en solo dos horas: “Santo cielo… no hay vuelta atrás. Es un salto cualitativo, el razonamiento, la velocidad, el procesamiento de texto, imagen y vídeo… todo es más agudo, más rápido. Parece que el mundo ha vuelto a cambiar radicalmente”.
¿Por qué es tan destacable el rendimiento de la tercera versión de Google AI? El responsable del proyecto publicó: “Sencillo: mejoramos el preentrenamiento y el postentrenamiento”. Algunos análisis indican que el preentrenamiento del modelo sigue la lógica de la Scaling Law: optimizando el preentrenamiento (por ejemplo, con datos a mayor escala, métodos de entrenamiento más eficientes, más parámetros, etc.), se consigue mejorar la capacidad del modelo.
El chip TPU abre una brecha en la fortaleza de Nvidia
Hace un mes, la capitalización de Nvidia superó los 5 billones de dólares, y el entusiasmo del mercado por la inteligencia artificial llevó a este “traficante de armas de la IA” a un nuevo máximo. Pero el chip TPU utilizado por la tercera versión de Google AI ha abierto una brecha en la fortaleza de Nvidia. The Economist, citando datos de la firma de análisis Bernstein, señala que las GPU de Nvidia suponen más de dos tercios del coste total de un rack de servidores de IA típico, mientras que el precio de los chips TPU de Google es solo entre el 10% y el 50% del de un chip Nvidia de rendimiento equivalente.
Estos ahorros acumulados son considerables. El banco de inversión Jefferies estima que Google producirá unos 3 millones de estos chips el año que viene, casi la mitad de la producción de Nvidia. El mes pasado, la conocida startup de IA Anthropic ya planea adoptar masivamente los chips TPU de Google, y se dice que el acuerdo ascendería a varios miles de millones de dólares. El 25 de noviembre se informó de que el gigante tecnológico Meta también está en negociaciones para adoptar los chips TPU en sus centros de datos antes de 2027, por un valor de varios miles de millones de dólares.
La historia de los TPU se remonta a más de una década. Por entonces, Google empezó a desarrollar un chip acelerador especializado de uso interno para aumentar la eficiencia de búsqueda, mapas y traducción. Desde 2018, empezó a vender TPU a clientes de computación en la nube. Posteriormente, los TPU también se utilizaron para apoyar el desarrollo interno de IA en Google. Durante el desarrollo de modelos como Google AI, el equipo de IA y el equipo de chips han trabajado en conjunto: los primeros proporcionan necesidades reales y feedback, los segundos optimizan los TPU en función de ello, lo que a su vez mejora la eficiencia del desarrollo de IA.
Diferencias clave entre TPU y GPU de Nvidia
Ventaja de costes: el precio del TPU es solo entre el 10% y el 50% del de un chip Nvidia de rendimiento equivalente
Especializado vs. generalista: el TPU está diseñado específicamente para tareas de IA, mientras que la GPU es más versátil pero costosa
Eficiencia energética: el TPU sacrifica adaptabilidad por mayor eficiencia, ofreciendo más capacidad de cálculo por unidad de consumo
Escala de producción: Google producirá unos 3 millones el próximo año, aproximadamente la mitad de la producción de Nvidia
El TPU de Google es un circuito integrado específico (ASIC), es un “especialista”, diseñado para tareas informáticas concretas. Sacrifica algo de flexibilidad y adaptabilidad para conseguir mayor eficiencia energética. La GPU de Nvidia, en cambio, es un “generalista”, más flexible y programable, pero a costa de un mayor coste.
El modelo de integración vertical que atrae a Buffett
El chip de IA de Google se ha convertido en una de las pocas alternativas al chip de Nvidia, lo que ha tirado directamente del precio de las acciones de Nvidia. Nvidia incluso publicó un mensaje para calmar el pánico del mercado causado por los TPU. Dijo estar “feliz por el éxito de Google”, pero destacó que Nvidia ya lidera la industria por una generación, y que su hardware es más versátil que los TPU y otros chips especializados.
Google disfruta ahora de una etapa dulce, con sus acciones subiendo a contracorriente en la burbuja de la IA. La empresa de Buffett compró acciones suyas en el tercer trimestre, la tercera versión de Google AI ha sido recibida positivamente, y los chips TPU generan expectativas entre los inversores; todo esto ha llevado a Google a lo más alto. En el último mes, Nvidia, Microsoft y otras acciones relacionadas con la IA han caído más del 10%, mientras que Google ha subido alrededor de un 16%. Actualmente, con una capitalización de 3,86 billones de dólares, ocupa el tercer puesto mundial, solo por detrás de Nvidia y Apple.
Los analistas llaman al modelo de inteligencia artificial de Google integración vertical. Como uno de los pocos actores “full stack” del sector tecnológico, Google controla toda la cadena: despliega sus propios chips TPU en Google Cloud, entrena sus propios modelos de IA, y estos modelos se integran perfectamente en negocios clave como búsquedas o YouTube. Las ventajas de este modelo son evidentes: no depende de Nvidia, y disfruta de una potencia de cálculo eficiente y de bajo coste.
Esto es precisamente lo que atrae a Buffett. El Oráculo de Omaha siempre ha preferido empresas con “fosos defensivos”, y el modelo de integración vertical de Google es el más ancho de todos. Mientras otros dependen de Nvidia para la potencia de cálculo y de OpenAI para los modelos, Google ya controla toda la cadena, desde el chip hasta el modelo y la aplicación. Esta autonomía le otorga ventajas significativas en control de costes, iteración tecnológica y flexibilidad estratégica.
El otro modelo es el de la alianza laxa, más habitual. Los gigantes se reparten las tareas: Nvidia fabrica las GPU, OpenAI, Anthropic, etc. desarrollan los modelos de IA, los gigantes de la nube como Microsoft compran GPU a los fabricantes de chips para alojar modelos de estos laboratorios de IA. En esta red, no existen aliados ni rivales absolutos: colaboran cuando pueden, compiten cuando deben.
Los actores han creado una “estructura circular”, donde el capital circula en bucle entre unos pocos gigantes tecnológicos. Un ejemplo: OpenAI gasta 300.000 millones de dólares en comprar capacidad a Oracle, Oracle a su vez invierte miles de millones en comprar chips Nvidia para construir centros de datos, y Nvidia reinvierte hasta 100.000 millones en OpenAI, con la condición de que siga usando sus chips. Los analistas de Morgan Stanley advierten que la falta de transparencia dificulta a los inversores evaluar los riesgos y rendimientos reales.
Ventaja de flujo de caja y base de usuarios de Google
OpenAI tiene actualmente una valoración de 500.000 millones de dólares, siendo la startup más valiosa del mundo. Es también una de las empresas de más rápido crecimiento de la historia: sus ingresos pasaron de casi 0 en 2022 a los 13.000 millones estimados para este año, pero también prevé que, para alcanzar la inteligencia artificial general, tendrá que quemar más de 100.000 millones de dólares en los próximos años, y gastar cientos de miles de millones más en alquiler de servidores. Es decir, aún necesita buscar financiación.
Google tiene una ventaja nada desdeñable: una cartera mucho más sólida. Su último informe trimestral muestra que sus ingresos superaron por primera vez los 100.000 millones, alcanzando 102.300 millones, un aumento interanual del 16%, y un beneficio de 35.000 millones, un 33% más. Su flujo de caja libre es de 73.000 millones, y su gasto de capital relacionado con IA alcanzará los 90.000 millones este año. Tampoco tiene que preocuparse, por ahora, de que la IA erosione su negocio de búsqueda, ya que las búsquedas y la publicidad siguen creciendo a doble dígito. Su negocio en la nube va viento en popa, incluso OpenAI alquila sus servidores.
Además de su capacidad de autofinanciación, Google cuenta con recursos que OpenAI no puede igualar, como enormes volúmenes de datos disponibles para entrenar y optimizar modelos, e infraestructuras de computación propias. El 14 de noviembre, Google anunció una inversión de 40.000 millones de dólares en nuevos centros de datos. Con cerca del 90% de cuota en el mercado global de búsquedas en Internet, Google controla el canal clave para promocionar sus modelos de IA y puede llegar directamente a una masa de usuarios enorme.
Aunque en número de usuarios, ChatGPT sigue superando claramente a la tercera versión de Google AI, la brecha se está reduciendo. En febrero de este año, ChatGPT tenía 400 millones de usuarios activos semanales; este mes han llegado a 800 millones. Google AI publica cifras mensuales: en julio, tenía 450 millones de usuarios activos mensuales, y este mes han llegado a 650 millones.
El CEO de Google, Sundar Pichai, dijo recientemente en un pódcast que sus empleados deberían descansar un poco. “Desde fuera puede que en ese periodo pareciéramos silenciosos o rezagados, pero en realidad estábamos consolidando todos los componentes básicos y, sobre esa base, impulsando a fondo”. Ahora la situación se ha invertido. Pichai afirma: “Ya hemos llegado al punto de inflexión”.