El pánico de Google que ahora amenaza el imperio de NVIDIA
Imagina la escena: es 2013, en las oficinas de Google alguien hace unos cálculos y se le hiela la sangre. Si cada usuario de Android usara la nueva búsqueda por voz solo tres minutos al día, la compañía tendría que duplicar su número de centros de datos. El coste y la logística eran una pesadilla. Las CPUs y GPUs estándar no iban a poder con la carga. La solución fue radical: tenían que fabricar sus propios chips. Así, casi por accidente y empujados por el pánico, nació la primera Tensor Processing Unit (TPU).
Lo que comenzó como un proyecto interno para salvar el cuello en 2015, acelerando servicios como Google Maps o Google Photos, se ha convertido una década después en la amenaza más seria y bien pertrechada para el dominio absoluto de NVIDIA en la era de la IA. La historia de cómo un acto de supervivencia corporativa está cambiando las reglas del juego es, simplemente, fascinante.
De la necesidad interna a la guerra por la supremacía en IA
Google no podía saberlo entonces, pero estaba sembrando la semilla de su propio arsenal. Mientras el mundo descubría ChatGPT a finales de 2022, Google ya llevaba años perfeccionando sus TPUs en la sombra. La explosión de la IA generativa no pilló a la empresa con el pie cambiado en hardware; al contrario, tenía un arma secreta que ahora despliega abiertamente.
La señal de que el tablero estaba cambiando llegó con dos anuncios recientes. Primero, Anthropic reveló que su potente modelo Claude Opus 4.5 se entrenó usando una combinación de chips de NVIDIA, los Trainium de Amazon y, sí, las TPUs de Google. Pero el golpe maestro vino directamente de Mountain View: Gemini 3, su modelo de IA más avanzado, fue entrenado exclusivamente con sus nuevas TPUs Ironwood, presentadas en abril de 2025.
La evolución es abrumadora. Comparado con la TPU v5p de 2023, el chip Ironwood logra un salto de rendimiento de diez veces, pasando de 459 TFLOPS a 4.614 TFLOPS. Además, dobla la eficiencia (FLOPS por vatio) de su generación anterior. No es solo un chip más potente; es un chip que hace mucho más con menos energía, un argumento clave en un mundo que busca desesperadamente eficiencia.
Ironwood vs. Blackwell: La batalla técnica se iguala
Los análisis técnicos, como el profundo informe de SemiAnalysis, pintan un panorama claro: la brecha se está cerrando. La TPUv7 Ironwood de Google es ya un competidor formidable que prácticamente iguala al chip Blackwell de NVIDIA en métricas brutas como FLOPS y ancho de banda de memoria.
Pero el verdadero campo de batalla no es solo el rendimiento pico, sino el coste. Aquí es donde Google puede asestar un golpe contundente. Según las estimaciones, el Coste Total de Propiedad (TCO) de un servidor con Ironwood es aproximadamente un 44% menor para Google que el de un servidor GB200 de NVIDIA. Esta ventaja de coste permite a Google ofrecer precios agresivos en la nube y, por primera vez, vender el hardware directamente.
El gran giro de 2025: Google deja de ser «egoísta»
Este año marca un punto de inflexión estratégico. Google ha dejado de guardar sus juguetes para sí solo. Ha abierto la caja de herramientas de las TPUs a aliados clave, tejiendo alianzas que debilitan la dependencia universal de NVIDIA.
- Acuerdo con Anthropic: Es monumental. Cubre un millón de TPUs: 400.000 unidades de TPUv7 Ironwood vendidas físicamente a través de Broadcom y 600.000 disponibles para alquilar en Google Cloud. Es una inyección masiva de hardware alternativo en el ecosistema.
- Acuerdo con OpenAI: Aunque esta empresa también busca fabricar sus propios chips, el acceso a la infraestructura de Google le da oxígeno y opciones estratégicas.
Google no solo está alquilando potencia de cálculo; está vendiendo las palas a los buscadores de oro. Y lo hace con una ventaja de infraestructura propia: su tecnología Inter-Chip Interconnect (ICI) permite conectar hasta 9.216 chips en una red de baja latencia, usando conmutadores ópticos que evitan cuellos de botella. Es el tipo de arquitectura a escala que solo puede construir quien lleva una década necesitándola.
Atacando la verdadera fortaleza: el «foso» de software de NVIDIA
Todo el mundo sabe que la verdadera fortaleza de NVIDIA no son solo sus chips, sino el ecosistema de software CUDA. Es el estándar en el que los desarrolladores han vivido durante años. Google lo sabe y está librando una batalla paralela, quizás la más importante, para hacer sus TPUs igual de fáciles de usar.
Durante años, Google empujó sus propias librerías como JAX. Ahora ha cambiado el rumbo con pragmatismo:
- Soporte nativo para PyTorch: PyTorch se ha impuesto como el framework favorito de muchos investigadores. Antes, usarlo en una TPU era un ejercicio de traducción incómoda. Ahora, Google está priorizando el soporte nativo, haciendo que, para el desarrollador, programar para una TPU sea tan familiar como hacerlo para una GPU de NVIDIA.
- Compatibilidad con ecosistemas de inferencia: Librerías de alto rendimiento como vLLM o SGLang, esenciales para servir modelos de forma eficiente y barata, corrían de serie en NVIDIA. Google tiene grupos de trabajo dedicados a optimizar su soporte en TPUs, eliminando capas de traducción ineficientes.
El objetivo es claro: estrechar el «foso» de CUDA. Si un ingeniero puede tomar su código de PyTorch y ejecutarlo en una TPU de Google sin cambiar casi nada, y además obtener un mejor rendimiento por dólar, la lealtad al hardware comienza a resquebrajarse.
Un nuevo panorama para la industria
Estamos ante un cambio de dinámica histórico. Ya no se trata de un proveedor de nube optimizando sus costes internos. Google se ha erigido como un proveedor completo de soluciones de IA: ofrece un hardware competitivo, una escala de red superior, una ventaja de coste significativa y una hoja de ruta de software destinada a eliminar las fricciones para los desarrolladores.
NVIDIA, el indiscutible rey, ya no mira al espejo y ve solo a AMD intentando seguir el ritmo. Ahora ve a un gigante con recursos casi ilimitados, que empezó esta carrera por necesidad una década antes de que estallara la fiebre del oro, y que ha decidido que es hora de vender picos y palas a todo el mundo. El pánico de 2013 podría terminar siendo la mejor decisión estratégica de Google en el siglo XXI. La guerra de los chips de IA acaba de entrar en una nueva y emocionante fase.



