Google lanza TPUs de alta memoria para IA
Fazen Markets Research
Expert Analysis
Lead: El 22 de abril de 2026 Google anunció dos diseños de silicio construidos con un propósito específico — una TPU para entrenamiento y otra para inferencia — que, según la compañía, incorporan grandes cantidades de memoria estática (SRAM) en el chip para reducir los cuellos de botella de memoria en modelos de lenguaje grande y otras cargas de trabajo de IA generativa (CNBC, 22 de abril de 2026). El movimiento representa una escalada directa en la estrategia plurianual de Google de internalizar infraestructura crítica de IA y ofrecer un rendimiento diferenciado en Google Cloud. Los rastreadores de la industria continúan mostrando a Nvidia como el proveedor externo dominante de aceleradores para centros de datos; las estimaciones sitúan la cuota de despliegues de GPUs de IA de Nvidia en aproximadamente 75–85% a cierre de 2025 (estimaciones de la industria). Las nuevas placas de Google, por tanto, responden tanto a la optimización interna —reduciendo la dependencia de aceleradores de terceros— como a la presión renovada sobre la dinámica de compras de los hyperscalers.
Contexto
El anuncio de Google del 22 de abril de 2026 sigue a una década de desarrollo de TPU que comenzó con la primera TPU revelada en 2016 y sucesivas iteraciones dirigidas a acelerar multiplicaciones de matrices, esenciales en redes neuronales. Durante ese periodo el panorama competitivo se desplazó de CPUs de propósito general hacia aceleradores especializados: GPUs, ASICs personalizados y FPGAs. Los proveedores externos, principalmente Nvidia, construyeron tanto cuota de mercado como un ecosistema de software que incluye bibliotecas, compiladores y familiaridad por parte de desarrolladores —una ventaja estructural que ha sido una barrera para un desplazamiento rápido.
Las cuotas de mercado de los proveedores cloud ofrecen un contexto relevante. Datos de Synergy Research Group y encuestas industriales comparables muestran a AWS manteniendo la mayor participación en infraestructura cloud con alrededor del 33% del gasto global en 2025, Microsoft Azure cerca del 22% y Google Cloud alrededor del 10% (Synergy Research Group, 2025). Esas dispersión significan que un despliegue estratégico de TPUs por parte de Google afecta primero y sobre todo al perfil de coste y rendimiento de Google Cloud antes de alterar de manera significativa el mercado más amplio de aceleradores de terceros.
Desde la perspectiva de compras y capex, los hyperscalers han optado cada vez más por la integración vertical para reducir costes y ajustar el rendimiento. Las familias Graviton/Trainium de Amazon y las iniciativas de silicio de Meta son intentos comparables de internalizar especialización. El anuncio de Google debe leerse como el siguiente paso en esa tendencia —una apuesta a que el silicio a medida con mucha más SRAM en el paquete proporcionará beneficios medibles en TCO y latencia para la escala de modelos que demandan los clientes.
Desglose de datos
La nota de CNBC del 22 de abril de 2026 confirma dos chips distintos: uno afinado para cargas de entrenamiento a gran escala y otro optimizado para inferencia (CNBC, 22 de abril de 2026). Google enfatizó la cantidad de SRAM en el paquete como diferenciador clave; la SRAM reduce la latencia y la penalización de potencia de transportar tensores entre la DRAM externa y las matrices de cómputo. Esa decisión de diseño señala un esfuerzo por desplazar el cuello de botella de rendimiento desde el ancho de banda de memoria externa hacia una utilización sostenida del cómputo en el die, un trade‑off que aumenta el área de silicio por chip pero que puede arrojar mayor rendimiento efectivo por vatio en contextos de centro de datos con restricciones.
En contraste, el líder de mercado externo predominante, Nvidia, ha construido un modelo de negocio alrededor de GPUs de alto rendimiento con grandes pilas de HBM y una capa de software expansiva —CUDA, cuDNN y un conjunto de frameworks optimizados. Las estimaciones de la industria en 2025 ubicaron la cuota de despliegues de aceleradores de IA de Nvidia en centros de datos en aproximadamente 75–85% (estimaciones de la industria). Esa escala confiere dos ventajas: una amplia base de optimizaciones de software y un mercado secundario profundo de recetas validadas para entrenamiento e inferencia que empresas y laboratorios pueden adoptar sin reingeniería sustantiva de sus stacks.
Un segundo punto de datos relevante es la distribución de cuota cloud mencionada anteriormente: con Google Cloud en aproximadamente 10% del gasto en infraestructura frente a AWS 33% y Azure 22% (Synergy Research Group, 2025), cualquier éxito del silicio de Google se manifestará primero como una mejora en la economía por unidad en los propios centros de datos de Google. Incluso una migración exitosa de las cargas internas de Google Cloud fuera de aceleradores Nvidia se traduciría inicialmente en compras de terceros desplazadas concentradas en la línea de aprovisionamiento de Google más que en una caída sistémica e inmediata de las ventas de Nvidia en todo el conjunto de hyperscalers.
Implicaciones sectoriales
Para los OEMs de centros de datos y los equipos de compras de hyperscalers, los chips de Google añadirán un nuevo eje de competencia entre proveedores. Si los diseños de TPU cumplen con las mejoras de latencia y rendimiento prometidas en cargas reales, Google Cloud podrá comercializar costes de inferencia inferiores y SLA diferenciados a clientes estratégicos. Con el tiempo eso podría presionar los márgenes de Nvidia para aquellas cargas donde la pila de Google sea un reemplazo directo. Sin embargo, el desplazamiento condiciona a la portabilidad del ecosistema: las empresas valoran tanto el rendimiento bruto como la amplia compatibilidad de software.
Para Nvidia, la implicación a corto plazo probablemente sea limitada: el TAM de Nvidia no es un cubo de suma cero que se cederá por completo. Los ciclos de producto de Nvidia, su foso de software y la base instalada existente ofrecen adherencia; muchas canalizaciones de IA empresariales están fuertemente optimizadas para CUDA y toolchains centrados en Nvidia. La gran prueba será si los diseños TPU de Google se abren de una manera que permita la adopción por terceros, o si permanecen propietarios, beneficiando únicamente a Google Cloud. Un despliegue propietario afectaría primordialmente el gasto de terceros por parte de Google y sus clientes que operan en Google Cloud.
Los participantes de la cadena de suministro deberían vigilar la demanda de fundición y empaquetado. Una mayor densidad de SRAM en el paquete implica cambios en la economía a nivel de dado y potencialmente una demanda incrementada de socios de empaquetado avanzado y licencias de IP de memoria especializada. Proveedores de equipamiento como ASML y casas de empaquetado avanzado podrían ver alcance incremental si Google avanza hacia una escala interna análoga a la de Amazon y Apple, aunque ese resultado depende de compromisos de volumen de producción que Google no ha divulgado.
Evaluación de riesgos
El riesgo de adopción es materia
Position yourself for the macro moves discussed above
Start TradingSponsored
Ready to trade the markets?
Open a demo account in 30 seconds. No deposit required.
CFDs are complex instruments and come with a high risk of losing money rapidly due to leverage. You should consider whether you understand how CFDs work and whether you can afford to take the high risk of losing your money.