Google y Marvell negocian chips de inferencia de IA
Fazen Markets Research
Expert Analysis
# Párrafo principal
Google está en conversaciones con Marvell Technology Group para desarrollar chips de inferencia de IA personalizados para las operaciones de centros de datos de Google, informó The Information el 19 de abril de 2026 (Investing.com/The Information, 19 abr. 2026). Las conversaciones, descritas en el informe como exploratorias más que finalizadas, se centrarían en cargas de trabajo de inferencia —la ejecución en tiempo real de modelos que sigue al entrenamiento— en lugar de las pilas de entrenamiento a gran escala basadas en GPU dominadas por NVIDIA. Para Alphabet, el movimiento representaría la continuación de una estrategia multianual de integración vertical de silicio especializado, tras el despliegue público de TPUs por parte de Google a partir de 2016 (Google blog, 2016). Para Marvell, especialista en redes y SoC personalizados que pagó 10.000 millones de dólares por Inphi en 2021, las conversaciones significarían una extensión hacia el diseño e IP de silicio para IA dirigido a los hiperescalares (comunicado de prensa de Marvell, 2021).
# Contexto
Las conversaciones informadas se producen en un contexto de rápido crecimiento y especialización en el mercado de hardware para IA. Los participantes de la industria distinguen entre entrenamiento —una actividad cada vez más concentrada en GPU que requiere paralelismo masivo— e inferencia, donde la latencia, la eficiencia energética y el coste total de propiedad importan más; los operadores en la nube priorizan el coste por consulta en inferencia, donde las economías de escala pueden ser significativas. Los hiperescalares públicos han perseguido históricamente silicio interno para optimizar sus pilas de software y arquitecturas de centros de datos: Google lanzó su primera Tensor Processing Unit en 2016 para cargas internas y más tarde ofreció instancias TPU en su cartera Cloud (Google blog, 2016). La relación con Marvell, si procede, encajaría en ese patrón: la propiedad intelectual de Marvell en SerDes de alta velocidad, silicio de conmutación y SoC personalizados complementa las necesidades de los hiperescalares para la integración entre NICs, switches y aceleradores.
# Profundización en datos
El informe fuente está fechado el 19 de abril de 2026 (Investing.com/The Information, 19 abr. 2026) y describe negociaciones iniciales en lugar de un acuerdo vinculante. La adquisición de Inphi por parte de Marvell por 10.000 millones de dólares en 2021 es un precedente verificable que amplió la presencia de Marvell en óptica de alta velocidad e interconexión de centros de datos —capacidades relevantes para integrar aceleradores con telas de red— (comunicado de prensa de Marvell, 2021). El programa TPU de Google comenzó públicamente en 2016 y desde entonces ha evolucionado en múltiples generaciones de ASICs para entrenamiento e inferencia; la existencia de ese programa demuestra la capacidad de larga data de Google para diseñar aceleradores personalizados, pero también su disposición a asociarse con proveedores externos de silicio cuando la escala o la especialización lo justifican (Google blog, 2016).
Para cuantificar aún más el mercado accesible, estimaciones independientes del sector sitúan el mercado más amplio de silicio para IA —incluyendo aceleradores de entrenamiento e inferencia, NICs relacionados e interconexiones— en decenas de miles de millones de dólares anuales a mediados de la década de 2020, impulsado por la demanda de la nube y despliegues on-premises. Las previsiones publicadas varían según la fuente y la metodología, pero el consenso entre los principales analistas ha sido una tasa compuesta anual de crecimiento de dos dígitos sostenida para el hardware de IA entre 2023 y 2028 (informes de analistas del sector, 2023-25). Para los inversores que siguen exposiciones directas en renta variable, el impacto inmediato se concentraría en Marvell (MRVL) y Alphabet (GOOGL), con posibles efectos de segundo orden para incumbentes en aceleradores y redes como NVIDIA (NVDA) y Broadcom (AVGO).
# Implicaciones del sector
Una colaboración Google-Marvell señalaría una mayor fragmentación y especialización en el segmento de inferencia de la pila de IA. NVIDIA mantiene una posición dominante en GPUs de alto rendimiento para entrenamiento, pero la inferencia representa un ejercicio comercial distinto: la latencia, el coste energético por inferencia y la eficiencia a nivel de rack pueden justificar ASICs y FPGAs personalizados que reducen la economía de las GPU en producción a gran escala. Para los clientes en la nube y los hiperescalares, una solución de inferencia personalizada podría reducir el coste por consulta de forma material dependiendo de las características de la carga de trabajo y la utilización. Eso crea un incentivo comercial para que los grandes operadores se diversifiquen más allá de la inferencia basada únicamente en GPU —una tendencia ya visible con las instancias TPU de Google y los despliegues de ASICs personalizados por otros hiperescalares.
Para los proveedores de chips, la entrada de Marvell como posible socio de un hiperescalar reconfigura el mapa competitivo. El conjunto de productos de Marvell —que combina interconexiones de alta velocidad, silicio de conmutación Ethernet y capacidades de SoC personalizados— está bien orientado a módulos de acelerador integrados. Esto podría presionar a los proveedores que suministran NICs discretas o que dependen de aceleradores de terceros sin una pila integrada con la red. Por el contrario, no desplaza directamente a los proveedores de GPUs de entrenamiento de alta gama; más bien, aumenta la competencia en la porción de inferencia y puede comprimir los márgenes de las SKUs de GPU de inferencia independientes con el tiempo.
# Evaluación de riesgos
El riesgo de ejecución es material. El informe enfatiza que las conversaciones fueron preliminares; traducir la especificación de un hiperescalar en silicio de producción a coste competitivo requiere hojas de ruta plurianuales, capacidad de fundición y co-diseño software-hardware. Marvell no es una fundición —es un diseñador fabless dependiente de socios para nodos avanzados— por lo que los plazos y el acceso a capacidad por debajo de 5 nm serían restricciones críticas. La cadena de suministro de silicio en general enfrenta periodos de tensión en capacidad: cualquier intento de acelerar un programa de inferencia personalizado podría competir con las mismas limitaciones que afectaron a lanzamientos de GPUs y ASICs en los últimos tres años.
También existe riesgo de adopción comercial. Incluso si Marvell construye un chip adaptado a las cargas de inferencia de Google, el despliegue en la flota global de Google requiere integración con orquestación, contenedorización y telemetría de software; estos son problemas de ingeniería de sistemas no triviales que pueden alargar el tiempo hasta la obtención de valor. Además, aunque la inferencia puede representar una mayor proporción de los ciclos de cómputo de IA desplegados en entornos de producción, la demanda de entrenamiento sigue siendo el factor de valor para muchos proveedores de aceleradores, y
Position yourself for the macro moves discussed above
Start TradingSponsored
Ready to trade the markets?
Open a demo account in 30 seconds. No deposit required.
CFDs are complex instruments and come with a high risk of losing money rapidly due to leverage. You should consider whether you understand how CFDs work and whether you can afford to take the high risk of losing your money.