Google et Marvell négocient des puces d'inférence IA
Fazen Markets Research
Expert Analysis
Paragraphe d'ouverture
Google est en discussions avec Marvell Technology Group pour développer des puces d'inférence IA personnalisées destinées aux opérations de centres de données de Google, rapporte The Information le 19 avril 2026 (Investing.com/The Information, 19 avril 2026). Les pourparlers, décrits dans le rapport comme exploratoires plutôt que conclusifs, cibleraient les charges de travail d'inférence — l'exécution en temps réel des modèles après l'entraînement — plutôt que les piles d'entraînement à grande échelle basées sur GPU dominées par NVIDIA. Pour Alphabet, cette initiative représenterait la poursuite d'une stratégie pluriannuelle d'intégration verticale de silicium spécialisé, à la suite du déploiement public des TPU de Google commencé en 2016 (blog Google, 2016). Pour Marvell, spécialiste des réseaux et des SoC personnalisés ayant déboursé 10,0 milliards de dollars pour acquérir Inphi en 2021, ces discussions marqueraient une extension vers la conception et la propriété intellectuelle (IP) du silicium AI pour hyperscaleurs (communiqué Marvell, 2021).
Contexte
Les pourparlers rapportés interviennent dans un contexte de croissance rapide et de spécialisation du marché du matériel pour l'IA. Les acteurs de l'industrie distinguent l'entraînement — une activité de plus en plus concentrée autour des GPU et nécessitant un parallélisme massif — de l'inférence, où la latence, l'efficacité énergétique et le coût total de possession (TCO) importent davantage; les opérateurs cloud priorisent le coût par requête d'inférence, où les économies d'échelle peuvent être significatives. Les hyperscaleurs publics ont historiquement recherché du silicium interne pour optimiser leurs piles logicielles et l'architecture de leurs centres de données : Google a lancé son premier Tensor Processing Unit en 2016 pour des charges internes, puis a exposé des instances TPU dans son portefeuille Cloud (blog Google, 2016). La relation avec Marvell, si elle se concrétise, s'inscrirait dans ce schéma : l'IP de Marvell en SerDes haute vitesse, en silicium de commutation et en SoC personnalisés complète les besoins des hyperscaleurs pour une intégration à travers cartes réseau (NIC), switches et accélérateurs.
Analyse approfondie des données
Le rapport source est daté du 19 avril 2026 (Investing.com/The Information, 19 avril 2026) et décrit des négociations initiales plutôt qu'un accord contraignant. L'acquisition d'Inphi par Marvell pour 10,0 milliards de dollars en 2021 est un précédent vérifiable qui a élargi la présence de Marvell dans l'optique haute vitesse et les interconnexions de centres de données — des capacités pertinentes pour l'intégration d'accélérateurs avec les tissus réseau (communiqué Marvell, 2021). Le programme TPU de Google a été rendu public en 2016 et a depuis évolué en plusieurs générations d'ASICs pour l'entraînement et l'inférence ; l'existence de ce programme démontre la capacité ancienne de Google à concevoir des accélérateurs personnalisés mais aussi sa volonté de s'associer à des fournisseurs de silicium externes lorsque l'échelle ou la spécialisation l'exigent (blog Google, 2016).
Pour quantifier davantage le marché adressable, des estimations indépendantes de l'industrie ont placé le marché plus large du silicium IA — incluant les accélérateurs d'entraînement et d'inférence, les NIC associés et les interconnexions — dans plusieurs dizaines de milliards de dollars annuels d'ici le milieu des années 2020, tiré par la demande cloud et les déploiements sur site. Les prévisions publiées varient selon la source et la méthodologie, mais le consensus parmi les principaux analystes est d'un TCAC à deux chiffres soutenu pour le matériel IA entre 2023 et 2028 (rapports d'analystes industriels, 2023-25). Pour les investisseurs suivant les expositions directes en actions, l'impact immédiat porterait sur Marvell (MRVL) et Alphabet (GOOGL), avec des effets de second ordre potentiels pour les acteurs en place dans les accélérateurs et le réseautage tels que NVIDIA (NVDA) et Broadcom (AVGO).
Implications sectorielles
Une collaboration entre Google et Marvell signalerait une fragmentation et une spécialisation croissantes dans le segment de l'inférence de la pile IA. NVIDIA conserve une position dominante dans les GPU d'entraînement haute performance, mais l'inférence représente un exercice commercial différent : la latence, le coût énergétique par inférence et l'efficacité au niveau du rack peuvent justifier des ASICs et des FPGA personnalisés qui sous-cotent l'économie des GPU à l'échelle de la production. Pour les clients cloud et les hyperscaleurs, une solution d'inférence personnalisée pourrait réduire le coût par requête de manière significative selon les caractéristiques de la charge et l'utilisation. Cela crée une incitation commerciale pour les grands opérateurs à diversifier leurs solutions d'inférence au-delà des GPU — tendance déjà visible avec les instances TPU de Google et les déploiements d'ASICs personnalisés par d'autres hyperscaleurs.
Pour les fournisseurs de puces, l'entrée de Marvell en tant que partenaire potentiel d'un hyperscaleur redessine la carte concurrentielle. L'offre produit de Marvell — qui combine interconnexions haute vitesse, silicium de commutation Ethernet et capacités de SoC personnalisé — se prête bien à des modules d'accélérateurs intégrés. Cela pourrait mettre sous pression les fournisseurs qui livrent des NIC discrets ou dépendent d'accélérateurs tiers sans une pile intégrée au niveau réseau. À l'inverse, cela ne remplace pas directement les fournisseurs de GPU d'entraînement haut de gamme ; en revanche, cela augmente la concurrence sur la tranche inference et pourrait compresser les marges des SKU GPU d'inférence autonomes sur le long terme.
Évaluation des risques
Le risque d'exécution est important. Le rapport souligne que les discussions étaient préliminaires ; traduire le cahier des charges d'un hyperscaleur en silicium de production à coût compétitif nécessite des feuilles de route pluriannuelles, des capacités de fonderie et une co-conception logiciel-matériel. Marvell n'est pas une fonderie — c'est un concepteur fabless dépendant de partenaires pour les nœuds avancés — de sorte que les calendriers et l'accès à des capacités en dessous de 5 nm seraient des contraintes critiques. La chaîne d'approvisionnement du silicium connaît des tensions périodiques de capacité : toute tentative d'accélérer un programme d'inférence personnalisé pourrait se heurter aux mêmes contraintes qui ont affecté les lancements de GPU et d'ASIC au cours des trois dernières années.
Le risque d'adoption commerciale existe également. Même si Marvell conçoit une puce adaptée aux charges d'inférence de Google, le déploiement à l'échelle de la flotte mondiale de Google exige une intégration avec l'orchestration, la containerisation et la télémétrie logicielle ; il s'agit de problèmes d'ingénierie systèmes non triviaux qui peuvent prolonger le délai pour atteindre la valeur. De plus, bien que l'inférence puisse représenter une part plus importante des cycles de calcul IA déployés en production, la demande d'entraînement demeure le moteur de valeur pour de nombreux fournisseurs d'accélérateurs, et
Position yourself for the macro moves discussed above
Start TradingSponsored
Ready to trade the markets?
Open a demo account in 30 seconds. No deposit required.
CFDs are complex instruments and come with a high risk of losing money rapidly due to leverage. You should consider whether you understand how CFDs work and whether you can afford to take the high risk of losing your money.