Google e Marvell discutono nuovi chip per inference AI
Fazen Markets Research
Expert Analysis
Paragrafo introduttivo
Google è in trattative con Marvell Technology Group per sviluppare chip personalizzati per inference AI destinati alle operazioni dei data center di Google, ha riportato The Information il 19 aprile 2026 (Investing.com/The Information, 19 apr 2026). Le trattative, descritte nel rapporto come esplorative e non definitive, mirerebbero ai carichi di lavoro di inference — l'esecuzione in tempo reale dei modelli che segue l'addestramento — piuttosto che alle grandi infrastrutture di addestramento basate su GPU dominate da NVIDIA. Per Alphabet, la mossa rappresenterebbe la prosecuzione di una strategia pluriennale di integrazione verticale del silicio specializzato, dopo il lancio pubblico delle TPU di Google a partire dal 2016 (Google blog, 2016). Per Marvell, specialista in networking e SoC personalizzati che pagò 10,0 miliardi di dollari per acquisire Inphi nel 2021, le discussioni segnerebbero un'estensione nel design e nella proprietà intellettuale del silicio AI per hyperscaler (comunicato stampa Marvell, 2021).
Contesto
Le trattative riportate avvengono in un contesto di rapida crescita e specializzazione nel mercato dell'hardware per l'AI. I partecipanti del settore distinguono tra addestramento — un'attività sempre più concentrata sulle GPU che richiede parallelismo massiccio — e inference, dove latenza, efficienza energetica e costo totale di proprietà sono i fattori predominanti; gli operatori cloud privilegiano il costo per query di inference, dove le economie di scala possono essere significative. I grandi hyperscaler pubblici hanno storicamente perseguito soluzioni siliconiche interne per ottimizzare i loro stack software e le architetture dei data center: Google ha lanciato la sua prima Tensor Processing Unit nel 2016 per carichi interni e in seguito ha reso disponibili istanze TPU nel suo portafoglio Cloud (Google blog, 2016). La relazione con Marvell, se dovesse procedere, si inserirebbe in questo modello: la proprietà intellettuale di Marvell in SerDes ad alta velocità, switching e SoC personalizzati completa le esigenze degli hyperscaler per l'integrazione tra NIC, switch e acceleratori.
Analisi approfondita dei dati
Il rapporto sorgente è datato 19 aprile 2026 (Investing.com/The Information, 19 apr 2026) e descrive trattative iniziali piuttosto che un accordo vincolante. L'acquisizione di Inphi da parte di Marvell per 10,0 miliardi di dollari nel 2021 costituisce un precedente verificabile che ha ampliato la presenza di Marvell nell'ottica ad alta velocità e negli interconnect per data center — capacità rilevanti per integrare acceleratori con i tessuti di rete (comunicato stampa Marvell, 2021). Il programma TPU di Google è iniziato pubblicamente nel 2016 ed è evoluto in più generazioni di ASIC per addestramento e inference; l'esistenza di quel programma dimostra la capacità di Google di progettare acceleratori personalizzati ma anche la sua disponibilità a collaborare con fornitori di silicio esterni quando scala o specializzazione lo richiedono (Google blog, 2016).
Per quantificare ulteriormente il mercato indirizzabile, stime indipendenti del settore hanno collocato il più ampio mercato del silicio AI — includendo acceleratori per addestramento e inference, NIC correlate e interconnect — nelle decine di miliardi di dollari all'anno entro la metà degli anni 2020, trainato dalla domanda cloud e dalle implementazioni on-prem. Le previsioni pubblicate variano per fonte e metodologia, ma il consenso tra i principali analisti indica un CAGR a due cifre sostenuto per l'hardware AI tra il 2023 e il 2028 (rapporti degli analisti di settore, 2023-25). Per gli investitori che seguono esposizioni azionarie dirette, l'impatto immediato riguarderebbe Marvell (MRVL) e Alphabet (GOOGL), con potenziali effetti di secondo ordine per incumbent in acceleratori e networking come NVIDIA (NVDA) e Broadcom (AVGO).
Implicazioni per il settore
Una collaborazione Google-Marvell segnerebbe un'accelerazione nella frammentazione e nella specializzazione nel segmento di inference dello stack AI. NVIDIA mantiene una posizione dominante nelle GPU per addestramento ad alte prestazioni, ma l'inference rappresenta una diversa prova commerciale: latenza, costo energetico per inference e efficienza a livello di rack possono giustificare ASIC e FPGA personalizzati che sottocostano l'economia delle GPU su scala produttiva. Per i clienti cloud e gli hyperscaler, una soluzione di inference personalizzata potrebbe ridurre i costi per query in misura significativa a seconda delle caratteristiche del carico di lavoro e dell'utilizzo. Ciò crea un incentivo commerciale per i grandi operatori a diversificare l'inference oltre le sole GPU — una tendenza già visibile con le istanze TPU di Google e le implementazioni di ASIC personalizzati da parte di altri hyperscaler.
Per i fornitori di chip, l'ingresso di Marvell come potenziale partner di un hyperscaler rimodella la mappa competitiva. L'offerta di Marvell — che combina interconnect ad alta velocità, silicio per switching Ethernet e capacità di SoC personalizzati — si presta bene a moduli acceleratori integrati. Ciò potrebbe mettere pressione sui fornitori che forniscono NIC discrete o che dipendono da acceleratori di terze parti senza uno stack integrato con il networking. Al contrario, non soppianta direttamente i fornitori di GPU di fascia alta per l'addestramento; piuttosto, aumenta la concorrenza nella porzione di inference e potrebbe comprimere i margini degli SKU GPU dedicati all'inference nel tempo.
Valutazione dei rischi
Il rischio di esecuzione è sostanziale. Il rapporto sottolinea che le trattative sono preliminari; tradurre le specifiche di un hyperscaler in silicio di produzione a costi competitivi richiede roadmap pluriennali, capacità di fonderia e co-design software-hardware. Marvell non è una fonderia — è un progettista fabless dipendente da partner per i nodi avanzati — quindi i tempi e l'accesso a capacità sub-5 nm sarebbero vincoli critici. La catena di fornitura del silicio più ampia affronta periodiche tensioni di capacità: qualsiasi tentativo di accelerare un programma di inference personalizzato potrebbe scontrarsi con gli stessi vincoli che hanno influenzato i lanci di GPU e ASIC negli ultimi tre anni.
Esiste anche un rischio di adozione commerciale. Anche se Marvell progettasse un chip su misura per i carichi di inference di Google, la distribuzione sull'intera flotta globale di Google richiede integrazione con orchestrazione, containerizzazione e strumenti di telemetria; si tratta di problemi di ingegneria dei sistemi non banali che possono estendere il time-to-value. Inoltre, sebbene l'inference possa costituire una quota maggiore dei cicli di calcolo AI dispiegati negli ambienti di produzione, la domanda di addestramento rimane il motore di valore per molti fornitori di acceleratori, e
Position yourself for the macro moves discussed above
Start TradingSponsored
Ready to trade the markets?
Open a demo account in 30 seconds. No deposit required.
CFDs are complex instruments and come with a high risk of losing money rapidly due to leverage. You should consider whether you understand how CFDs work and whether you can afford to take the high risk of losing your money.