Skip to main content

Chip IA, continua la sfrenata corsa di Nvidia

La società di chip americana ha annunciato i risultati del primo quadrimestre di quest’anno. Crescono le vendite e incominciano ad intravedersi alcune minacce al suo, di fatto, monopolio. Ma le start up non hanno ancora la potenza di fuoco per permettersi di accedere all’hardware avanzato…

A circa un anno di distanza dal report di maggio del 2023, con cui la società americana aveva delineato il suo piano strategico, Nvidia continua a macinare risultati nel campo dei chip per l’intelligenza artificiale. Trainati dalla crescita del mercato IA per il computing, i microprocessori “Blackwell” sono diventati un vero e proprio business multi miliardario.

La roadmap tecnologica di Nvidia è solida e promettente, e sicuramente continuerà a convincere i suoi clienti del calibro di Meta e Microsoft per l’adozione dei suoi chip per il training e l’impiego dei sistemi di intelligenza artificiale, trainando così in un circolo virtuoso i suoi investitori. Secondo i risultati diffusi nella giornata di mercoledì, l’azienda fabless ormai più famosa e strutturata dell’industria globale dei semiconduttori ha battuto per l’ennesima volta le aspettative, con un record di fatturato per il primo quadrimestre del 2024: $26 miliardi, +18% rispetto all’ultimo quadrimestre del 2023 e uno strabiliante 262% rispetto allo stesso periodo un anno fa. Oltre alle stime per il resto dell’anno che confermano il trend bullish che accomuna le proiezioni di gran parte degli analisti per le vendite nel settore.

L’azienda prevede infatti di toccare quota $28 miliardi nel secondo quadrimestre, sorpassando le stime degli analisti a quota $26.5 miliardi. I profitti di Nvidia sono aumentati del 628%: si tratta del quadrimestre più profittevole mai registrato. Il ceo, Jensen Huang, ha espresso fiducia nella traiettoria della sua società e non solo: “La prossima rivoluzione industriale è iniziata”. Huang ha enfatizzato il potenziale trasformativo dell’IA, prevedendo significativi guadagni in produttività in varie industrie e settori economici, oltre al potenziale dell’IA nel rafforzamento delle efficienze dei costi, la conservazione dell’energia e l’espansione del fatturato delle aziende.

Nvidia è in una posizione di privilegio in questo segmento di mercato e la maggiore beneficiaria della spesa per soluzioni IA delle grandi società big tech che si rivolgono all’azienda californiana per l’acquisto dei suoi acceleratori (Amazon, Meta, Microsoft e Alphabet contavano per il 40% delle vendite lo scorso anno). Questi chip avanzati (detti anche ASIC) vengono impiegati nei data center per lo sviluppo delle applicazioni AI e già contano per gran parte del fatturato della società: solo in questo quadrimestre, $22.6 miliardi (+23%) rispetto all’ultimo periodo e +427% rispetto all’anno scorso tra gennaio ed aprile.

In risposta alle previsioni e alla solidità dell’azienda, la capitalizzazione di borsa ha toccato la quota $2.3 trilioni di dollari, aumentando del 9% solo nella giornata di mercoledì (aggiungendo oltre $217 miliardi, l’equivalente del market cap di Intel) e a conferma di un trend che ha registrato un aumento del 92% in solo un anno, trainato come detto dalla fiducia degli investitori nelle capacità di Nvidia di superare ogni volta e aspettative. La visione strategica di Huang tuttavia non si ferma solamente nel posizionare l’azienda come fornitore e partner dei grandi clienti del cloud-computing, i cosiddetti “hyperscalers”: Nvidia vuole essere anche in prima linea per l’adozione della cosiddetta edge AI, ovvero soluzioni di intelligenza artificiale customizzate per altre tipologie di clienti come l’automotive (considerando l’elettrificazione della flotta e il ricorso, per ora più futuristico, alla guida autonoma) e l’elettronica di consumo (in particolare gli smartphone di prossima generazione). La diversificazione del suo business – circa il 45% del fatturato di Nvidia proviene dai data center proviene solo dai clienti hyperscalers – sarà dunque un aspetto da tenere d’occhio, soprattutto nell’ottica di una non inevitabile “aggressione” di altri concorrenti.

Il problema sostanziale che devono affrontare le start-up, o società già più attrezzate come AMD, nel potenziale ingresso nel mercato dei chip logici per l’IA è il dover fare i conti con i massicci investimenti sull’hardware e la tecnologica complessa e costosa che richiede. Secondo le stime riprese dal Wall Street Journal, l’industria ha messo sul piatto oltre $50 miliardi per accedere solo ai chip di Nvidia (principalmente le sue GPUs come l’A100, H200 e la B200 annunciata per questa seconda parte dell’anno) a dispetto di soli $3 miliardi in fatturato delle start up.

Tuttavia, in un mercato in così rapida espansione la concentrazione su una singola azienda fabless come Nvidia – finita, tra le altre cose, nel bel mezzo della ‘guerra’ tecnologica tra Stati Uniti e Cina, i due principali mercati di riferimento – che gode di oltre l’80% del mercato dei chip IA rende la situazione non particolarmente sostenibile nel medio-lungo termine. Alla lunga, è possibile che i clienti facciano pressione per lo sviluppo di alternative, considerando la forza contrattuale di Nvidia sui prezzi (una singola A100 costa decine di migliaia di dollari) e le forniture in bilico, rispetto ad una domanda di chip IA che esploderà nei prossimi anni e alle incertezze geopolitiche che impattando sulla supply chain dei semiconduttori. La stessa Nvidia, su pressione del Dipartimento del Commercio statunitense e in compliance con il secondo round di restrizioni, ha dovuto sviluppare chip con specifiche di performance al di sopra delle soglie monitorate per l’ottenimento delle licenze all’export in Cina da parte del Bureau of Industry and Security (BIS). Parliamo dell’H20 per esempio, il cui prezzo è stato tagliato per reggere la competizione del chip Ascend 910B di Huawei che offre prestazioni simili ed è attualmente quello più avanzato disponibile in Cina, fabbricato da SMIC su una piattaforma di processo da 7 nanometri.

Intanto, la ceo di Amd, Lisa Su, ha dichiarato lo scorso mese che la sua azienda si aspetta circa $4 miliardi di fatturato nel segmento per quest’anno, mentre Intel ha lanciato la sua nuova generazione di chip per l’IA questo aprile con Pat Gelsinger che si aspetta $500 milioni di fatturato. Anche le grandi aziende del Big Tech, come Amazon, Google (in partnership con Broadcomm), Meta e Microsoft stanno incominciando ad aprire un ulteriore fronte contro Nvidia con il design dei loro chip in-house e l’appalto della loro complessa fabbricazione ai chipmakers come Tsmc, Samsung e la stessa Intel.

Particolarmente sfidante sarà comunque scalzare Nvidia dal suo dominio nel campo delle graphic processing units (GPUs), su cui per prima l’azienda ha scommesso nel settore dei videogame (unico mercato che ha registrato una perdita rispetto allo scorso quadrimestre, ma in rialzo rispetto all’anno scorso nello stesso periodo, e che risente naturalmente più di altri dei cicli strutturali dell’elettronica di consumo).  A differenza delle CPUs, che sono disegnate per svolgere uno specifico task alla volta, le GPUs contengono diversi “motori” computazionali (detti core) che invece processano miglia di volte la stessa attività, ma in parallelo. Secondo gli analisti, i modelli IA attualmente dominanti sono costruiti su GPUs interconnesse con chip di memoria per le quantità esorbitanti di dati e informazioni che devono processare (un altro segmento fondamentale in questa direzione sarà quello dei chip high memory bandwith, ovvero chip di memoria a larga banda su cui punta con forza la coreana SK Hynix), ed è proprio la velocità di scambio tra queste unità che potrebbe risultare limitante.

Una soluzione potrebbe essere quella di immaginare chip più grandi, ma composti da centinaia di migliaia di core e chip di memoria in un singolo microprocessore (SoC). È l’idea avanzata dalla start up californiana Cerebras, per ridurre il workload con il suo CS-3 (il chip più grande al mondo di un fattore 50) della dimensione di un piatto. Si tratta chiaramente di un prodotto che sarebbe idealmente adatto solo per una clientela specifica, quella dei data center su cui Nvidia ha fino ad ora fatto il boom del suo fatturato. Infatti, uno dei pericoli di queste e altre realtà – come Groq, MatX, Hailo, Taalas, Graphcore – è l’eccessiva specializzazione che, time-consuming, potrebbe portare queste start up a focalizzarsi su una soluzione che poi il mercato non adotterà considerando il tasso continuo di innovazione nel segmento IA. Oltre al fatto che potrebbero essere facili target di acquisizione delle Big Tech che, come squali, altro non attendono che assorbire know-how e software contando sulla loro posizione dominante.

Vi è poi la questione dirimente dello sviluppo dell’hardware, ovvero della fabbricazione vera e propria dei chip. Se da una parte l’emergere di diverse realtà di design, oltre ai leader del settore come appunto Nvidia, Amd, Qualcomm e le Big Tech, può garantire l’ampliamento del bacino dei potenziali clienti, dall’altra la concentrazione delle fonderie avanzate e specializzate in pochi player come Tsmc, Samsung e Intel renderà molto più complesso ottenere (visti i lungi tempi d’investimento e di allocazione negli impianti delle capacità sui wafer di silicio) i necessari ordinativi. Tsmc, principale produttore di chip logici con oltre il 90% del mercato, ha dichiarato che il suo principale cliente (senza menzionarli direttamente) ha contato per il 25% del reddito netto (parliamo, con tutta probabilità, di Apple) mentre il secondo (Nvidia) per l’11% solo nel 2023. I primi dieci clienti, hanno rappresentato il 70%. Considerando che i chip AI richiederanno processi di produzione sempre più avanzati, sarà dunque inevitabile (e con una dose di rischi) passare da Taiwan  o dalle fonderie che la società fondata da Morris Chang ha in costruzione negli Stati Uniti (le uniche che supportano questa tipologia di manifattura high-tech N4-N5), o da Samsung e Intel.

La stessa Samsung ha lanciato un vero e proprio piano per ingraziarsi Nvidia come principale cliente e così capitalizzare i suoi servizi foundry cavalcando l’onda delle GPUs, dopo aver perso l’azienda americana con il lancio del processo manifatturiero di Tsmc a 5 nanometri, che l’anno scorso rappresentava circa un terzo del fatturato per numero di wafer venduti. In questo senso, il progredire della Legge di Moore e l’era IA stanno in qualche modo facendo convergere due mondi, sempre più inseparabili e inestricabilmente legati: quello del software e dell’hardware, creando barriere all’ingresso difficili da scalfire.

×

Iscriviti alla newsletter