Skip to main content

Chi sfida Nvidia nella corsa ai chip IA

L’azienda californiana è già centrale per l’intelligenza artificiale, ma non sarà l’unica. È già partita una rincorsa: dal design alla fabbricazione, ecco chi prova a rilanciare la sfida per la tecnologia in un contesto geopolitico che rimane frammentato…

È probabilmente l’azienda più discussa del momento, soprattutto grazie ad un 2023 ricco di sorprese e risultati eclatanti. Nvidia Corp, società creata nel 1993 e ora sapientemente guidata da Jensen Huang, ha scosso le gerarchie del S&P 500, il più importante indice azionario statunitense, con un guadagno del 239% nel corso dell’ultimo anno. Un trend che continua con un guadagno dell’80% nel corso di questi primi mesi del 2024, e che vede ora le azioni dell’azienda scambiate per la cifra record di $870 circa con oltre $2,20 trilioni di capitalizzazione borsistica.

C’è sicuramente molta hype dietro la straordinaria corsa di Nvidia tra le società più quotate a livello globale, tra cui l’enfasi e l’entusiasmo per il ruolo dell’azienda come pivot cruciale per l’intelligenza artificiale (IA). Tuttavia, sono i risultati concreti, alla voce entrate (specialmente per data center e calcolo avanzato) che trasmettono fiducia sui mercati e che dimostrano come la società sia ormai lanciatissima per catturare gran parte della crescita del mercato IA con l’impiego dei suoi microprocessori.

Con l’espansione della domanda di calcolo superveloce, dei network digitali, è diventato fondamentale l’hardware a supporto, sia per una questione infrastrutturale ma anche in un’ottica di ottimizzazione delle performance. Il cloud, che è ben lungi dall’essere una nuvola senza forma né materialità, è diventata l’espressione per catturare la straordinaria crescita di dati immagazzinati. Ma ora che si inserisce anche la necessità di integrare soluzioni di IA, a livello aziendale, per processare questa mole di dati e trasformarli in nuovo veicolo di crescita e innovazione, ecco che la richiesta di calcolo aumenta esponenzialmente e così la necessità di fare affidamento a microprocessori sempre più performanti ed efficienti. Ed è proprio in questo segmento che si è inserita con forza Nvidia.

La società californiana ha investito molto (circa $49 miliardi di dollari in R&D sin dagli esordi) nella sua tecnologia, ma negli ultimi anni ha deciso di puntare sulla crescita dei data center. Ed è proprio questo segmento a rappresentare la tesi d’investimento di molti analisti e il driver principale dietro l’imponente crescita del suo valore azionario. L’azienda, infatti, riporta i suoi risultati in due segmenti: la componente grafica si riferisce alle vendite nel settore del gaming, PCs, software per applicazioni IoT etc; la seconda, invece, include le vendite per data center, IA per l’automotive e le piattaforme integrate sempre più adottate nei veicoli elettrici. È ormai epoca passata quella in cui Nvidia era associata alle straordinarie interfacce grafiche sviluppate per i videogiochi: già a partire dalla fine del 2022, il computing (HPC) e data center avevano superato il primo segmento alla voce fatturato e reddito in attivo. E’ in quel frangente che si realizza il decollo verso un futuro trainato dall’IA. Nel 2020, rappresentava il 30% del fatturato, salito al 55.9% nel 2022 mentre l’anno successivo ha totalizzato oltre $60 miliardi di dollari, circa il 78%.

Alla base del successo di Nvidia, le sue graphic processing units (GPUs) – la prima ideata nel 1999, proprio per il gaming su PC – su cui l’azienda ha fatto leva per inserirsi con aggressività in questo segmento. In particolare, la piattaforma HGX (che può gestire capacità di calcolo e simulazioni), costruita sull’architettura GPU “Hopper” ha raccolto la maggior parte del fatturato nel corso di questi primi mesi del 2024. A novembre, l’azienda ha annunciato l’HGX H200, un ulteriore prodotto innovativo e costruito sulla base dei suoi clienti, tra cui figurano Microsoft, ChatGPT, Adobe. Inoltre, il fatturato sul segmento data center è cresciuto del 27% (su base trimestrale rispetto all’anno scorso) grazie alla forte domanda di prodotti H100. Una tipologia di microprocessori che da ottobre 2023 sono sotto embargo dagli Stati Uniti, con Nvidia che si è vista bloccarne la vendita (insieme all’A100, A800 e l’H800) verso al Repubblica Popolare Cinese per ragioni di sicurezza nazionale. Le vendite in Cina sono diminuite, come percentuale del fatturato totale del segmento data center, passando dal 19% nell’anno fiscale 2023 al 14% nell’anno fiscale 2024. È qui che Huawei proverà a guadagnare influenza, citata dal management come serio competitor nel segmento.

Ma nonostante la questione geopolitica, sempre più centrale nella ridefinizione della supply chain dei semiconduttori, il segmento dei data center è destinato a crescere fortemente, in quanto i clienti hyperscale come Microsoft, Apple, Oracle, Meta (all’inizio di marzo, Mark Zuckerberg ha annunciato che la società pianifica ordinativi per oltre 600.000 GPUs, principalmente da Nvidia) e Amazon Web Services continuano ad adottare il deep learning accelerato con l’impiego di GPU per l’elaborazione di grandi serie di dati. Includendo le sue GPU e il networking, intanto Nvidia, secondo stime interne, alimenta già il 75% dei supercomputer presenti nella classifica globale TOP500.

Una crescita che sarà necessariamente fuori dalla Cina, dal momento che il management ha dichiarato che le vendite del segmento dei data center sul mercato cinese sono diminuite in modo significativo a causa delle restrizioni. La capacità di bilanciare queste perdite dovute all’allineamento con il governo Usa – che già vede in difficoltà la rivale AMD, che si è vista negare le licenze per la vendita di chip per PC a dispetto di Intel – sarà comunque importante, soprattutto nell’ottica di possibili downturn dell’industria dei semiconduttori nei settori dell’elettronica di consumo (come smartphone e PC, soggetti molto di più a volatilità rispetto ai data center).

Anche se è previsto che Nvidia manterrà la sua forte presenza nel settore dell’IA generativa – dove si concentrano, ora, gli sforzi dell’industria e dove i colli di bottiglia sono, lato hardware, le disponibilità di capacità computazionale (in parole povere, necessità di più chip IA) per gestire la fase di training  – è prevedibile una maggiore concorrenza una volta che l’IA inferenziale (termine tecnico che si riferisce all’idea che i sistemi IA diventeranno più customizzabili, in quanto “modelli” linguistici da utilizzare per ottenere un dato output: qui il problema risiede nel lasso temporale in cui quest’ultimo viene restituito) prenderà piede, con AMD che sta già lavorando per conquistare una fetta di questo mercato (di recente l’azienda ha lanciato la GPS MI300, acceleratore IA pensato per data center e supercalcolo). Attualmente, Nvidia ha una quota dell’IA generativa intorno al 90%. Ma chi si sta posizionando per sfidarla?

Si è detto di AMD, ma è dall’altra parte dell’Oceano Pacifico che si riscontrano iniziative interessanti. Per esempio, alcune aziende fabless in Corea del Sud, Paese noto per ospitare Samsung Electronics che, dietro a TSMC e davanti all’americana Intel, è capace di fabbricare semiconduttori vanzati sotto i 5 nanometri (anche se, per lo più, chip di memoria). Si tratta, per esempio, di Rebellions, azienda fondata nel 2020 e che, in collaborazione con la divisione foundry di Samsung, sta sviluppando una nuova generazione di chip IA che potrebbe debuttare entro la fine dell’anno. Il ceo, Sunghyun Park, ha dichiarato al Nikkei Asia di voler diventare “un’alternativa per le compagnie globali che operano nello sviluppo di data center per IA”. O di Sapeon, spin-off della più grande società di telecomunicazioni coreana del gruppo SK, SK Telecom, che progetta e disegna un chip che potrebbe essere pronto entro la fine di giugno e che sarà prodotto da TSMC.

Ma non è la sola Corea a provare la rincorsa. Il design di chip IA, che rimane un business fortemente concentrato nella Silicon Valley, è un segmento cruciale dell’industria dei chip e che rappresenta gran parte dei costi in R&D, solo dopo i costi per spesa in capitale nella fabbricazione degli stessi. È per questo che anche il Giappone – Paese leader nella fornitura di materiali e dispositivi essenziali per abilitare l’utilizzo dei macchinari più avanzati – non vuole perdere il treno dell’opportunità: la startup Tenstorrent, guidata dal veterano di Tesla ed Apple (due aziende che hanno investito moltissimo nel design di chip per i rispettivi segmenti commerciali) Jim Keller concederà la licenza per lo sviluppo di un chip in cooperazione con il consorzio di ricerca giapponese Rapidus, finanziato dal governo (che ha stanziato oltre $67 miliardi per supportare quest’industria strategica). L’obiettivo, anche qui, è offrire un’alternativa al dominio di Nvidia e anche di Arm, considerando che il design del chip IA sarà immaginato con il ricorso all’architettura open-source RISC-V che vuole essere un’alternativa al dominio dell’azienda americana (e su cui punta anche la Cina). Tenstorrent, fondata solo 18 mesi fa, collaborerà Rapidus per produrre il chip da 2 nanometri entro il 2027, in diretta competizione con TSMC e Samsung.

Si tratta di iniziative importanti e che segnalano come i più grandi hub dei chip stiano cercando non solo di rafforzare le posizioni di mercato, ma anche di sfidare quelle in cui il ritardo con le aziende statunitensi (come Nvidia, AMD o Qualcomm che invece punta sui chip IA per smartphone) rimane ancora ampio soprattutto sul design di chip per i segmenti che più richiederanno potenza computazionale come i data center. Con la spinta in questa direzione, rimarrà cruciale la diversificazione della produzione di chip avanzati (logici e non), attualmente concentrata su Taiwan. Il vero rischio per Nvidia, infatti, non sarà tanto la competizione in sé dal momento che la società americana ad oggi offre i prodotti migliori. Piuttosto, la possibilità che l’industria dei chip diventi troppo sovraesposta, sia in termini di un potenziale ciclo ribassista sia da un punto di vista geopolitico. Con i rischi tutti concentrati su TSMC: l’azienda sta rispondendo agli stimoli del mercato, diversificando la sua base industriale, mentre sarà interessante monitorare dove porterà la coalizione di investitori guidata dal ceo di OpenAI, Sam Altman, per rafforzare la base industriale a supporto delle esigenze hardware della nuova era dell’intelligenza artificiale.

×

Iscriviti alla newsletter