Skip to main content

Microchip, così gli Stati Uniti guardano già al futuro

Mentre imperversa la competizione sui microchip tra Stati Uniti e Cina, con l’amministrazione Trump che ha assestato nelle settimane scorse un duro colpo ai piani di Pechino per la self-sufficiency sui semiconduttori con l’inclusione della cinese Smic nella black list, la più potente lobby americana nell’industria dei microchip ha presentato ieri alcuni dettagli di un progetto dai risvolti futuristici.

Si tratta del Decadal Plan for Semiconductors, un rapporto curato dalla Semiconductor Industry Association (Sia) e dalla sua divisione di ricerca, la Semiconductor Research Corporation (Src), in collaborazione con il Dipartimento dell’Energia, l’Advanced Scientific Computing Research (Ascr), il Basic Energy Sciences (Bes), la National Nuclear Security Agency e il programma di Advanced Simulation and Computing (Asc). Significativamente, parte del comitato esecutivo che ha curato il rapporto è rappresentato dagli stakeholder dei principali colossi hi-tech occidentali, tra cui Ibm, Samsung, Intel, Amazon, Qualcomm, Tsmc, con il coinvolgimento di esperti del settore dal mondo industriale, accademico e governativo.

La call for action vuole inoltre consolidare una rinnovata partnership pubblico-privata, suggerendo al governo federale una spesa annuale di 3,4 miliardi di dollari per dieci anni. La Sia aveva già richiamato l’attenzione dell’amministrazione Trump nei mesi scorsi, segnalando una preoccupante erosione del gap tecnologico con la Cina in assenza di una robusta politica di sostegno alla R&D nei prossimi anni, con evidenti ricadute sulla sicurezza nazionale e non solo. “Gli investimenti del governo federale e del settore privato in ricerca e sviluppo nel settore dei microchip” ha commentato John Neuffer, presidente e amministratore delegato della Sia, “hanno sostenuto il ritmo rapido dell’innovazione dell’industria americana dei semiconduttori, generando una crescita imponente nell’economia americana e globale”.

Come infatti aveva rilevato il rapporto Sia di giugno scorso, per ogni dollaro federale speso in R&D nel settore dei chip si è riscontrato un incremento di 16.50 dollari nel prodotto interno lordo, con effetti spillover sulla crescita economica (oltre 161 miliardi sul Pil) e nella creazione di posti di lavoro (500.000 nuove occupazioni). Dunque, “dal momento che entriamo in una nuova era”, prosegue Neuffer, “è necessario che il governo federale investa ambiziosamente nella ricerca sui microchip per tenere l’America al vertice nel settore e nelle future tecnologie che essi abiliteranno”.

Dal momento che il paradigma corrente hardware-software nelle tecnologie Ict sarà sempre più messo alla prova dall’affacciarsi di nuove applicazioni, come lo sviluppo dell’intelligenza artificiale, del quantum computing e dell’Internet of Things, “una crescita sostenibile dell’Ict a lungo termine”, rileva il rapporto, “dovrà fare affidamento su passi avanti nelle capacità tecnologiche dei semiconduttori”. E gli scenari di repentina trasformazione dell’ecosistema dell’Ict individuati e quantificati dal rapporto sono a dir poco sconcertanti e richiederanno di focalizzare la ricerca sulle modalità con cui alterare la traiettoria corrente della tecnologia dei semiconduttori per renderli compatibili con gli sviluppi della prossima decade.

GLI SCENARI DEL PROSSIMO DECENNIO

Lo smart sensing, ovvero la possibilità di tradurre input dal mondo reale in segnali codificati nelle architetture digitali, richiederà lo sviluppo dell’elettronica analogica, in grado di creare un’interazione continua tra le macchine e l’ambiente fisico che le circonda. “L’interfaccia mondo-macchina è al cuore dell’economia dell’informazione”, basti pensare alla prossima rivoluzione robotica e all’industria automotive. Tuttavia, la capacità odierna di generare dati analogici “sta crescendo molto più rapidamente della nostra abilità di utilizzare sapientemente questi dati”, e correggere questo mismatch sarà decisivo per il futuro dell’IoT e dei Big Data.

Proprio come corollario all’imponente esplosione di dati che la digitalizzazione innescherà, sarà imperativo ricorrere a nuove soluzioni per le tecnologie di memorizzazione e storage. Il secondo sismic shift individuato dal rapporto, infatti, pone l’attenzione sulle prossime limitazioni fisiche che, alla fine del decennio, incontreremo in questo campo, soprattutto nell’incapacità di soddisfare la domanda di wafer al silicio. “Questa disparità imporrà che la silicon-based memory diventerà economicamente proibitiva per l’implementazione dei big data nell’era degli zettabyte entro due decenni”.

La divergenza tra la nostra capacità di creare hardware capaci di immagazzinare dati è il flusso digitale sarà ancor più evidente dal punto di vista di un altro assunto, oggi scontato: quello di poter garantire comunicazioni affidabili e continue. Lo squilibrio tra la capacità di comunicare e il tasso di data generation sarà sempre più marcato, con un potenziale cross-over già nel 2022 “che potrebbe avere un temendo impatto sulle Ict”. Dunque, il terzo cambiamento sismico richiederà una crescita repentina nelle infrastrutture cloud e di comunicazione.

Il quarto scenario è in realtà un tema fortemente in discussione, ovvero la questione della sicurezza (e della tutela della privacy) di sistemi digitali e network fisici sempre più interconnessi (basti pensare all’attuale controversia sul 5G, a cui il rapporto non fa riferimento ma le cui implicazioni ricadono inevitabilmente in un approccio sistemico tra i ‘domini’ finanziari, industriali, militari e le tecnologie a supporto, come sensori, processori, antenne radio, eccetera). Con l’avvento di nuove applicazioni come il quantum computing e l’intelligenza artificiale “creeranno nuove vulnerabilità nei correnti metodi crittografici” e dunque richiederanno “nuovi standard di criptazione per resistere ad attacchi quantici” e nuove procedure per monitorare sistemi di interazione tra macchine sempre più complessi. Senza dimenticare che anche le componenti fisiche, come gli stessi microchip, dovranno superare scrutini sempre più approfonditi lungo le global supply chain.

Infine, il quinto scenario parte dall’assunto che “il computing convenzionale si sta avvicinando a limiti di efficienza energetica evidenti”, in un contesto di crescente domanda di energia per sostenere livelli di computazione sempre più esponenziali. “E questo nonostante il fatto”, si legge nella parte finale del rapporto, “che l’energia a livello di chip per un bit di transizione nelle Cpu, Gpu (processori di elaborazione, ndr) è in decrescita continua negli ultimi 40 anni, come dimostrato dalla legge di Moore”. In sostanza, se la crescita esponenziale del consumo energetico del computing non venisse controbilanciata da un contemporaneo efficientamento dei processori, le dinamiche di mercato indurrebbero ad un rallentamento della crescita della capacità computazionale.

Insomma, le prospettive di sviluppo nelle frontiere tecnologiche – peraltro con un’attenzione sempre più marcata del Congresso e del Pentagono per garantire i necessari flussi di investimento – sembrano poter liberare nuovamente il “potenziale illimitato della tecnologia dei semiconduttori”, ha commentato Todd Younkin, Presidente e amministratore delegato di Src. “Il Decadal Plan fornisce una direzione per tradurre questo potenziale in realtà”. E così gettare le basi per una rinnovata leadership americana nell’innovazione tecnologica.


×

Iscriviti alla newsletter