Skip to main content

Trovare la giusta via dell’IA. Ecco cosa chiedono le Big Tech e gli americani (guardando l’Europa)

I leader delle grandi aziende tecnologiche hanno ribadito al Congresso le loro preoccupazioni, che a quanto pare interessano anche gran parte degli americani. Nel futuro, viene chiesta una legge che sappia sfruttare i benefici dell’innovazione in modo sicuro e trasparente. Insomma, seguendo Bruxelles per una volta

“C’è un forte consenso sul fatto che l’intelligenza artificiale vada regolamentata. Le conseguenze se qualcosa dovesse andare storto con l’IA posso essere severe, per questo dobbiamo essere proattivi”. Ad affermarlo è, ancora una volta, Elon Musk. Il patron di X (ex Twitter) e Tesla si è presentato mercoledì pomeriggio al Congresso, accompagnato da quello di Meta, Mark Zuckerberg, di OpenAI, Sam Altman e di Microsoft, Satya Nadella. Insieme a loro, anche il filantropo Bill Gates, che sui rischi digitali ha già messo in allerta. Le loro preoccupazioni sono state ribadite di fronte a due senatori democratici e altrettanti repubblicani, trasformati in oratori e poi in inquisitori con le loro domande – la natura a porte chiuse dell’evento non è stata digerita da tutti gli altri. A volere con forza questo incontro è stato il leader democratico del Senato, Chuck Schumer, convinto dell’urgenza di “agire rapidamente su una legge”, magari seguendo per una volta le orme dell’Europa che in tema IA si sta muovendo più velocemente.

La questione sta nello stringere le maglie delle regole senza soffocare l’innovazione, costruendo un ambiente favorevole alla collaborazione tra pubblico e privato che possa trarre il meglio dai nuovi strumenti. D’altronde, ha sottolineato l’ex ceo di Google, Eric Schmidt, l’intelligenza artificiale “è una tecnologia potente sulla quale dobbiamo essere proattivi”. Lo pensa lui, lo pensa Musk e lo pensano tutti gli altri colleghi. Per il multimiliardario di Pretoria c’è bisogno di un arbitro e, in un futuro più o meno lontano, anche a Capitol Hill si convinceranno ad aprire un’agenzia per la regolamentazione.

Ad ogni modo, l’incontro di ieri rappresenta un passo verso quella direzione che, come ha spiegato Schumer, avrà un “compito complesso e vitale” allo stesso tempo: “Gettare le basi per politiche bipartisan in grado di essere approvate dal Congresso”.

Anche perché a chiederlo sembrerebbe esserlo gli stessi americani. La metà di loro è convinto che l’IA possa avere un impatto negativo sulle prossime elezioni, diffondendo fake news e altro materiale fuorviante. A dirlo è un sondaggio condotto da Axios e Morning Consult, grazie a cui è stato rilevato che il 53% degli intervistati si dice preoccupato per la disinformazione diffusa dagli strumenti tech. Il 47% di coloro che hanno votato per Donald Trump due anni fa ritiene inoltre che l’IA possa abbassare la fiducia nei prossimi candidati, stesso pensiero partorito dal 27% di quelli che hanno sostenuto Joe Biden nel 2020. La maggioranza degli oltre duemila soggetti intervistati è anche sicura che, nel giro di un quarto di secolo, l’essere umano verrà subordinato all’intelligenza artificiale. In generale, il 36% si sente più pessimista che ottimista (26%) sul futuro. Soprattutto, sono scettici che si arriverà a una legge capace di regolare l’IA.

Probabilmente, l’idea è quella di ispirarsi all’Europa. L’Ue è ancora lontana dall’avere una regolamentazione che funzioni per davvero, ma solo perché sta oliando i suoi nuovi regolamenti (Dsa, Dma, IA Act). Anche perché per starle dietro bisogna essere molto bravi. “L’intelligenza artificiale è una tecnologia generale accessibile, potente e adattabile a una vasta gamma di usi, sia civili che militari”, ha evidenziato sempre mercoledì la presidente della Commissione europea, Ursula von der Leyern, durante il suo discorso sullo Stato dell’Unione alla sessione plenaria del Parlamento. Tuttavia, “si sta muovendo più velocemente di quanto previsto dai suoi sviluppatori. Abbiamo quindi una finestra di opportunità sempre più ristretta per guidare questa tecnologia in modo responsabile”.

Quello che la presidente considera “il terzo pilastro” dell’Ue va sviluppato dunque “in modo responsabile”, traendo beneficio dalle opportunità che crea. Ad esempio, l’Europa è diventata “leader nel supercalcolo, con tre dei cinque computer più potenti”. Inoltre, l’IA “migliorerà l’assistenza sanitaria, aumenterà la produttività, affronterà il cambiamento climatico”. Insomma, non è tutto nero.

Restano però delle preoccupazioni. “L’Ue non deve sottovalutare le minacce reali”, ha proseguito von der Leyen, tenendo conto degli allarmi lanciati da “centinaia di importanti sviluppatori, accademici ed esperti”. La mitigazione dei rischi “dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come la pandemia e la guerra nucleare”. Se Bruxelles è stata la prima al mondo a promuovere una legge a favore dell’innovazione, “dobbiamo anche unire le forze con i nostri partner per garantire un approccio globale alla comprensione dell’impatto dell’IA nelle nostre società”. Musica per le orecchie delle Big Tech.


×

Iscriviti alla newsletter