Stando ai numeri, l’intelligenza artificiale non ci porterà alla catastrofe. Ma il modo in cui verrà regolamentata impatterà sensibilmente l’evoluzione delle società digitali. I Paesi occidentali e la Cina stanno già correndo: ecco perché il coordinamento transatlantico sarà decisivo

Ad oggi, l’effetto più dirompente dell’intelligenza artificiale (Ia) si è registrato più nel discorso attorno a essa che non nella nostra quotidianità. Utenti, esperti e governi aderiscono sempre più all’idea che serva imporre delle linee guida prima che questa tecnologia travolga la società e/o si trasformi in una sorta di Skynet. Ha fatto molto discutere la lettera dei mille esperti che chiedono di rallentare lo sviluppo dei nuovi sistemi (qui la disamina del co-firmatario Yoshua Bengio) per evitare scenari potenzialmente catastrofici. Tuttavia, almeno per il momento, si può fare un bel respiro: i sistemi Ia non dovrebbero presentare alcuna minaccia esistenziale.

Anzitutto, sembra che l’attenzione mediatica e gli scenari più sensazionalistici stiano oscurando la reale entità del pericolo. L’Economist ha potuto vedere in anteprima i risultati di uno studio statunitense, in cui Ezra Karger della Federal Reserve di Chicago e Philip Tetlock dell’Università della Pennsylvania (esperto nel campo della “chiaroveggenza” statistica) hanno messo a confronto le predizioni degli esperti di Ia con un gruppo di “super previsori”, persone addestrate ad evitare pregiudizi cognitivi e forti di uno storico di previsioni azzeccate. In media, l’esperto crede che ci sia un 3,9% di possibilità che l’Ia provochi una catastrofe esistenziale entro fine secolo, mentre il super previsore la colloca a 0,38%.

Naturalmente questo non significa che non si debba controllare lo sviluppo di uno strumento così potente. Ma c’è già chi lavora da anni per costruire dei binari. La “soluzione” più estesa per geografia è l’accordo Unesco sull’etica dell’Ia, firmato a novembre 2021, seguita dai Principi e le raccomandazioni dell’Ocse. Dopodiché ci sono le misure europee (la bozza della Convenzione del Consiglio d’Europa sull’Ia più l’Ai Act, ancora in via di definizione dalle istituzioni), gli sforzi regolatori dell’Amministrazione cinese per il ciberspazio e la Carta dei diritti dell’Ia proposta dalla Casa Bianca guidata da Joe Biden. A queste si aggiungono innumerevoli strategie nazionali e transnazionali, che diventano sempre più importanti, visto che la visione alla base delle regole che definiranno lo sviluppo dell’Ia impatteranno anche l’evoluzione delle società digitali.

C’è di buono che gli sforzi regolatori in atto hanno molto in comune. Scrive Mark Scott di Politico Digital Bridge che “in un mondo di politiche digitali in cui i funzionari non sono quasi mai d’accordo, c’è molto consenso su come affrontare le questioni di fondo legate all’IA”. I Paesi occidentali concordano in linea di principio sull’inserire responsabilità, trasparenza, diritti umani e privacy nelle regolamentazioni IA, implementare diritti di protezione dei dati personali più estesi e misure di supervisione indipendente (e umana) dei processi decisionali automatizzati. Il problema è all’atto pratico. “Quello che manca sono i punti più sottili della politica, necessari per andare oltre i luoghi comuni […] e capire come tutto ciò si traduca effettivamente in un insieme di regole applicabili a livello transfrontaliero”.

Gli ostacoli all’integrazione sono nell’approccio dei Paesi, che affrontano la sfida della regolamentazione Ia in modo molto diverso. L’Ue opta per un approccio top-down in cui i governi si attivano per mitigare i danni (gli strumenti per farlo saranno contenuti nell’Ai Act), mentre Usa, Giappone e Regno Unito preferiscono un approccio guidato dall’industria per dare alla tecnologia la possibilità di crescere. Tuttavia, andare per la propria strada non è un’opzione: la Cina, che legge l’Ia secondo il vantaggio che può portare al proprio modello di Stato, sta già plasmando le regole in materia secondo i dettami del Partito comunista – controllo e censura inclusi – e già esporta prodotti tecnologici, come le telecamere intelligenti, dotati di funzioni Ia come il riconoscimento facciale.

In questo campo, Ue e Usa – i due giocatori democratici più “pesanti” sullo scacchiere geopolitico – si stanno portando avanti da anni. Il tavolo di lavoro sull’IA del Consiglio commercio e tecnologia (Ttc) è uno dei più produttivi del forum semipermanente tra Bruxelles e Washington. L’Ue è l’epicentro globale delle regolamentazioni in materia di tecnologia, imitate in tutto il mondo da Paesi desiderosi di commerciare con il mercato unico; la seconda è la culla di queste tecnologie innovative. Con ogni probabilità, la prossima riunione del Ttc a fine maggio farà emergere delle linee guida transatlantiche sull’Ia, frutto della volontà condivisa di sfruttare i rispettivi punti di forza per dettare la linea dello sviluppo e non lasciare spazio alle tecno-pulsioni autocratiche.

Condividi tramite