Skip to main content

Un’intelligenza artificiale più libera e aperta. L’appello dei think tank secondo da Empoli

In una fase cruciale per la regolamentazione delle tecnologie dell’Intelligenza artificiale in Europa con l’Ai Act arrivato alle battute finali ma anche in altre parti del mondo, a cominciare dagli Usa che appaiono molto più pro-attivi del solito su questo dossier, 19 think tank di tutto il mondo, riuniti nella Global trade and innovation policy alliance (Gtipa), hanno lanciato un appello ai Governi per rendere questi strumenti liberamente accessibili e aperti a tutti coloro che vogliono utilizzarli. Ne parla Stefano da Empoli, presidente di I-Com

Più di qualsiasi precedente innovazione nel campo dell’intelligenza artificiale (Ia), ChatGpt e gli altri prodotti lanciati successivamente  hanno colpito l’immaginazione delle persone comuni per due motivi fondamentali. Nessuno – tranne forse alcuni ricercatori – si aspettava un livello qualitativo così alto. È vero che i chatbot di OpenAi, Google, Microsoft, ecc. a volte farneticano e spesso dicono banalità ma si situano a un incrocio tra sofisticazione linguistica e velocità di esecuzione che non può che apparirci strabiliante. Almeno a tutti quelli (ed erano tanti) che fino al 29 novembre dell’anno scorso, cioè il giorno precedente il lancio di ChatGpt, erano convinti di avere un dominio del linguaggio ancora di molto superiore alle macchine. Ma l’aspetto ancora più dirompente è che tutto questo succede con una facilità d’uso senza precedenti che ha fatto cadere qualsiasi intermediazione. Chiunque può interrogare l’Ia ottenendo una risposta immediata.

Naturalmente sappiamo anche che le query che si pongono e l’esercizio del cosiddetto prompting sono fondamentali nell’ottenere una risposta migliore rispetto a un’altra, a parità di chatbot utilizzata. Il salto è però simile a quello vissuto a metà degli anni Novanta con i primi browser per Internet. Con la differenza che allora i siti dove si poteva navigare erano relativamente pochi mentre ora si possono porre tutte le domande che vogliamo al ChatGpt di turno.

Naturalmente questo pone dei rischi evidenti, che sono giustamente già nel mirino dei decisori e ben posizionati nel dibattito corrente. Stiamo parlando tra gli altri di pericoli di misinformazione e disinformazione, possibili criticità rispetto a profili di cybersecurity e privacy e anche di impatti potenzialmente dirompenti sull’attuale tutela del copyright. Molto minore è l’attenzione che si sta dando alle opportunità di un Ia generativa fruibile non solo da informatici e scienziati ma da tutti.

In una fase cruciale per la regolamentazione delle tecnologie Ia in Europa con l’Ai Act arrivato alle battute finali ma anche in altre parti del mondo, a cominciare dagli Usa che appaiono molto più pro-attivi del solito su questo dossier, 19 think tank di tutto il mondo, riuniti nella Global Trade and Innovation Policy Alliance (Gtipa), di cui fa parte anche l’Istituto per la Competitività (I-Com), hanno lanciato un appello ai Governi per rendere questo tipo di strumenti liberamente accessibili e aperti a tutti coloro che vogliono utilizzarli (salvo specifiche e ben motivate restrizioni).

Senza dunque censure o manipolazioni, che sono purtroppo già emerse in alcuni Paesi. Non è un caso che la Cina abbia bruciato sul tempo sia l’Europa che gli Stati Uniti, imponendo una specifica autorizzazione per le imprese che vogliono offrire al pubblico strumenti di Ia generativa condizionata al rispetto di determinate garanzie sul comportamento algoritmico. Tanto che solo a fine agosto sono arrivate le prime autorizzazioni del regolatore cinese e i tool immessi sul mercato sono a detta degli esperti di standard inferiore rispetto a quelli statunitensi, subendo forti limitazioni sia nei dati di input che in quelli di output.

Tra i principi richiamati nella dichiarazione sottoscritta dai think tank, in cima alla lista la promozione della libertà di espressione e della libertà di innovare: i governi non dovrebbero limitare l’uso dell’Ia per cercare, ricevere e diffondere informazioni e idee così come sono chiamati a non frenare la costruzione e la condivisione di modelli di Ia e dati di formazione. Inoltre, dato che lo sforzo in atto è globale, i governi non dovrebbero limitare l’esportazione di modelli di Ia e dati di formazione, se non per legittime preoccupazioni di sicurezza. Vanno invece perseguite con il necessario impegno forme di collaborazione e cooperazione internazionale che coinvolgano anche i privati e portino a sviluppare standard e accordi commerciali per promuovere un’Ia libera e aperta. Occorre anche prevedere azioni di inclusione, sostenendo l’adozione di strumenti di Ia affidabili e a costi contenuti, rafforzando iniziative per accelerare la trasformazione digitale, promuovere l’alfabetizzazione all’Ia e colmare il divario di dati tra i diversi player.

Piuttosto che censurare l’Ia, i governi dovrebbero concentrarsi sull’empowerment degli individui attraverso l’istruzione, iniziative di fact-checking, strumenti che certifichino la provenienza dei contenuti e altre azioni in grado di preparare i cittadini a un cambiamento epocale.

Insomma, la regolamentazione deve proibire o imbrigliare solo laddove necessario. Ma lo sforzo dei governi non può finire lì. Deve essere molto più ampio e a trecentosessanta gradi. Per questo, se caliamo l’appello nel contesto italiano, invita senz’altro il Governo a procedere con una vera strategia Ia, che a differenza della precedente allarghi lo sguardo oltre la ricerca e sviluppo per guardare agli impatti sull’intera società. Perché se un messaggio del fenomeno ChatGpt è chiaro è che l’Ia è un fenomeno che sarà sempre più di massa, pena l’esclusione di fasce importanti della popolazione dal progresso. Arriverà il momento in cui nessuno, nazione, impresa o famiglia, se lo potrà permettere. Meglio darsi da fare da subito facendo le scelte giuste insieme ai nostri partner nell’arena globale.

 

×

Iscriviti alla newsletter