Skip to main content

L’AI Act europeo mette nel mirino ChaptGpt

La bozza legislativa a Bruxelles elenca quattro categorie di rischi e lo strumento di OpenAI potrebbe essere inserito in uno dei più pericolosi. In tal caso, verrebbe minato il suo sviluppo così come verrebbero frenati gli investimenti in un campo molto fertile

Potrebbe esserci un problema ChatGPT in Europa. All’interno dell’Artificial Intelligence Act, infatti, il chatbot rilasciato da Open AI potrebbe essere categorizzato tra gli strumenti “ad alto rischio”, così come previsto nella bozza legislativa. Potrebbe essere infatti sfruttato per molteplici scopi, molti dei quali delicati come la selezione dei candidati per un posto di lavoro. Ma anche il plagio, la disinformazione e la frode sono elementi che non devono essere sottovalutati quando si parla di questo strumento. Essere classificato in questo modo comporterebbe inevitabili conseguenze, a iniziare dalle restrizioni e dai paletti che verrebbero messi attorno a uno strumento sempre più in voga.

Già qualche giorno fa era stato Thierry Breton, commissario per il mercato interno e i servizi dell’Unione europea, a esprimere le sue preoccupazioni. “Come mostrato da ChatGPT, le soluzioni dell’Intelligenza Artificiale possono offrire grandi opportunità per aziende e cittadini, ma possono anche comportare rischi. Ecco perché abbiamo bisogno di un solido quadro normativo per garantire un’IA affidabile basata su dati di alta qualità”, aveva dichiarato alla Reuters. La sua richiesta era di fugare i dubbi attraverso la collaborazione. “Le persone devono sapere che è un robot e non una persona”, ha aggiunto.

L’Intelligenza Artificiale Generativa non è un campo nuovo, ma quello da cui nel prossimo futuro ci si aspetta più novità. Per tale ragione, classificarla come ad alto rischio potrebbe essere un colpo non di poco conto. Partiamo dalla definizione: con questo termine, si intende “la combinazione della probabilità che si verifichi un pericolo che causa un danno e il grado di gravità di tale danno”. L’Artificial Intelligence Act ne prevede quattro. Al primo livello troviamo il “rischio minimo o nullo”, in cui secondo la Commissione europea rientra la “stragrande maggioranza” dei sistemi attualmente utilizzati nell’Ue; al secondo il “rischio limitato”, da applicare ai sistemi con “obblighi specifici di trasparenza”; al terzo il “rischio elevato”, che si riscontra all’interno di infrastrutture critiche o nei contesti lavorativi ed educativi in cui il risultato di esami o risposte potrebbe essere determinato dall’IA; infine il “rischio inaccettabile”, ovvero tutto ciò che rappresenta una chiara minaccia per l’essere umano, inclusa “l’assegnazione di punteggi sociali da parte dei governi a strumenti che utilizzato l’assistenza vocale che incoraggia comportamenti pericolosi”.

Il timore, dunque, è che ChatGTP e tutti i suoi successori possano generare dei testi contrari alla normativa Ue. In base a questo, i modelli di IA – come l’apprendimento automatico utilizzato dallo strumento di OpenAI – che utilizzano tecniche che vanno al di là della conoscenza e delle possibilità umane devono essere vietati, a meno che non ci sia esplicito consenso da parte della persona o venga sfruttato per scopi terapeutici.

La questione è seria, perché sorge in un momento in cui la proliferazione di tali chatbot è in grande fermento. L’anno scorso era stata Meta a lanciare il suo Galactica (poi sospeso), a cui poi è seguita OpenAI e negli ultimi giorni anche Google con Bard. Anche la cinese Baidu ha il proprio e si chiama Ernie Bot. Proprio giovedì, la connazionale Alibaba ha annunciato di star lavorando al suo. Una dimostrazione di quanto l’apprendimento di Natural Language rappresenti la sfida del futuro, su cui tutti si stanno buttando a capofitto.

La notizia ha pertanto scosso l’ambiente. Essere catalogati come sistemi “ad alto rischio” avrebbe come conseguenza diretta il rispetto di determinati parametri stringenti. Da un sondaggio è emerso come la metà degli intervistati teme dei rallentamenti per la propria attività per via dell’AI Act. Ma l’ansia avvolge un po’ tutti. Gli investimenti che interessano questo settore verrebbero frenati, complicando il percorso di uno degli strumenti più innovativi del momento (e del prossimo futuro). “La gara inizia oggi”, ha dichiarato il ceo di Microsoft, Staya Nadella, il giorno dopo l’annuncio di Google. In Europa rischia di finire prima ancora di partire?


×

Iscriviti alla newsletter