Skip to main content

DISPONIBILI GLI ULTIMI NUMERI DELLE NOSTRE RIVISTE.

 

ultima rivista formiche
ultima rivista airpress

Intelligenza artificiale e responsabilità civile, la soluzione di Bruxelles

Intelligenza artificiale

Con l’ultima direttiva, la Commissione europea intende responsabilizzare le aziende riguardo ai sistemi ad alto rischio che introducono nella società

L’intelligenza artificiale (IA) sta già gestendo parte del funzionamento della nostra società. Con l’evoluzione di questa tecnologia e l’espandersi della digitalizzazione stiamo affidando agli algoritmi interi sistemi aziendali, reti elettriche, comunicazioni, social e marketing. Ma anche finanza personale, mobilità, salute, giustizia, sicurezza.

Si intuisce appena l’impatto negativo di alcuni sistemi IA (quelli dei social, per esempio, favoriscono disinformazione ed estremismo), figurarsi uno scenario in cui saranno molto più pervasivi. Spesso e volentieri non si capisce appieno dove risieda la responsabilità penale dei danni provocati da un sistema IA. Una nebbia giuridica che l’Unione europea si propone di dissipare.

Settimana scorsa la Commissione Ue ha presentato la AI Liability Directive (Direttiva sulla responsabilità dell’IA), un disegno-legge che dovrebbe diventare realtà tra un paio d’anni, contemporaneamente all’AI Act. Laddove quest’ultima misura classifica i gradi di pericolosità di un sistema e definisce qualità e quantità di controlli, la Liability Directive chiarisce la responsabilità civile delle aziende che “liberano” un sistema IA nella società e garantisce alle persone e alle aziende il diritto di fare causa in caso venissero danneggiate.

Il primo obiettivo è disincentivare la diffusione degli algoritmi potenzialmente molto pericolosi – sistemi di polizia, reclutamento aziendale, assistenza sanitaria… – responsabilizzando i creatori e obbligandoli a spiegare come, e su quali dati, si siano addestrati i loro sistemi. Essere in torto potrebbe provocare ripercussioni (e sanzioni) in tutta l’Ue.

Un approccio draconiano a detta delle grandi aziende tech, rappresentate dal gruppo di pressione Ccia. La Policy Manager per l’Europa, Mathilde Adjutor, ha commentato che le limitazioni definite nella Direttiva potrebbero “avere un impatto negativo sull’innovazione”. Nel settore si teme anche l’effetto Bruxelles – ossia che queste regole si propaghino al di fuori dell’Ue negli Stati interessati a mantenere l’interscambio commerciale più fluido possibile.

L’altro lato della medaglia, secondo le associazioni di riferimento, è che la direttiva ha il potenziale per spostare il potere dalle aziende ai consumatori. Correzione particolarmente importante visto il potenziale discriminatorio dell’IA. Le parole, via MIT Tech Review, sono di Imogen Parker, direttore associato delle politiche dell’Ada Lovelace Institute, un istituto di ricerca sull’IA.

Altri gruppi sostengono che la Direttiva non si spinga abbastanza in là, altri ancora – sostenuti da alcune Big Tech – sono sollevati di poter contare, in un futuro, su un binario legislativo chiaro. Resta da vedere che volto avrà questo esercizio di legislazione europea dopo essere passato per le modifiche del Parlamento europeo e del Consiglio dei Ventisette stati.

×

Iscriviti alla newsletter