Meglio sostenere che un testo generato sia “nuovo” (assumendosi la responsabilità editoriale) o rigurgitato da internet (offrendo il fianco a problemi di diritti d’autore)? Ecco il grande irrisolto dell’intelligenza artificiale generativa e chi lo potrebbe affrontare presto
Dopo il clamore, arrivano i riflettori. Oggi le aziende che offrono applicazioni di intelligenza artificiale generativa, come i chatbot, sono sempre più oggetto di attenzione da parte delle autorità. ChatGpt rimane sospesa in Italia, anche se il Garante della privacy ha preso atto della disponibilità dell’azienda (OpenAI) a collaborare, e altri Paesi – tra cui Francia, Germania, Irlanda, Canada e Giappone – hanno avviato le proprie indagini. Presto o tardi qualcuno si imbatterà inevitabilmente in una delle più grandi domande esistenziali che si profilano all’orizzonte di questo tipo di tecnologia.
Il dilemma è stato brillantemente spiegato da Hany Faird, professore dell’Università di Berkeley, e chiama in causa le leggi che proteggono le piattaforme dalla responsabilità editoriale. In sostanza, siamo tutti d’accordo sul fatto che (entro certi limiti) gli utenti, e non i siti web come Facebook o Twitter, siano responsabili dei contenuti che sono pubblicati su di essi. I social media non sono responsabili di un post diffamatorio o che viola il copyright, così come i motori di ricerca non sono responsabili dei contenuti illegali a cui rimandano: il responsabile legale è l’autore e non la piattaforma. Lo prevede la Section 230, la norma che dal 1996 regola le telecomunicazioni (e che andrebbe sicuramente aggiornata, ma il Congresso Usa non trova un accordo). Questo ragionamento non è applicabile ai chatbot, che generano testi basati su collezioni massicce di dati raccolti nelle vastità di internet.
Se un chatbot dice qualcosa di diffamatorio, chi è responsabile: l’azienda che lo offre o i dati su cui si è “allenato”? Questo ci porta direttamente a un problema stile “Comma 22”. Per esempio, se un testo generato diffama qualcuno, l’istinto dell’azienda è quello di dire “no, non siamo responsabili: il nostro chatbot sta semplicemente rigurgitando dati”. Tuttavia, seguendo questo ragionamento, l’azienda in questione avrebbe un problema di copyright, perché il chatbot sta offrendo un contenuto altrui. Al che l’azienda risponderebbe che no, il nostro chatbot sta generando contenuti. Il che significa che è responsabile di quel contenuto “nuovo”. E così via.
Nel frattempo, la realtà avanza inesorabile. Un sindaco australiano sta valutando una denuncia contro OpenAI dopo che un testo generato da ChatGPT lo ha descritto come un ex galeotto, imprigionato per corruzione. Per quanto riguarda il diritto d’autore, Casey Newton ricorda che esiste già una class action statunitense: un gruppo di ingegneri di software open-source ha denunciato l’utilizzo del loro lavoro per costruire lo strumento AI Copilot di GitHub, un “assistente” programmatore addestrato su migliaia di programmi esistenti. E altre cause sono sicuramente in arrivo.
“Data la posta in gioco”, scrive il giornalista esperto di nuove tecnologie, “mi aspetto che OpenAI e i suoi rivali riescano a risolvere questi problemi nel tempo, probabilmente effettuando una serie di pagamenti alle persone e agli editori che, anche se inconsapevolmente, hanno costruito le fondamenta di ChatGpt. Ma l’azienda sicuramente sosterrà che gli Llm rappresentano un uso trasformativo del materiale, e forse questa argomentazione avrà la meglio”.
I rischi sono evidenti: i chatbot hanno l’aspetto di motori di ricerca, rispondono con la sicurezza dei motori di ricerca e le persone già li usano come motori di ricerca. Dunque aumenta la probabilità che i Paesi imporranno misure affinché i chatbot possano “spiegarsi”. Forse chiederanno alle aziende di scoperchiare le black box che fanno funzionare i loro prodotti per permettergli di operare nella società: sia l’AI Act europeo che le proposte dalla Casa Bianca di Joe Biden vanno in questa direzione.