Durante l’annuale World Economic Forum in terra svizzera, è stato affrontato il tema legato alle scoperte tech. Come ogni novità, anche queste si portano dietro stupore e dubbi. A spaventare gli esperti sono soprattutto la velocità con cui vengono apportati i cambiamenti e la rivoluzione che questi apportano alla nostra quotidianità. La risposta alle domande si trova però sempre nella regolamentazione
ChatGPT è finito al centro dei discorsi del World Economic Forum di Davos, e insieme a lui tanti altri strumenti di intelligenza artificiale (IA). Il motivo è da trovare negli stessi esperti, preoccupati dalla velocità con cui queste invenzioni sono entrate nella vita di tutti i giorni. L’ultima, quella che porta la firma di OpenAI, ha aperto un dibattito non solo sull’utilità dello strumento, ma anche sulla portata rivoluzionaria che si è trasportato dietro.
Già su questo giornale abbiamo affrontato il tema, definendo ChatGPT un’ottima invenzione, sicuramente molto utile per i tempi a venire, ma ancora con troppe falle a caratterizzarlo. Come racconta l’inviata di Axios, Ina Fried, era dai tempi dell’iPhone, nel 2007, che una novità tech non riscuoteva questo interesse. Anche tra coloro che hanno familiarità con i modelli di apprendimento adottati per il suo funzionamento. Tutti si chiedono in che modo il deep learning e tecnologie simili potranno condizionare la loro quotidianità.
Partiamo dal presupposto che ogni progresso porta con sé aspetti positivi e negativi, spesso incrociati tra di loro. Soprattutto, bisogna ormai scendere a patti con queste innovazioni. È necessario quindi educare l’uomo a convivere con questi inevitabili cambiamenti. Pertanto, se da una parte ChatGPT rappresenta il futuro sotto tanti punti di vista, dall’altra suscita delle legittime domande. La sintesi di questi discorsi, tuttavia, è che necessita di ulteriori miglioramenti che, guardando la velocità con cui vengono apportati, potrebbero richiedere meno tempo del previsto.
Proprio in occasione del World Economic Forum di Davos, è stato pubblicato un blog da parte di Google, firmato dal suo Ceo Sundar Pichai, in cui vengono elencati sette modi in cui l’IA può essere l’arma in più per le sfide del futuro. Come ad esempio contro il cambiamento climatico, prevedendo alluvioni e circoscrivendo incendi che possono mettere in pericolo le persone. Segue il monitoraggio della salute prenatale, il rilevamento di malformazioni genetiche, la lotta ai parassiti che infestano i campi agricoli, il rilevamento delle malattie e gli studi sulla società urbana.
Dal punto di vista del lavoro, l’IA può ridurre di tanto i costi dei servizi, ampliare l’accesso all’assistenza legale, sanitaria e via dicendo. Insomma, garantirebbe un vantaggio sia per il datore di lavoro che per il dipendente. Allo stesso modo, i progressi che l’IA ha garantito in campo medico sono enormi. Una delle più recenti vede dei generatori (in stile DALL-E) capaci di creare nuove proteine che possano combattere da una semplice influenza fino al cancro, passando per il Covid-19. “Oppure”, come ha sottolineato Hanzade Doga, presidente della società turca di e-commerce Hepsiburada, “se ci sbagliamo potrebbe essere la distopia del nostro mondo. Quella che stiamo affrontando è una questione seria”.
Talmente tanto che tanti altri si interrogano su quelli che chiamano “i pregiudizi” dell’IA. È il caso, ad esempio, di Different Dimension Me, il sito web di Tencent con cui è possibile trasformare le persone in anime giapponesi, ma non quelle in sovrappeso o di colore, visto che il sistema non le riconosce. È uno dei tanti dubbi creati dall’IA generativa cinese, ma nel mondo tech ce ne sono molti altri.
Anche il ceo di C3.ai, Tom Siebel, si è soffermato sull’importanza di capire queste discriminazioni già dai dati. Lui si è rifiutato di sottoscrivere un contratto con l’esercito sull’utilizzo di un determinato strumento di IA che, però, avrebbe raccomandato i laureati bianchi. Una tesi simile è stata recitata dal direttore esecutivo di Access Now, Brett Solomon, che in questi strumenti ci vede un’arma da utilizzare contro gli attivisti per limitare le loro battaglie.
Supposizioni che trovano conferma specialmente nei regimi autoritari, che sfruttano l’IA per i loro scopi. Ma che possiamo trovare, sotto altre forme, anche nel mondo democratico. Non a caso, una soluzione allo scontro tra i vari watchdog nazionali e le Big Tech è ancora lungi dall’esser trovata (vedasi il tribolato accordo tra TikTok e governo statunitense), ma dovrà inevitabilmente passare da una regolamentazione, per instradare su dei paletti anche ChatGPT e altri strumenti simili. Considerati solo un giocattolo, ma per ora.