Ormai da qualche anno gli articoli e i commenti sull’intelligenza artificiale, sugli algoritmi di machine learning (“apprendimento automatico”) e sulle loro durature conseguenze sulla nostra vita di tutti i giorni, compreso sulle dinamiche politiche, non mancano di certo, tra entusiasti, scettici e (più spesso) millenaristi. Quindi, cosa c’è di meglio di (ri)leggere qualche classico di fantascienza per capirci un po’ di più? Ecco quindi 3 libri (e nel mezzo qualche film) che vi consiglio di mettere sotto l’albero. Hanno tra i 60 e gli 80 anni di vita. Ma sono quanto mai attuali. Sulla base dell’acronimo: CAM (“controllo”, “anticipazione”, “manipolazione”).

Ma prima di questo, lasciatemi spendere due parole sul significato di “intelligenza artificiale” (o IA). L’IA è un termine molto in voga, un po’ come la fisica quantistica (chi non ha visto “Interstellar” rimanendo affascinato dai suoi wormhole?), condividendo con questa un alone di misticismo e di magia. Il punto fondamentale è che quando si parla di IA dimenticatevi dell’idea di robot a là Hal9000 di Odissea nello Spazio o di Terminator. Da tempo oramai siamo passati dalla domanda «le macchine possono avere coscienza di loro stesse?» ovvero «possono pensare?» a «le macchine possono fare quello che noi (in quanto entità pensanti) possiamo fare?», ovvero «possono fare generalizzazioni in tempi rapidi basandosi su dati limitati?». Questo cambiamento è abissale, perchè si passa dalla possibilità di far passare ad una macchina il famoso “Test di turing” (e se non sapete cosa è, guardatevi – e godetevi – il film Ex Machina di qualche anno fa), a “semplicemente” far girare in modo efficiente un algoritmo statistico sulla base di una imponente mole di dati per fargli apprendere (se tutto va bene) alcune cose (incluso chi salvare tra un bambino e un anziano quando a guidare una macchina è una IA).

Dunque, il fatto che là fuori non ci saranno cattivi robottoni pronti a prendere il posto degli umani dovrebbe rendere il tutto più tranquillo da un punto di vista politico? Non proprio…E per capirlo, torniamo alla nostra lista della spesa per Natale!

Primo libro, la “C” (di controllo): ovviamente, e non poteva essere altrimenti, ecco “1984” di George Orwell (1949) e la sua idea del Grande Fratello che tutto controlla. Ogni giorno produciamo sempre più tracce digitali di noi stessi, e domani lo faremo ancora più spesso. Il punto è che con il tempo è cresciuta anche la capacità di conservare, combinare (quello che in letteratura va sotto il nome di “data mashup”) e processare questa crescente mole di dati. E se siamo (giustamente) preoccupati (se non scandalizzati) quando a farlo è un attore privato, quando ad entrare in scena è un attore statale dovremmo esserne terrorizzati (come minimo). Pensiamo al famigerato “social credit system” in Cina: un sistema che mette insieme gli acquisti su Alibaba, i riconoscimenti facciali grazie alle onnipresenti telecamere sparse per la Cina, e quello che si scrive sui social media (tutti rigorosamente made in China), per produrre un vero e proprio indice di affidabilità politica e sociale per ciascuna persona. Un sistema di controllo del comportamento decisamente meno costoso, meno visibile e quindi meno vulnerabile a reazioni da parte dell’opinione pubblica, tutt’altra cosa insomma rispetto all’obsoleto ufficiale della Stasi in “Le vite degli altri”. Un sistema che viene spacciato come un modo per garantire maggiore libertà (e infatti è apprezzato dai cinesi che, secondo una recente ricerca, lo considerano come uno strumento per promuovere contratti onesti tra le parti), ma che, nel momento che ti passa per la testa di sfidare il sistema di potere (attraverso qualche critica di troppo in Rete), diventa un incubo. Perchè da allora vieni marcato, non puoi comprare biglietti aerei, del treno, non accedi al sistema scolastico universitario, non ti danno un credito in banca, non ti danno un lavoro.

Secondo libro (anche se è in realtà un racconto lungo diventato famoso anche grazie ad un film con Tom Cruise come protagonista), la “A” (di anticipazione): “The minority report” (“Rapporto di minoranza”) di quel geniaccio di Philip K. Dick (1956). In un futuro prossimo, grazie all’istituzione della polizia Precrimine, che utilizza dei veggenti (i “precog”) in grado di prevedere il futuro per sventare i crimini prima che questi possano essere commessi, non c’è più crimine. Qua siamo ben oltre al Grande Fratello: qua si controlla non quello che hai fatto, ma quello che (forse) potrai fare (ma che non hai ancora fatto). Fantascienza? Se pensiamo ai veggenti, forse (non ce ne voglia il Mago de Nascimento). Se pensiamo all’uso dell’IA, questo è già realtà, venendo utilizzata (a detta di alcuni recenti report) ancora una volta dal governo cinese nella zona turbolente (per il governo centrale) di Xinjiang per mandare in prigione i “potenziali” oppositori. Qua il termine “potenziale” è fondamentale. C’è una specie di leggenda metropolitana che gira ultimamente, che suona più o meno così “La figlia di un mio amico (o sarebbe meglio dire, riprendendo Elio: “di mio cugino”?) ha incominciato a ricevere pubblicità di materiale di gravidanza prima che lei stessa sapesse di essere incinta. L’IA lo ha capito guardando le sue recenti preferenze di spesa on-line”. Ora, non si sa con certezza se questo sia avvenuto veramente o meno (da qua l’alone di leggenda). Il punto è che anche il migliore degli algoritmi di apprendimento automatico, porta con sé sempre un margine di errore non banale (di cui molti si dimenticano), che nel caso dei processi sociali e politici, può ben superare il 50%. Voi vorreste mettere in mano la vostra libertà a questo errore?

Terzo, e ultimo, libro, la “M” (di manipolazione): “Brave new world” (“Il Mondo Nuovo”) di Aldous Huxley (1932). Eugenetica e tecnologie di riproduzione, il tutto al servizio di un nuovo modello di società. Ovvero, oltre che osservare un comportamento, oltre che anticiparlo, possiamo anche cambiarlo? E anche qua, big data e AI la fanno da padroni. Ma attenzione. Come sempre, converrebbe guardare alla luna, più che al dito. Ovvero, più che soffermarsi sull’eventuale ruolo delle fake-news nel far vincere le elezioni a questo o a quello (spoiler: no, non accade. Tranquillizzatevi. Non c’è alcuno studio scientifico che lo dimostri, per tutta una buona serie di ragioni per chi ne sa un po’ di comportamento elettorale), occorre focalizzarsi su altro. Su quello che in economia chiamano il “nudging”, ovvero una manipolazione leggera e saudente, non brusca e volgare, e per questo più efficace. “E’ questo il segreto della felicità e della virtù: amare ciò che si deve amare. Ogni condizionatura mira a ciò: fare in modo che la gente ami la sua inevitabile destinazione sociale” ci racconta Huxley nel suo libro. Tradotto ai nostri tempi: le persone possono abituarsi alla convenienza e ai benefici che i big data e la AI possono produrre, e attraverso ciò adattarsi a come il loro comportamento può essere modellato e influenzato da questa tecnologia (come accade, ad esempio, quando certe offerte di consumo sono fatte su misura su di noi – e noi, invece di sceglierle, ci conformiamo alle stesse). Una “pubblicità mirata” (basata ad esempio sul microtargeting) per un prodotto o per un candidato è conveniente, sia chiaro, ma porta con sé anche dei rischi, di cui spesso non siamo pienamente coscienti.

Ed è proprio questo ultimo punto che ci pone il (gravoso) dilemma dei prossimi anni. Le AI non possono essere separate in buone o cattive. E’ una tecnologia «neutra» che può produrre ogni tipo di risultato a seconda degli interessi di chi la usa. Come ci ricorda lo zio di Spider Man, “da grandi poteri derivano grandi responsabilità”. E allora che fare? Una regolamentazione pubblica potrebbe aiutare o al contrario nuocere? Se i governi democratici hanno l’abilità di regolare, ad esempo, i contenuti accettabili (e il loro uso) sulle piattaforme di social media, cosa implica tutto ciò per il controllo (e l’utilizzo) statale sui dati forniti dai cittadini a queste piattaforme? Si passa dalla padella alla brace? Qua ancora un libro non è stato scritto. E speriamo che, quando accadrà, il finale, almeno per una volta, sia lieto

Condividi tramite