Skip to main content

Secondo Cambridge, l’Intelligenza Artificiale potrebbe manipolarci. Ecco come

Un nuovo studio realizzato a Cambridge esplora l’emergere dell’economia dell’intenzione, dove l’IA utilizza dati comportamentali per prevedere e influenzare le decisioni degli utenti. Mettendo a rischio la privacy, ma non solo

Un futuro inquietante si delinea all’orizzonte con l’emergere dell’“economia dell’intenzione”, un concetto esplorato dai ricercatori del Leverhulme Centre for the Future of Intelligence (Lcfi) dell’Università di Cambridge. Questo nuovo paradigma potrebbe ridefinire il modo in cui interagiamo con il mondo digitale, trasformando le nostre motivazioni e intenzioni in una valuta preziosa per aziende e inserzionisti.

Fino ad oggi, la cosiddetta “economia dell’attenzione” ha dominato il panorama online, alimentando piattaforme come Facebook e Instagram. Tuttavia, l’economia dell’intenzione promette di superarla, sfruttando strumenti basati sull’intelligenza artificiale per prevedere e manipolare le intenzioni degli utenti in tempo reale. Secondo Jonnie Penn, storico della tecnologia presso il Lcfi, “condividere la propria attenzione è stato il motore dell’economia digitale per decenni, ma il prossimo passo sarà trattare le nostre intenzioni come una nuova valuta, con rischi significativi per la libertà individuale e la concorrenza equa”.

L’economia dell’intenzione è basata sulla capacità delle IA di comprendere, prevedere e manipolare le motivazioni degli utenti. Attraverso dati comportamentali e psicologici raccolti da interazioni digitali, queste tecnologie possono anticipare le nostre scelte future. Ad esempio, un assistente AI potrebbe suggerire un film specifico basandosi sulle emozioni espresse dall’utente o prenotare un ristorante in risposta a una conversazione casuale. Questi modelli non solo leggono i dati, ma li utilizzano per creare esperienze altamente personalizzate. Meta, la società madre di Facebook, ha sviluppato un modello AI chiamato “Cicero”, capace di interagire a livelli umani nel celeberrimo gioco da tavolo Diplomacy. Questo esempio dimostra come le IA possano prevedere le intenzioni degli utenti e influenzare il loro comportamento in base al contesto.

Il rapporto avverte che senza una regolamentazione adeguata, l’economia dell’intenzione potrebbe minare valori fondamentali come elezioni libere eque, un mercato competitivo e una stampa indipendente. Le aziende potrebbero vendere informazioni sulle intenzioni degli utenti al miglior offerente, amplificando le disuguaglianze di potere tra le grandi piattaforme tecnologiche e i consumatori. Un futuro in cui le conversazioni digitali vengono dinamicamente adattate per massimizzare il profitto è già all’orizzonte. Attraverso le IA, gli inserzionisti saranno in grado di creare pubblicità su misura che sfruttano le vulnerabilità emotive e psicologiche degli individui, sollevando interrogativi etici profondi.

Secondo gli autori dello studio, è cruciale anticipare l’impatto dell’economia dell’intenzione prima che diventi una realtà consolidata. “Senza interventi normativi”, avverte Penn, “correremo il rischio di diventare vittime delle conseguenze indesiderate di questa nuova economia”. Per contrastare tali rischi, è necessario sviluppare leggi che proteggano la privacy e garantiscano un uso etico delle tecnologie AI, evitando che l’intelligenza artificiale diventi uno strumento per manipolare le scelte umane a fini commerciali.


×

Iscriviti alla newsletter