Skip to main content

Cosa è Threat Matrix, l’IA che protegge gli atleti delle olimpiadi online

Gli abusi online sono una minaccia crescente per lo sport d’élite. Durante le Olimpiadi di Parigi, un sofisticato sistema di IA consente di identificare e neutralizzare i contenuti offensivi rivolti agli atleti. Fondamentale per garantire il benessere e la salute mentale durante i Giochi ma anche per promuovere un ambiente sportivo più inclusivo

Insulti, molestie e persino minacce di morte: il lato oscuro dei social media non risparmia i campioni dello sport, accompagnando il fervore dei tifosi con una scia di abusi online. In occasione dei Giochi Olimpici di Parigi 2024, anche l’IA è scesa in campo per salvaguardare gli atleti dal cyberbullismo e dalle molestie online.

Secondo una stima del Comitato olimpico internazionale (Cio), le Olimpiadi genereranno oltre mezzo miliardo di post sui social media, senza contare i commenti. Monitorare e analizzare manualmente una tale mole di contenuti sarebbe un’impresa impossibile per qualsiasi team umano (pur dedicando un secondo a ciascun post, servirebbero sedici anni per leggerli tutti). Sotto i riflettori più di 15mila atleti e 2mila ufficiali di gara, esposti a un serio rischio per le loro prestazioni e la salute mentale. Per contrastare questo pericolo, il Cio ha implementato algoritmi di IA basati sul linguaggio naturale, in grado di monitorare e mitigare in tempo reale gli abusi online individuando i contenuti nocivi.

Si chiama Threat Matrix, il software addestrato per identificare i sentimenti e le intenzioni che si celano dietro una porzione di testo, anche in assenza di parole chiave rivelatrici, cogliendo le sfumature di lingue e Paesi diversi. Un progetto congiunto sviluppato dalla commissione atleti e dalla commissione medico-scientifica del Cio. Come spiega Qublai Ali Mirza nell’articolo di Thomas Germain, sistemi avanzati come Threat Matrix vanno oltre la semplice individuazione di post volgari o offensivi ma adottano un approccio multiforme. Attraverso l’analisi del sentiment, sono in grado di rilevare ed elaborare anche il tono dei commenti sarcastici e l’uso di immagini ed emoji che possono alterare il significato di un testo.

Il sistema opera secondo un modello a quattro fasi: approvvigionamento dei dati, elaborazione, revisione umana e input azionabili. Durante i Giochi, Threat Matrix analizzerà i post sui social media in oltre 35 lingue, in collaborazione con Facebook, Instagram, TikTok e X. I commenti offensivi rivolti agli atleti e al loro entourage saranno identificati, classificati in base al tipo di abuso e segnalati a un team di revisori umani, che deciderà le azioni da intraprendere, dalla semplice rimozione del post a misure più severe. Spesso, secondo il Cio, ciò avviene prima che un atleta abbia la possibilità di visualizzare il contenuto offensivo.

L’efficacia di Threat Matrix è stata già dimostrata durante la fase sperimentale dell’Olympic esports week, durante la quale il sistema ha analizzato oltre 17mila post pubblici, identificando 199 messaggi potenzialmente offensivi. Il team del Cio ha poi confermato la natura molesta di questi messaggi, coordinandosi con le piattaforme social per la loro rimozione e il relativo sanzionamento.

Come riportato da Thomas Germain, un recente studio condotto da Emily Hayday, docente di sport business presso la Loughborough University, ha raccolto più di 240mila tweet postati nelle 72 ore successive ad eventi scatenanti delle precedenti Olimpiadi e Paraolimpiadi. Singoli episodi come un rigore sbagliato durante una partita di calcio a il bacio di un olimpionico al proprio partner hanno innescato un’ampia ondata di abusi. Le varie forme di abuso pongono sfide differenti. Alcune molestie informatiche, come i discorsi d’odio basati su razza, sessualità o nazionalità, violano esplicitamente le politiche dei social media e, pertanto, possono essere rimossi, ha spiegato Hayday. Tuttavia, per le aziende tecnologiche risulta più complesso moderare quelle forme di abuso emotivo, che non dipendano dal background di una persona.

Diventati ormai una prassi nel mondo dello sport, la cui storia recente è piena di esempi. Come riportato dal Guardian, la tennista britannica Harriet Dart ha raccontato di essere di essere spesso bersaglio di odio, sia che vinca sia che perda. Secondo quanto riportato dalla BBC, la tennista americana Sloane Stephens ha ricevuto oltre 2mila messaggi offensivi dopo una partita. Durante i Giochi Olimpici del 2022, la pattinatrice cinese Zhu Yi ha affrontato un’ondata di abusi dopo una caduta, con un hashtag offensivo che, in poche ore, ha generato oltre 200 milioni di visualizzazioni sulla piattaforma Weibo. Per Shireen Limaye, capitano della squadra di basket femminile indiana, gli abusi sono stati così pesanti da indurla alla depressione. Il giocatore di rugby Owen Farrell, invece, a seguito del ritiro dal campionato delle sei nazioni, ha ammesso di aver dovuto cancellare i social media per proteggere la propria salute mentale. Infine, la campionessa olimpica di sci alpino Lindsey Vonn ha raccontato di aver ricevuto minacce di morte online, evidenziando la necessità di strumenti come Threat Matrix.

Questo sistema, sviluppato dal Signify Group, era già stato implementato per proteggere i giocatori di Wimbledon dagli abusi online, attraverso l’individuazione e la segnalazione in tempo reale di minacce, insulti razzisti e commenti sessisti in ben 35 lingue diverse. L’iniziativa si era resa necessaria dopo che le campionesse Emma Raducanu e Naomi Osaka avevano espresso pubblicamente il loro disagio, arrivando a considerare l’abbandono di piattaforme come Instagram e Twitter. Anche la tennista britannica Harriet Dart aveva ammesso di limitare l’uso dei social per evitare l’ondata di haters.

Oltre a Wimbledon e alle Olimpiadi, sistemi di intelligenza artificiale simili sono stati utilizzati in altri eventi sportivi come la Coppa del Mondo di rugby e la Coppa del Mondo FIFA. Questi sistemi inaugurano una nuova era per lo sport, facendolo tornare quasi ai tempi pre-social. Sebbene l’IA rappresenti un passo avanti significativo nella protezione degli atleti, è evidente come l’odio online sia un problema sociale che richiede soluzioni più ampie. Threat Matrix è solo una parte di uno sforzo più complesso che deve includere il cambiamento delle norme, degli atteggiamenti e delle aspettative individuali. Come ha dichiarato Kirsty Burrows, responsabile dell’Unità sport sicuro del Cio, alla BBC “Si tratta di adottare un approccio olistico al benessere degli atleti”.

Resta da valutare l’efficacia di questo approccio durante le Olimpiadi di Parigi, ma questo è senza dubbio un primo passo.


×

Iscriviti alla newsletter