Intelligenza artificiale e big data per preverire i conflitti: quali rischi?

Nel celebre film di fantascienza Minority Report il protagonista interpretato da Tom Cruise si trova alle prese con un sistema di intelligenza artificiale capace di predire gli omicidi prima che accadano, rendendo possibile l’arresto prima che il delitto venga compiuto. Il protagonista viene additato dall’intelligenza artificiale come prossimo omicida e nell’arco del film tenta di dimostrare la sua innocenza.

Quella che al tempo sembrava una tecnologia da film di fantascienza è divenuta negli anni una realtà sempre più concreta soprattutto con i big data e con algoritmi sempre più avanzati, resi tali a loro volta da IA sempre più potenti.

Uno studio pilota pubblicato nel 2018 ad esempio provò che l’intelligenza artificiale riuscì a predire con successo quale studente era più a rischio di compiere atti di bullismo a scuola. Con un mix di interviste, dati demografici e socioeconomici, l’IA riuscì a predire il rischio di bullismo con un’accuratezza del 91%. Il team che ha condotto l’esperimento commentò l’efficacia dell’algoritmo in questo modo

L’algoritmo di apprendimento automatico, basato solo sull’intervista del partecipante, è stato tanto accurato nel valutare i livelli di rischio quanto una valutazione completa compiuta dal nostro gruppo [umano] di ricerca”

Se da un lato questo tipo di tecnologia ha un enorme potenziale per diminuire i crimini e le violenze, i rischi legati all’abuso che le autorità possano attuare è preoccupante. Un altro studio pilota, questa volta nel Regno Unito, ha utilizzato un algoritmo per prevedere quali individui in un database di 200.000 pregiudicati era più a rischio di compiere crimini di alto rilievo in futuro.

Il rapporto del think tank britannico Royal United Services relativo a questo studio pilota ha sottolineato le forti preoccupazioni etiche e legali circa l’uso crescente da parte delle forze dell’ordine di dati analitici per prevedere i crimini. Il think tank, commissionato dal centro governativo britannico per l’etica relativa all’uso dei dati, ha anche sottolineato il forte bisogno di eseguire un’analisi dell’impatto integrata relativa alla protezione dei dati, diritti umani, rischi di discriminazione, accuratezza ed efficacia prima di poter utilizzare questi sistemi.

Progetti ancora più ambiziosi di quelli citati fino ad ora puntano a prevedere i rischi di violenze in Medio Oriente. Un esempio di ciò è il progetto GUARD – Analisi globali urbane per una difesa resiliente, guidato dall’analista Weisi Guo il quale ha affermato: 

Il Medio Oriente è ovviamente interessante e complesso, più che nella maggior parte dei luoghi, perché si trova nel cuore dell’Eurasia, il supercontinente di flusso di informazioni, cultura, risorse e persone, è di gran lunga il continente meglio collegato. Essere nel mezzo significa che, il Medio Oriente, riceve molta più attenzione e usiamo la teoria dei grafici insieme all’intelligenza artificiale per capire quali parti della regione sono più vulnerabili in condizioni politiche e commerciali dinamiche”

La “corsa agli armamenti” relativa a questi sistemi di previsione delle violenze e l’enorme potenziale di profitto che vi è dietro ha portato le regioni più povere a diventare cavie da laboratorio. Un termine che si è utilizzato in questo contesto per definire chi utilizza gli strumenti IA per prevedere le violenze è “meteorologia della violenza” ed il termine sembra ben definire tutti quei tentativi di prevedere il conflitto in aree più o meno sensibili. Nonostante in tutti questi casi i ricercatori coinvolti abbiano ribadito che tutti questi sistemi non possono rimpiazzare l’analisi umana, c’è da chiedersi quanto questo possa essere garantito in paesi dove i diritti dell’individuo vengono messi in secondo piano.

Non è difficile immaginare l’uso che paesi come la Cina farebbero (la Cina in parte già lo fa) di questi strumenti in barba al rispetto dei diritti fondamentali. Inoltre, la competizione fra Stati potrebbe facilmente portare a giustificare come “necessario” il fatto di dover affidarsi completamente al sistema IA mettendo in secondo piano l’elemento umano, magari per garantire una risposta rapida rispetto ad altri Stati e per difendere o promuovere i propri interessi.

Il repentino aumento della capacità dei computer quantistici, la realizzazione sempre più forte dell’importanza dei big data e lo sviluppo in generale delle tecnologie sono tutti elementi che devono far suonare un forte campanello d’allarme e far mobilitare i media, le organizzazioni della società civile per i diritti umani, le istituzioni e i governi per riformare i sistemi legali e renderli capaci di utilizzare l’IA senza esserne sopraffatti, per garantire il rispetto dei diritti e per assicurare che siano gli umani a dettare le linee guida dei risultati degli algoritmi e non viceversa.

Nessun commento

Lascia un commento sull'articolo