C’è chi lo chiama Matrix, perché ai cultori delle peripezie di Neo, Morpheus e Trinity evoca il terzo e ultimo film della serie discussa e criticata, ma stravista, Matrix Revolution. Ma ai cinefili ricorda pure molto Minority Report, un film del 2002 di Steven Spielberg con Tom Cruise: in un futuro non troppo lontano, una tecnica fortemente ‘inquinata’ dall’elemento umano riesce a leggere le intenzioni di chi sta per compiere un delitto e consente, quindi, di sventarlo. Ma non tutto funziona liscio.
Così come non tutto funziona liscio in Gran Bretagna, dove decine di polizie locali – almeno 45, ma potrebbero essere molte di più, perché il rilevamento statistico non è completo – usano una tecnica discussa e controversa per predire l’insorgere di problemi e quindi evitare che si producano. Pare un’ottima cosa: evitare ingorghi adeguando momento per momento la durata dei semafori ai flussi di traffico; mantenere in equilibrio l’offerta e la domanda di posti nelle scuole o negli ospedali; capire se in una famiglia, piuttosto che in un’altra, si possano verificare episodi di violenza, abbandoni scolastici, fughe da parte dei minori.
E, allora, di che ci lamentiamo, Matrix o Minority Report che sia? In realtà, le polizie che usano il sistema se ne lamentano poco, anzi lo difendono. Ma uno studio dell’Università di Cardiff, condotto con e per conto di Sky News, dà risultati inquietanti. Di mezzo, ci sono gli algoritmi – e come potrebbe essere altrimenti? – su cui si basano le previsioni: a seconda di come li si sceglie e dei dati con cui li si nutre, cambiano i risultati e l’affidabilità del sistema. Che può anche avere, del suo, tare ‘umane’: chi seleziona i dati e li dà in pasto agli algoritmi può portarsi dietro, magari inconsapevolmente, diffidenze e pregiudizi. E, così, i neri, o i musulmani – lo testimonia per Londra il sindaco Sadiq Khan, origini pachistane, che se ne lamenta -, sono tenuti d’occhio più dei bianchi, anche quando filano dritto.
La denuncia del sindaco è suffragata da un rapporto di Amnesty International, sul database ‘gangs Matrix’ usato da Scotland Yard per indagare le bande responsabili di un’epidemia di accoltellamenti a Londra: atti di violenza a fini di rapina o di bullismo, intimidazioni e scontri fra gangs. Nella lista di circa 3.800 persone collegate alle bande, il 78% sono neri , mentre i crimini di cui i neri sono responsabili a Londra sono il 27% di quelli commessi. E la popolazione è nera solo al 13%. La lista, inoltre, comprende 1500 individui che non hanno mai commesso reati.
Sono tempi in cui la popolarità degli algoritmi non gode eccellente salute: sono divenuti ricettacolo di ogni sospetto e di ogni critica, quasi fossero ‘umani’; e su di loro grava l’accusa d’essere fra i killer della democrazia liberale e rappresentativa, cui c’è chi pensa di sostituire una democrazia soggetta alla verifica della volontà popolare istante per istante. Tanto per restare in Gran Bretagna, pensate ad affidare a un algoritmo il compito di misurare la volontà della popolazione di restare nell’Ue oppure di uscirne: sarebbe un continuo ‘entra’ ed ‘esci’, a seconda degli umori del momento, dell’efficacia dell’ultimo discorso fatto o dell’affidabilità dell’ultimo dato disponibile. Il che, a onor del vero, non farebbe molta differenza con quanto sta succedendo con la Brexit.
E, poi, la gente è sempre meno contenta di come i suoi dati vengono presi, immagazzinati e usati. Certo, basterebbe non lasciarli in giro dovunque. Ma questo è un altro discorso.
La diffidenza verso i logaritmi e la gelosia dei dati sta mettendo in difficoltà e sotto accusa Facebook, costretta, come altri giganti del web, sulla difensiva dalle nuove normative europee e ormai sospettata d’essere una sorta di Spectre, o di foraggiare le nuove Spectre. Figuriamoci se non rischia di travolgere il sistema adottato da 53 Amministrazioni locali in Gran Bretagna e – come detto – dal almeno 45 polizie, di cui 14, fra cui quella di Londra, la più grande nel Regno Unito, lo usano per farsi suggerire quali delitti ritenere probabili e, quindi, quali cercare di prevenire o meno e per farsi indicare in che direzione e/o in che ambienti indagare. Con rischio di discriminazione evidenti, in funzione dei dati immessi.
I sostenitori del sistema ‘tipo Matrix’ affermano che gli algoritmi predicono i problemi e sono efficaci nell’aiutare ad affrontarli e a prevenirli. I critici lamentano che non si sa quanti dati personali servono a nutrire il sistema e che la sua affidabilità non è garantita. Alla base della controversia, c’è la questione se si tratti di uno strumento che migliora la sicurezza o di un’intrusione nella privacy dei cittadini.
Sky News fa l’esempio dell’Amministrazione di Bristol, una città inglese di quasi mezzo milione d’abitanti. Lavorando su dati come la frequenza scolastica, gli interventi sociali, le malattie mentali, le gravidanze precoci e altri simili di 54 mila famiglie, i responsabili comunali possono individuare i bambini a rischio di subire violenze o abusi e di scomparire. Uno di loro, Gary Daviers, assicura che il sistema funziona. Il meccanismo è comparabile a quello con cui Amazon calcola le probabilità di acquisto da parte di un cliente e Facebook o Twitter suggeriscono persone di cui divenire amici o follower o i siti d’incontri propongono l’anima gemella: Amazon ci azzecca spesso e, in fondo, basta un bambino sottratto al rischio di trattamenti degradanti per esserne contenti.
In ogni caso, assicurano i poliziotti inglesi, non è il sistema a decidere che cosa fare, ma sono sempre gli uomini ad avere l’ultima parola. La polizia del Kent si fa suggerire quali casi meritano d’essere indagati a fondo: prima di utilizzare il sistema, indagava sul 75% dei crimini commessi o delle denunce presentate; adesso, ne segue solo il 40%. Potrebbe sembrare un passo indietro, ma, invece, il numero dei casi risolti è aumentato: l’algoritmo indirizza gli agenti a concentrare le forze là dove le possibilità d’ottenere un risultato sono maggiori.
Ma i testimoni a favore del sistema non convincono i detrattori. Jen Persson, fondatrice della onlus Digital Defend Me, sostiene che la gente ha fiducia nei computer e pensa che non sbaglino mai, per cui a conti fatti il giudizio della macchina si sostituisce a quello dell’uomo. Joanna Redden, dell’Università di Cardiff, avverte che c’è un rischio di aumentare “ineguaglianze e discriminazioni”.
Al cinema, l’uomo e il bene, alla fine, trionfano, che sia Matrix o Minority Report. E nella realtà? Un attimo: consulto il mio algoritmo e ve lo dico.