Campaign: Diritti umani e libertà fondamentali in rete e per mezzo della rete

Proteggere gli utenti digitali dagli algoritmi

La nostra libertà digitale (ma non solo) è nelle mani degli algoritmi. Formule di calcolo, stabilite a priori da qualche ottimo programmatore, che organizzano, indicizzano, ordinano le informazioni. Gli algoritmi sono sia umani (perché c'è chi li stabilisce) sia informatici.

 

Questa “automatizzazione” della gestione dei dati rischia di avere impatti pesanti sia sulla dignità e sulla libertà degli individui, in relazione al trattamento di dati che li riguardano come soggetti passivi sia, al contrario, sulla loro capacità di informarsi come soggetti attivi.

 

Libertà e dignità, prima di tutto. Pensiamo al caso della cosiddetta “polizia predittiva”, cioè quella tecnica, sempre più diffusa tra le autorità che svolgono indagini e si occupano della pubblica sicurezza in molti Paesi del mondo e non solo in quelli più sviluppati, grazie alla quale si riesce a prevedere statisticamente quali siano le zone (territoriali, per esempio i quartieri) più colpite da quali crimini, o chi siano gli individui più propensi a delinquere e dunque da tenere sotto controllo, e così via. Queste “predizioni” non sono frutto di portentose sfere di cristallo messe davanti a magici ispettori, bensì (solo) risultati di calcoli automatizzati basati su algoritmi complessi. Questi algoritmi consentono alla polizia di elaborare miliardi di dati, effettuare profilazioni e stabilire gradi di probabilità o tendenze. In sostanza, la polizia non fa altro che applicare alla sicurezza ciò che i grandi operatori del web da anni applicano ai consumatori on line, analizzando le loro navigazioni e preferenze, e pronosticando (invogliando, personalizzando) i loro acquisti futuri.

Internet, per questo tipo di analisi predittive, è lo strumento perfetto: per questa ragione, si stanno facendo strada accordi tra grandi operatori privati (social networks, motori, provider di vario genere) e autorità di polizia dei vari Paesi interessati. In poche parole, al social network viene delegata una parte di attività di polizia, e tutti quanti veniamo analizzati e profilati in automatico, non solo per scopi commerciali ma anche per capire se siamo dei (potenziali?) criminali. Tutto ciò avviene in silenzio, e spesso non ce ne accorgiamo. Beninteso, gli obiettivi di sconfiggere pedofilia, terrorismo e altre atrocità sono irrinunciabili e sarebbe scellerato metterli in discussione: ma ogni azione di prevenzione e contrasto deve muoversi nel rispetto dei diritti fondamentali dell'essere umano.

 

La Storia ha insegnato quanto le profilazioni siano pericolose, anche (o a maggior ragione) se legate a chissà quali buone intenzioni. Una profilazione automatizzata, per funzionare, ha bisogno di tre fasi fondamentali: la prima, in cui è necessario raccogliere la massima quantità e qualità di dati relativi ad ogni singolo individuo (che significa archiviare una miriade di informazioni precise e contestualizzate, su gusti, preferenze, idee, spostamenti, ecc., cioè formare un dossier di per sé “esplosivo” per la dignità e la libertà di una persona). La seconda fase è quella dell'elaborazione di questa miriade di dati, che avviene grazie ad un software che ragiona sulla base del (famigerato) algoritmo predeterminato da “qualcuno”. La terza fase, rischiosa per la dignità, soprattutto, consiste nella riconduzione di quello specifico individuo, unico e irripetibile come ogni persona umana, ad un “profilo” più generale, meno unico appunto, al quale apparterranno anche altri individui. In questa terza fase, si semplifica l'identità del singolo e lo si “assegna” ad un gruppo più vasto di soggetti, così forzando e superando la sua speciale peculiarità.

 

Se immaginiamo che tutto questo venga fatto da un'impresa privata, per il solo scopo di fornirci pubblicità personalizzata, dopotutto non ci allarmiamo più di tanto (sebbene questo continuo “ricevere indietro in offerta” ciò che noi già amiamo e preferiamo potrebbe non rivelarsi un toccasana per l'evoluzione umana). Se pensiamo che siano gli Stati (non tutti democratici) con le loro polizie, a fare queste analisi, qualche timore in più lo sentiamo crescere in noi: se, poi, veniamo a sapere che la polizia di uno Stato ha fatto un accordo con questo o quel social network o motore di ricerca, delegando ai privati la funzione di analizzarci e profilarci per finalità di pubblica sicurezza, quel brivido diventa febbre. In democrazia, tutto questo non può e non deve accadere senza che vi sia totale trasparenza pubblica sia sugli accordi sia sugli algoritmi utilizzati, ovviamente, ma di più, aggiungo io, senza che vi sia l'ordine di un magistrato che consenta alle polizie di effettuare, magari con l'aiuto dei privati, siffatte analisi profilanti sul web. La febbre sale, e di molto, se pensiamo che certe “alleanze” tra grandi operatori privati di Internet e delle telecomunicazioni potrebbero stringersi anche in Paesi non democratici, dittatoriali e spesso incuranti dei diritti umani (scenario reso ancora più realistico dalla prospettiva, a mio parere non auspicabile, che al prossimo ITU di Dubai di dicembre 2012 la governance di Internet finisca per cadere sotto la competenza dell'ONU).

 

Venendo al secondo ordine d'impatti, quello che vede l'individuo come soggetto attivo e capace di informarsi su ciò che è “altro da sé”, come direbbe Baudrillard, il tema appare altrettanto rilevante. Un algoritmo di un motore di ricerca o di un social network – pur non essendo questi attività editoriali, poiché non creano né modificano i contenuti organizzati, che sono prodotti da altri utenti – può comunque dipingere un quadro non necessariamente oggettivo della realtà: potrebbe dare più peso e maggiore visibilità a un dato piuttosto che a un altro; potrebbe condannare all'oblio una notizia e renderne immortale un'altra; potrebbe mostrare una critica 100 risultati prima di un'altra di senso opposto. Potrebbe, un algoritmo, intervenire sulla cultura diffusa, favorendo o sfavorendo linee di pensiero, politiche, economiche, filosofiche. Che strumento formidabile di pressione sul popolo, se intervenissero (il congiuntivo imperfetto è ironico) degli accordi tra questo o quel Paese non democratici e un motore di ricerca: gli utenti formerebbero le proprie coscienze vedendo solo certi risultati e non altri, o almeno alcuni dati prima e meglio degli altri. I cittadini conoscerebbero l'identità di altre persone (per esempio, oppositori a questo o quel regime) secondo un quadro composto da informazioni incomplete o viziate. Insomma, la libertà di informazione (che è libertà di informarsi e di informare, anche su di sé) sarebbe prigioniera.

 

Una possibile soluzione a questi problemi, ma solo in contesti democratici, potrebbe essere l'inserimento in Costituzione di precise garanzie e tutele dagli algoritmi, la loro pubblicità normativa, o almeno la “certificazione degli algoritmi” da parte di enti terzi: nessuna disclosure indiscriminata, nessuna pubblicazione degli algoritmi delle imprese private (quelli usati dalle polizie invece sì, andrebbero resi pubblici e trasparenti), quindi nessuna violazione dei segreti e dei vantaggi concorrenziali; basterebbe per esempio solo l'obbligo di sottoporre gli algoritmi via via adottati, nel segreto amministrativo, alle autorità garanti per la data protection dei vari Paesi, così da farne valutare l'effettiva neutralità informativa. Se i big di Internet si facessero “parti diligenti” in quest'ottica, otterrebbero due risultati in un colpo solo: allontanerebbero dagli Stati la tentazione di considerare i motori di ricerca e i social network dei veri e propri editori, cosa che non sono, e insieme darebbero esempio di affidabilità ai propri utenti.

Già, perché non solo gli individui e le persone hanno problemi di identità nel mondo tecnologico: anche le nuove imprese, in particolare quelle che trattano dati e che operano sul web, spesso vengono comprese – in particolare dai regolatori pubblici – per ciò che non sono e non possono essere. Poliziotti virtuali, per esempio.

 

 

C'è un articolo “salva-libertà” nella Direttiva europea del '95, in materia di protezione dei dati personali, che riconosce a qualsiasi persona il diritto di non essere sottoposta ad una decisione che produca effetti giuridici o abbia effetti significativi nei suoi confronti fondata esclusivamente su un trattamento automatizzato di dati destinati a valutare taluni aspetti della sua personalità, quali il rendimento professionale, il credito, l'affidabilità, il comportamento, ecc.: una siffatta decisione, basata su questo genere di trattamenti, tra i quali rientrano tutte le profilazioni automatizzate, può essere presa solo se autorizzata da una legge che precisi i provvedimenti atti a salvaguardare un interesse legittimo della persona interessata. Quell'articolo è recepito nell'art.14 del nostro Codice privacy. Non vedo traccia, tuttavia, di precisazioni su “provvedimenti atti a salvaguardare un interesse legittimo della persona interessata” nel testo che introduce il monitoraggio massivo anti-evasione made in Italy. In Germania, nel 2010, per il tentativo del Governo di avviare un analogo sistema, soprannominato ELENA, si riempirono le piazze di cittadini furenti e l'idea fu abbandonata.

 

Dunque, la nostra identità, fatta anche di rappresentazioni “altre da sé” che chiamiamo “dati”, e la nostra sfera privata sono sempre più in balia degli algoritmi che ne decidono le sembianze, l'estensione, l'accessibilità e la conoscibilità, persino la valutazione nel bene e nel male. Questi algoritmi sono frutto di intelligenza quando vengono ideati e assegnati al programma, ma è intelligenza vera, dopo l'invenzione, ciò che si ripete, sempre uguale a se stesso, e che ripetendosi incide sulle vite di persone vive, umane, imperfette e imprevedibili, diverse da quelle immaginate nell'atto dell'invenzione algoritmica? Non resta che rileggersi il pensiero del giudice Louis Brandeis, uno dei padri americani del diritto alla privacy: "L'esperienza dovrebbe insegnarci a vigilare per difendere la libertà quando le intenzioni del governo sono buone. Gli uomini nati liberi sono naturalmente pronti a respingere violazioni della loro libertà da parte di governanti mossi da fini malvagi. I più gravi pericoli per la libertà si nascondono in abusi insidiosi compiuti da uomini zelanti, bene intenzionati ma privi di intelligenza".

 

Luca Bolognini, presidente Istituto Italiano per la Privacy e founder European Privacy Association

Submitted by

Tags

Voting

-2 votes
Active
Idea No. 123