Ma ormai le università sfornano equazioni per ogni cosa: per l’amore, per l’eros, per la dieta perfetta e ovviamente per vincere nei giochi d’azzardo. In realtà l’algoritmo disegna le modalità di funzionamento di larghe aree delle nostre organizzazioni sociali, e così redistribuisce poteri. Incarna anzi le nuove forme del potere e ne modifica la qualità. E tutto questo suscita diverse domande. Saremo sempre più intensamente alla mercè delle macchine? Quali sono gli effetti su libertà e diritti, quali le conseguenze sullo stesso funzionamento democratico di una società?
Alle tecnologie dell’informazione e della comunicazione, infatti, è stata attribuita una virtù, quella di rendere la società più trasparente proprio per quanto riguarda la possibilità di controlli diffusi sul potere, su qualsiasi potere. Ma quando l’algoritmo diviene il fondamento stesso del potere esercitato da un soggetto, com’è nel caso assai enfatizzato di Google, e tutto ciò che lo riguarda è avvolto dalla massima segretezza, allora siamo davvero di fronte alla nuova versione degli arcana imperii, che non tutelano soltanto l’attività d’impresa, ma si impadroniscono, direttamente o indirettamente, della vita stessa delle persone.
Come convivere, allora, con l’algoritmo, anzi con le molteplici forme che questa tecnica assume, e con le reti neurali, con l’"autonomic computing", con tutto ciò che affida alla tecnologia la costruzione della nostra identità e così produce nuove, spesso invisibili, gerarchie sociali e insedia "l’algoritmo al potere" (è il titolo di un libro di Francesco Antinucci)? Non lo sappiamo, ma è possibile che, quando telefoniamo a un call center e ci sentiamo rispondere di "rimanere in linea per non perdere la priorità acquisita", siamo già nelle mani di un algoritmo che ci ha classificati come clienti poco interessanti e ci fa attendere all’infinito, mentre è fulminea la risposta per il "buon" cliente. Nella vita quotidiana s’insinua il germe di nuove discriminazioni, nasce il cittadino non più libero, ma "profilato", prigioniero di meccanismi che non sa o non può controllare, ben descritti in un libro curato da Mireille Hildebrandt e Serge Gurvitch e intitolato appunto "Profiling the European Citizen".
Nella società dell’algoritmo svaniscono garanzie che avrebbero dovuto mettere le persona al riparo dal potere tecnologico, dall’espropriazione della loro individualità da parte delle macchine. Una direttiva europea e molte leggi nazionali prevedono che tutti abbiano il diritto di conoscere la "logica applicata nei trattamenti automatizzati dei dati" e vietano ogni decisione "fondata esclusivamente su un trattamento automatizzato di dati destinati a valutare taluni aspetti della sua personalità". Queste norme ci dicono che il mondo dei trattamenti automatizzati delle informazioni non può essere senza regole e che il ricorso all’algoritmo non può divenire una forma di deresponsabilizzazione dei soggetti che lo adoperano.
Sono state messe sotto accusa le "macchine", che non possono difendersi e così diventano un comodo capro espiatorio. Ma l’imputazione impersonale del potere ad una entità esterna non può divenire la via per esercitare un potere senza responsabilità. Certo, l’algoritmo è uno strumento per razionalizzare procedure, calcolare variabili altrimenti difficili da governare, sottrarre decisioni importanti a pressioni improprie. E tuttavia porta con sé anche una difficoltà riguardante l’ampiezza delle variabili da considerare, i caratteri imprevedibili degli accadimenti, quella variabilità storica che ha indotto a dire che "un cavallo non corre mai due volte" per sottolineare i rischi delle scommesse sul futuro. E se questo è vero per il sistema finanziario internazionale, lo è ancora di più quando le decisioni riguardano le persone, diverse l’una dall’altra, collocate in contesti diversi, irriducibili a schemi.
Questa consapevolezza ormai diffusa dovrebbe indurre ad adottare almeno il "principio di precauzione" e a costruire un adeguato contesto istituzionale, oggi assai debole anche perché le norme ricordate sono aggirate o ignorate, per evitare che il rapporto sempre più importante tra l’uomo e la macchina venga governato solo dalla logica economica. Quando la relazione tra i poteri pubblici e privati e le persone viene basata su di un ininterrotto "data mining", sulla raccolta senza limiti di qualsiasi informazione che le riguardi, e affidato poi all’algoritmo, le persone sono trasformate in astrazioni, la costruzione della loro identità viene sottratta alla loro consapevolezza, il loro futuro affidato al determinismo tecnologico. Tutto questo incide sui diritti fondamentali, mette in discussione la libera costruzione della personalità e l’autodeterminazione, imponendo così di chiedersi se e come la società dell’algoritmo possa essere democratica.