Andres (nome di fantasia) è un cittadino rumeno che lavora regolarmente in Italia. Il 20 agosto la Svizzera ha emesso un mandato di arresto internazionale nei suoi confronti. Accusato di furto e violazione di domicilio e in attesa di estradizione, il 24 settembre Andres è stato arrestato e condotto nel carcere romano di Regina Coeli. Era un errore.
Un algoritmo è un procedimento sistematico costruito per risolvere un problema. Una sequenza finita di istruzioni precise, che non fanno altro se non andare da un punto A, il problema, a un punto B, la soluzione. Ma senza un essere umano che ne programma il sistema di funzionamento o che, nei casi più semplici, gli fornisce le informazioni, semplicemente l’algoritmo non esisterebbe. È ovvio? Forse, ma è alla base di uno dei problemi più seri del nostro rapporto con la tecnologia: la totale fiducia in essa.
«Tra i problemi più rilevanti che dà la tecnologia c’è la fiducia incondizionata, che un po’ si basa sul nostro automation bias, che prova a livello scientifico come da sempre gli esseri umani, a parità di condizioni, si fidano sempre di più di una macchina che di un essere umano». Diletta Huyskes, oltre a essere ricercatrice e autrice (Tecnologia della rivoluzione per Il Saggiatore, 2024), è responsabile dell’advocacy della rete di Privacy Network e ha co-fondato ed è co-Ceo di Immanence, società italiana che valuta impatti e rischi delle tecnologie digitali e delle intelligenze artificiali per offrire soluzioni che assicurino etica, non discriminazione e responsabilità. L’urgenza di questo servizio la descrive lei: «Quello che osservo io è che, nella maggior parte dei casi, quando un essere umano viene inserito in un processo o in una qualche forma di automazione la conseguenza è una sua sostanziale deresponsabilizzazione. Mi piace pensare che la mia ricerca possa contribuire a fare luce su quanto di responsabilità dell’essere umano ci sia in quello che le tecnologie fanno. È un meccanismo che va svelato empiricamente: preso quindi caso per caso e mostrato quanto di umano c’era in una decisione o in un risultato che viene fatto passare come automatizzato».
Tornando al caso di Andres, il suo legale ha ipotizzato che alla base della sua accusa ci fosse uno sbaglio della tecnologia che lo ha individuato dentro le immagini del circuito di videosorveglianza, nonostante lui fosse a centinaia di chilometri di distanza, a Roma. Le Cctv, televisioni a circuito chiuso, sono quindi un tassello fondamentale di questa storia e del sistema di sorveglianza di massa nonostante, chiarisce Huyskes, «è stato dimostrato a più riprese che non hanno effetti attenuanti utili alla prevenzione del crimine e alla sicurezza». Le ultime tecnologie di riconoscimento facciale, inoltre, hanno più volte dimostrato di avere tassi di errore molto alti: il caso limite è stato Detroit, nel 2019, con il 90 per cento.
Nell’Unione europea l’AI Act approvato a fine 2023 vincola le tecnologie che usano il sistema di identificazione biometrica. Il parlamento voleva vietarle del tutto ma alcuni Paesi, come la Francia, hanno insistito per creare alcune eccezioni in casi come la tratta di esseri umani e l’antiterrorismo, ma anche crimini considerati «particolarmente gravi».
Per il movimento europeo Reclaim Your Face, i sistemi biometrici sono un mezzo di sorveglianza di massa che utilizza informazioni sensibili sui nostri corpi e comportamenti per identificarci in modo permanente, violando il nostro diritto alla privacy come esseri umani. «Ci trattano come dei codici a barre che camminano», è lo slogan. In Italia dal 6 ottobre la Rete diritti umani digitali è realtà: la coalizione formata da diverse organizzazioni (Privacy Network, The Good Lobby Italia, Amnesty Italia, Hermes Center, Period think thank e Strali) si impegna tramite un manifesto a sensibilizzare l’opinione pubblica sui diritti umani nella sfera digitale. Ma anche a fare pressione perché il governo italiano istituisca un’autorità indipendente e autonoma dalla sfera politica per la governance dell’intelligenza artificiale: «Denunciamo e contrastiamo l’utilizzo dell’intelligenza artificiale per la diffusione di fenomeni discriminatori e di pratiche di sorveglianza di massa attuate in nome di una presunta necessità di maggiore sicurezza».
Il rischio è che gli algoritmi nei circuiti di videosorveglianza, ma non solo, introiettino il pregiudizio di chi li ha programmati. Basandosi su un insieme di informazioni acquisite, il meccanismo tenderà a riprodurre il tipo di società che conosce. Se, per esempio, la maggior parte delle persone arrestate, per colpa o per discriminazione, ha la pelle nera, l’algoritmo tenderà a pensare che è più probabile che ad aver commesso un reato sia una persona con la pelle nera. Anche il caso di Andres potrebbe essere frutto di un errore simile, considerando che in Svizzera la popolazione straniera in carcere rappresenta il 73,4 per cento del totale.
Allora, Reclaim Your Face si chiede: un ospedale dovrebbe rifiutarsi di visitarti perché hai partecipato a una protesta quando eri più giovane? Un datore di lavoro dovrebbe basarsi sulle tue espressioni facciali per decidere se sei idoneo a ricoprire un determinato incarico? La privacy, affermano quindi, è il potere degli individui. La sorveglianza, invece, è il denaro che le grandi aziende guadagnano per sviluppare queste tecnologie e diffonderle: è il cosiddetto capitalismo della sorveglianza. In Italia, le forze dell’ordine utilizzano il sistema Sari (Sistema automatico di riconoscimento delle immagini) che ha due modalità: quella enterprise, che riconosce le immagini, e quella realtime, che identifica tramite video. Nell’aprile 2021, il Garante della privacy ha interdetto l’utilizzo del secondo al ministero dell’Interno. La motivazione è un monito: «Si determinerebbe un’evoluzione della natura stessa dell’attività di sorveglianza, che segnerebbe un passaggio dalla sorveglianza mirata di alcuni individui alla possibilità di sorveglianza universale».