AIgeist 31 │Dilemma riconoscimento facciale con l'AI, tra rischi e opportunità │ │Lo spunto d'artista│Il business dei selfie rubati │Le app utili │Cosa dice la legge │I (tanti) movimenti anti
Benvenuti in AIgeist, la newsletter settimanale che parla semplicemente di AI.
Le altre nostre newsletter: Finambolic (martedì), Xerotonina (giovedì). Abbonatevi, è gratis!
L’impronta del nostro viso ci appartiene ancora? Probabilmente no. Il riconoscimento facciale non viene utilizzato solo negli aeroporti o dalla polizia. Anche in stazioni, centri commerciali, stadi, concerti siamo sotto sorveglianza: ogni luogo dove c’è un un afflusso di persone considerevole è e può essere monitorato attraverso telecamere AI che riconoscono oggetti e i nostri volti. Ma chi detiene queste immagini e a quale scopo vengono utilizzate? In Uk, ad esempio, la faccia di ogni individuo che sale sui treni in numerose stazioni è stata catturata dal software Amazon come parte di un training di intelligenza artificiale. Il progetto prevede che il sistema di riconoscimento delle immagini sia stato utilizzato per calcolare età, sesso, comportamento ed emozioni potenziali dei viaggiatori, sia per scopi di sicurezza, sia per scopi commerciali. Dove finisce dunque la nostra libertà di movimento nel mondo reale e online e dove inizia il Grande Fratello? Proviamo a scoprirlo, anche grazie all’arte.
Lo spunto d’artista: AI Attacks by Paolo Cirio
Al foam, museo della fotografia di Amsterdam è visibile fino al 27 settembre un’interessante mostra dell’artista italiano Paolo Cirio. Lo scopo delle opere esposte in “AI Attacks” è quello di denunciare come l'Intelligenza Artificiale, i Big Data e Internet vengano utilizzati tatticamente in una guerra dell’informazione che invade la nostra privacy, aumentando pregiudizi e disinformazione.
Attraverso video e fotografie l’artista e hacker torinese ha attaccato diverse istituzioni di proposito per sondare i limiti delle nostre libertà personali, prendendosi molti rischi, promuovendo campagne politiche e trasformando la sua arte in una piattaforma sociale di denuncia.
In Francia ad esempio ha sfidato la polizia prelevando da fonti pubbliche 4000 foto delle facce di poliziotti inserendole nel sito Capture- Police.com, nelle aule dell’università dove insegnava e in strada, invitando gli utenti a scoprirne nome e cognome. Il ministro degli Interni in persona è intervenuto e ha richiesto la censura e la rimozione dell’installazione. L’intento dell’artista era dimostrare appunto quanto il riconoscimento facciale possa essere pericoloso anche per l’autorità che la esercita. Lo stesso pericolo si avverte nell’opera Resurrect. Qui l’intelligenza artificiale viene utilizzata per appropriarsi dell’eredità di quattro mercenari durante la crisi del Congo negli anni '60 glorificati ancora nelle comunità online, nei media e nelle forze armate, nonostante il loro coinvolgimento in vari massacri. Utilizzando foto e materiale d'archivio, la tecnologia deep-fake e Chat GPT i soldati vengono fatti rivivere nei video dove raccontano la loro miserabile vita da veri criminali e nazisti.
Il business dei selfie rubati e i cattivi ragazzi
L’arte a volte anticipa la realtà, in questo caso diremmo che la bracca. Sì perché un’industria fiorente è già nata e cresciuta. Prima di tutto per riempire dei bisogni, ma quali? Questo articolo a cura di una importante azienda dedicata alle tecnologie di sicurezza ne riporta almeno 11.
Tutti molto pragmatici: dal controllo agli accessi negli stadi e negli hotel alla guida di auto a fare un check in in aeroporto. Anche se ovviamente il campo della sicurezza è quello dominante, non foss’altro perché molti Paesi sono refrattari a permettere usi così specifici ma sperimentano in seno alle forze di polizia e agli eserciti – vedremo più avanti su quali basi legali. La più discussa azienda del settore si chiama Clearview, è stata fondata da imprenditori e politici australo-vietnamiti e americani ed è letteralmente nel mirino delle autorità europee per le sue spregiudicate politiche di raccolta dati, in particolare di selfie e immagini individuali. Una ricerca con la keyword “Clearview” sul database della European Data Protection Board trova molte occorrenze di interventi punitivi, multe e quant’altro. Questo articolo spiega solo l’ultimo episodio: una multa comminata dalle autorità olandesi che per sovrammercato hanno tirato in ballo anche manager e direttori, che rischiano grosso e non solo economicamente.
L’accusa è la solita: aver ammassato miliardi di immagini di persone senza il loro consenso.
L’azienda si difende, e in qualche caso anche vince. Una causa simile in UK è finita a favore dell’azienda, anche se per una serie di cavilli legali ben spiegati qui dalla BBC. Ma non c’è solo Clearview: questa lista riporta decine e decine di alternative, e qui parliamo solo di software e piattaforme di riconoscimento.
L’industria è molto più grande, e comprende tanto hardware (telecamere più o meno efficacie, dissimulate, intelligenti), sistemi di trasporto dei dati, storage e quant’altro.
Un fattore trainante sarà l’adozione del riconoscimento 3D, spiega questa ricerca che riporta anche tanti dati impressionanti: ecco infatti quante telecamere ci sono in varie città: Londra 627,000, Taiyuan, China 465,000, Wuxi, China 300,000. Sì avete letto bene: nella capitale inglese ci sono più di 600 mila camere, ma c’è anche chi dice 900mila, una ogni 10 abitanti, e veniamo immortalati 22 volte al giorno.
Le app utili
Insomma, il riconoscimento facciale è (anche) un business che vale già 5 miliardi di dollari ed è in rapida espansione.
In questo mercato operano centinaia di società che vendono applicazioni e software che mappano la nostra fisionomia capaci di contrastare le frodi di identità e utilizzati non solo negli aeroporti, ma anche nella diagnostica clinica, nelle campagne di marketing immersive, come strumenti didattici interattivi o per sboccare il vostro smartphone-pc con la verifica dell'identità tramite selfie. Ecco i più rilevanti.
Jumio: utilizzato ad esempio da Snaitech, come antifrode nelle scommesse e giochi online. L’applicazione utilizza l'intelligenza artificiale, l’apprendimento automatico e la biometria per automatizzare il processo di verifica e convalida di carte e documenti d’identità per transazioni mobili e web.
Face2gene: il tool AI sviluppato dall’azienda FDNA (i fondatori sono quelli di Face.com la tecnologia di riconoscimento facciale acquisita da Facebook) viene utilizzato nei centri di ricerca e strutture ospedaliere e pediatriche per accelerare la diagnosi precoce e i piani di cura per i disturbi genetici e dello sviluppo.
BioID: l’azienda di Nuremberg, (Germania), è tra le pioniere della biometria. Offre una soluzione di verifica dell’identità conforme al GDPR ottenuta tramite servizi basati su cloud e focalizzata sulla protezione della privacy e dei dati degli utenti.
Paravision: il software di riconoscimento facciale si differenzia dalle altre soluzioni grazie amodelli AI. Ha anche un alto livello di precisione ed è veloce. Tra le ultime creazioni l’Age Estimation un’applicazione che impedisce, attraverso il riconoscimento facciale, ai minorenni di comprare alcool online o di accedere ai siti o luoghi riservati agli adulti
Cosa dice la legge
Ma ora veniamo a quanto gli Stati stanno facendo per regolare l’uso di queste tecnologie. Non è semplice trovare online una mappa aggiornata delle situazioni locali, questa è una delle migliori ma alcuni dati non sono certamente del tutto aggiornati.
Come i nostri lettori sanno bene l’Unione europea si è dotata di un documento importante chiamato AI Act (vedi Aigest n. 10) che tra le tante cose che regola include senz’altro applicazioni come il riconoscimento facciale, considerate ad alto rischio nella ormai celebre piramide scelta come metafora dell’adozione sicura delle tecnologie. Questa analisi entra bene nel dettaglio della cosa, e spiega come ci siano ancora vari angoli “grigi”, dove cittadini e organizzazioni che vogliono avere un ruolo possono per così dire infilarsi.
C’è poi il tema del “law enforcement”, insomma l’uso da parte delle forze di polizia e simili. Qui entra in gioco un regolamento ad hoc, sempre europeo, qui ben illustrato (e qui il pdf completo, adottato nel 2023). Il documento riporta vari scenari di uso, e in generale non sembra dare troppo supporto all’idea di poter adottare ampiamente queste tecnologie anche in ambiti di sicurezza.
Una delle aree più discusse della regolamentazione è la possibilità di errori legati al cosiddetto “bias”, vale a dire un pregiudizio per così dire tecnologico verso determinate categorie di persone. Esempio semplice: se il 50% degli arrestati in una data zona sono di colore, l’algoritmo potrebbe dedicare il 50% del suo lavoro di ricerca di un sospetto verso persone di colore, ma questo non rispetta la distribuzione generale della popolazione che, per ipotesi, è 10% di colore e 90% bianchi. L’istituto inglese Alan Turing ha redatto un completo paper sui temi del bias nel riconoscimento facciale (e qui il PDF). Ma c’è anche chi dice che la cosa sia già tecnologicamente superata, e solo un retaggio ideologico “woke”.
Anche in Cina la questione si sta facendo seria, tanto da far intervenire recentemente il Governo centrale con uno “statement” molto netto, reso pubblico a questo link, dopo una diffusione spontanea considerata pericoloso da parte di soggetti privati, come per esempio gli hotel.
Negli Stati Uniti vige ancora una certa anarchia, con regolamentazioni stato per stato, ove possibile, ben mappato qui. Solo quest’anno Washington si è mossa con un intervento dei Democratici, e c’è di mezzo di nuovo Clearview a un paio di errori e arresti non corretti. Questo articolo fa il punto della situazione.
I (tanti) movimenti anti
Intanto ricordiamoci questa data: 26 gennaio. Dal 2006 in questo giorno si festeggia la Giornata della protezione dei dati per ricordare l’anniversario della Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale (ETS n. 108) firmata a Strasburgo proprio il 26 gennaio del 1981. Sono passati più di 40 anni e il protocollo è stato rivisto e ampliato nel 2018 prima dell’esplosione dell’AI. Ma qui siamo a una nuova fase, e con essa sono nate lobby, movimenti e gruppi di azione e protesta peraltro molto agguerriti - nella mostra citata a inizio post uno spazio era dedicato ad esse. Eccone alcune:
European Digital Rights (EDRi): la più grande rete europea di difesa dei diritti e delle libertà online, con sede a Bruxelles, sostenuta da più di 50 organizzazioni non governative.
Reclaim your Face: movimento europeo guidato da organizzazioni della società civile (tra gli altri Amnesty e l’Associazione Luca Coscioni) che vuole vietare la sorveglianza biometrica di massa.
Bigbrotherwatch.com: gruppo di attivisti e ricercatori indipendente, apartitico e senza scopo di lucro, che lotta per le libertà civili e contro i sistemi di sorveglianza intelligenti nel Regno Unito.