AIgeist 18 │Elezioni al tempo dell'AI, pericoli ed eccessi │ La novità TikTok tra accuse e reazioni │Cosa fanno (e non) i big tech contro fake e cattive influenze │ Quiz: sai riconoscere i falsi ?
Benvenuti in AIgeist, la newsletter settimanale che parla semplicemente di AI.
Ogni mercoledì alle 7. Le altre nostre newsletter: Finambolic (martedì), Xerotonina (giovedì)
Il tema è - Elezioni tecnologiche, rischi ed eccessi
Si chiamano Charcoal Typhoon, Salmon Typhoon, Forest Blizzard, Fancy Bear, Emerald Sleet, Kimsuky, ma non sono giochi da tavolo per fanatici o figure dei manga. Il fanatismo c’entra, ma è in versione pericolosa. E non sono neppure i soprannomi dei candidati alle elezioni per uno dei 4 miliardi di abitanti del pianeta che andranno alle urne in questo 2024. Insomma non è tipo “scrivi solo Giorgia” ma è hacking della miglior specie ora “pompato” a colpi di AI. In questo numero viaggiamo nei pericoli, veri o presunti, di intrusioni “nemiche” nelle elezioni, anche tramite calzini-pupazzo. Tenetevi forte e occhio ai falsi - c’è anche il quiz!
![](https://substackcdn.com/image/fetch/w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8b1d9d7c-080d-4acb-b8f4-dd44ced4040a_1292x658.jpeg)
L’anno elettorale per eccellenza
4.2 miliardi di fortunate persone andranno a votare quest’anno. Ecco alcune delle elezioni più importanti: Bangladesh, Indonesia e Taiwan (già effettuate), India, Stati Uniti, Unione Europea, Messico e centinaia letteralmente di altre (qui la lista completa da Wikipedia). Secondo il World Economic Forum e il suo Global Risk Report la possibile falsificazione dei risultati e prima ancora della costruzione dell’opinione pubblica grazie alla tecnologia AI è reale. È successo in passato (vedi l’episodio accorso durante le elezioni slovacche del settembre 2023 quando 48 ore prima dell’apertura delle urne è stata pubblicata una registrazione audio falsa nella quale venivano riprodotte le voci di Michal Šimečka, leader del partito liberale Progressista Slovacchia, e Monika Tódová, giornalista del quotidiano slovacco Denník N.) e succederà ancora.
I contenuti di intelligenza artificiale generativa, a basso costo e con un alto tasso di riproducibilità, funzionano da amplificatore per la diffusione della disinformazione influenzando l’opinione pubblica, esacerbando le divisioni nell’elettorato e minando la fiducia nei processi elettorali.
Nonostante ciò, fa notare il succitato documento, la presenza di notizie, immagini, audio e video taroccate con l’intelligenza artificiale generativa non è di per sé sufficiente a interrompere i processi democratici in un anno elettorale. Nell’attesa che le aziende tecnologiche che sviluppano strumenti AI e le piattaforme di social media che le distribuiscono investano nelle procedure di riconoscimento di questi contenuti, soprattutto se dannosi e fuorvianti-attraverso ad esempio dei watermark-, e i governi progettino leggi che vigilino sulla responsabilità di chi li crea e diffonde, l’azione più importante da fare è rafforzare gli sforzi educativi sull’alfabetizzazione digitale, come ben spiega questo contributo della non-profit Brookings.
Il tema è comunque caldissimo e il sito d’opinione Politico (ora di proprietà dell’editore tedesco Axel Springer) ha affidato lo speciale sempre aggiornato “Bots and ballots” al giornalista tech Mark Scott, per indagare proprio sull'impatto della tecnologia sulla democrazia. Scott che è giunto alla conclusione che quest’ultima non è in pericolo:
“Nonostante i progressi dell’AI siano in continua evoluzione sono ancora convinto che le persone siano più intelligenti di quanto molti di noi pensino. Per quanto sia facile credere che un deepfake di intelligenza artificiale, ben piazzato sui social, possa cambiare la mente degli ignari elettori, non è così che le persone fanno le loro scelte politiche”.
Sempre Politico però ha inserito in questo brillante articolo un bel quiz (lo trovate sotto un’immagine buffa di Putin con e senza occhiali blu). Fate la prova, noi ne abbiamo sbagliati parecchi…
LINK AL QUIZ 👉https://www.politico.eu/article/spot-deepfake-artificial-intelligence-tools-undermine-eyes-ears/
Tutto bene quindi? Per il momento si direbbe di sì. L’intelligenza artificiale è uno strumento agnostico, da utilizzare nel bene e nel male. Come fanno attivisti e fact checker che sfruttano le sue potenzialità per accelerare i processi di verifica. “Sono i robot che analizzano i file e identificano ciò che deve essere controllato” spiega l’argentina Laura Zommer. Qui da noi, aggiunge, “i deepfake in lingua spagnola sono significativamente più rozzi di quelli generati in inglese e quindi si scoprono più facilmente e sono orientati a truffe per estorcere denaro”. Insomma, anche se a volte fa fatica, il sistema regge e non è fuori controllo, basta essere vigili e non cadere nell’hype dell’AI.
Europa e Usa al voto
Ma chi c’è dietro alle campagne di discredito e menzogne che attentano il voto nel mondo? Secondo questo recente studio di 86 pagine intitolato “Foreign Electoral Interference Affecting EU Democratic Processes” commissionato dall’Authority for European Political Parties and European Political Foundations la Russia è responsabile del 61% degli attacchi documentati di influenza nella politica che utilizzano la manipolazione delle informazioni, seguita da Cina, Iran, Arabia Saudita e Emirati Arabi Uniti. Se la narrativa russa è fatta soprattutto di disinformazione e propaganda (vedi il caso del sito Voice of Europe) la Cina, sta utilizzando falsi account sui social media americani per sondare gli elettori attraverso sondaggi su temi divisivi e raccogliere informazioni, continuando a propagare contenuti generati dall’intelligenza artificiale per promuovere e screditare i suoi nemici Taiwan e USA in primis (qui tantissimi esempi raccolti da Microsoft, come nell’immagine sotto) .
La novità TikTok tra critiche e reazioni
Se il ruolo delle cosiddette “big tech” è nuovamente, anzi in modo ancora più forte, in ballo – e vedremo dopo la loro reazione – la vera novità viene dalla Cina e si chiama TikTok. La piattaforma video è stata recentemente oggetto di indagini indipendenti e, da Taiwan agli USA alla vocale presenza di importanti influencer tech, ci sono evidenze che TikTok non è del tutto trasparente in tal senso. A un livello più alto ormai da mesi rimpalla nel dibattito americano il cosiddetto “TikTok ban”, che non è oggetto di questa analisi ma in qualche modo la riguarda. Trump sembra freddino, Biden traccheggia, il Senato l’ha votato, ora andrebbe eseguito ma non si capisce come. L’idea di fondo è che non si può accettare che una piattaforma controllata direttamente dal PCC (Partito Comunista Cinese) possa avere accesso a dati puntuali e statistico-analitici di miliardi di cittadini occidentali, informazioni utili per guidare il consenso attraverso la piattaforma stessa o altri mezzi.
La risposta di TikTok sul “tema generale” è che operano secondo le leggi locali (sottilmente alludendo al fatto che piattaforme come Facebook non hanno fatto meglio in passato, pensiamo a Cambridge Analytica) mentre sul punto specifico si sono immediatamente allineati ai recenti passi dell’Unione europea, incluso l’AI Act, dichiarando la creazione di 28 “Election centers in-app” che monitoreranno in dettaglio quanto succede nella piattaforma, nella quale sarà vietata la pubblicità elettorale (qui la sezione del sito dedicata a queste decisioni). Ribadiscono poi che stanno collaborando con 18 organizzazioni dedicate al controllo della disinformazione, anche al di fuori dei periodi elettorali. E anche se la piattaforma dice di non considerarsi una fonte di news, scopriamo poi che metà dei cittadini UK, per esempio, la usano come tale e il primo ministro britannico vi è appena felicemente sbarcato.
Cosa fanno intanto le altre piattaforme tecnologiche globali?
Il passo che ha fatto più rumore è la creazione molto recente del AI Elections Accord (qui il sito dell’iniziativa, del quale peraltro fa parte anche TikTok oltre a tutti i grandi nomi, da Microsoft a Google a Meta). Si tratta di un insieme di dichiarazioni di principi e di intenti in verità piuttosto generiche, e secondo alcuni non appoggiata su adeguate risorse economiche. Basterà? Gli esperti di sicurezza lo definiscono “simbolico” e “insufficiente” e, una fonte che non abbiamo potuto verificare, parla di 2 milioni di dollari complessivamente investiti, più o meno il costo dei caffè in un ufficio di una big tech all’anno. La presenza della piattaforma di Pechino e di X poi lascia pensare a una grande diluizione dei principi e della capacità di “enforcement”: Elon Musk ha azzerato a settembre il team che si occupava di controllo sulle informazioni elettorali e la disinformazione. Avanti un altro.