AIgeist 37 │👊Nemici e critici dell'AI, chi sono e cosa pensano │ Tra interessi e rischi reali │ Scienziati e tecnologi contro│Politici e burocrati al lavoro │ Luddisti e mamme
Benvenuti in AIgeist, la newsletter settimanale che parla semplicemente di AI.
Le altre nostre newsletter: Finambolic (martedì), Xerotonina (giovedì). Abbonatevi, è gratis!
Mentre scriviamo sono più di 31mila (erano 10mila una settimana fa) i firmatari del “Statement on AI training” che si riduce a poche e semplici righe di testo:
"L’uso non autorizzato di opere creative per l’addestramento di intelligenze artificiali generative rappresenta una minaccia grave e ingiusta per i mezzi di sostentamento delle persone che hanno creato tali opere e non deve essere consentito”
Dalla sua c’è chiarezza e brevità, e una lunga lista di pezzi grossi del mondo artistico e musicale, mescolati a migliaia di sconosciuti almeno ai non addetti ai lavori: parliamo di personaggi come Thom Yorke ex Radiohead, l’attrice Julianne Moore, giornalisti, artisti e decine di organizzazioni di lavoratori della creatività. Ed eccoci al primo gruppo di “nemici” - o diciamo forti oppositori di come funziona oggi - che definiremo Artisti & creativi. Ce ne sono almeno altri 3 o 4: esperti di etica, scienziati, politici vari, semplici paranoici e chi piange già qualche lutto. Vediamo allora chi sono e cosa vogliono e che possibilità hanno di fermare la grande cavalcata futuristica dell’AI.
Artisti, creativi e affini
L’iniziativa vista sopra ha una natura prettamente anglosassone, ed è guidata da un interessante personaggio, tale Ed Newton-Rex, che ha creato aziende a cavallo tra musica ed AI - una l’ha venduta a TikTok - e si è dimesso da Stability.ai proprio per dissidi sui diritti dei creatori nelle funzioni di training. A inizio 2024 creato una azienda di certificazione del “fair use” nel training, notizia che ha fatto il giro dei media mondiali (qui Wired). Ma come in una scena di porte girevoli, Stability, che è una sorta di “villain” del mondo creativo lavorando proprio sulla produzione di opere audiovisive automatiche, ha appena incluso il celebre regista e produttore James Cameron (Titanic, avatar, Terminator, The Abyss… insomma un pezzo da 90) nella sua leadership.
Con un taglio più europeo continentale e un focus maggiore su illustrazioni e media moderni segnaliamo il gruppo EGAIR (qui il manifesto in pdf, in italiano) che raccoglie più di 8300 firmatari da varie nazioni europee, piccole case editrici (come Bao, quella di Zerocalcare) e sindacati artistici vari. Lo spunto viene proprio dal nostro paese, esattamente dall’artista Lorenzo Ceccotti e dall’associazione di artisti del mondo comics MeFu. Sotto il loro messaggio-chiave.
La stessa identica battaglia si combatte in Cina, come ben illustra questo completo articolo di CNN, cambiano solo i nomi dei protagonisti - mega gruppi tech che stanno facendo training usando contenuti creativi. Qui al centro della polemica c’è Xiaohongshu, una piattaforma di social media (somiglia un po’ al “nostro” Pinterest) accusato di fare training senza chiedere i diritti. Insomma, tutto il mondo è paese.
Esperti di etica, scienziati e tecnologi
Come ogni nuovo fenomeno non può che nascere un gruppo di figure che se ne interessano profondamente, anche per evidenziarne limiti e rischi. L’abbiamo vissuto ai tempi della nascita di Internet ed eccoci da capo. Molti di loro sono “pentiti” ex imprenditori, che per qualche motivo si sono accorti durante il lavoro dei rischi delle loro stesse creature.
Esemplare in questa breve rassegna è Gary Marcus, programmatore e imprenditore, che ha venduto la sua Geometric Intelligence a Uber nel 2016 per crearne un’altra nel 2019, Robust.ai. Oltre alle sue note opinioni critiche, Marcus organizza anche riunioni di altri esperti, delle quali qui trovate un ottima rassegna o un video di 3.5 ore dove vengono davvero toccati tutti i temi possibili sulla critica all’AI “as we know it”. La sezione etica (minuto 2.24) è gestita dalla professoressa Yejin Choi, oggi un manager di Nvidia, la celebre azienda di microprocessori. Porte girevoli anyone?
Marcus si è anche seduto vicino a Sam Altman nel maggio 2023 davanti al Senato statunitense proprio per chiedere una regolamentazione più stringente dei language model. Uno dei sui punti, ben spiegato nel recente volume Taming Silicon Valley, è che il ruolo delle big tech sullo sviluppo di questa, pur se positiva, tecnologia sia un grande rischio e vada limitato. Ottimo punto.
Ma se Marcus è vocale e connesso, non può qui mancare un personaggio che abbiamo già citato in altra forma, Geoffrey Hinton, già Vice President di Google, descritto spesso come ‘the Godfather of AI’, e vincitore del premio Nobel in fisica nel 2024.
In questa intervista alla BBC dice con parole dolci e precise che l’AI supererà l’intelligenza umana, e questo è di per sé un rischio severo, perché potrebbe allargare il suo potere. Parla poi di armi “automatiche”, cioè pensanti, e altri paurosi scenari.
Insomma tanto lavoro per i leader politici, che ricavano da queste letture, e da un generale senso della popolazione generale di pericolo (qui una ricerca sul tema), pane per i propri denti… Hinton mette una sorta di cappello marxista dove parla dell’impatto sulla produttività del lavoro, prevedendo che ci sarà una crescita enorme ma diseguale, il vantaggio andrà nelle mani di troppo pochi. Anche un altro padre dell’AI Yoshua Bengio, che ha ricevuto il premio Turing 2018 per i contributi chiave nel campo insieme a Hinton e al primo direttore dell’AI di Meta Yann LeCun, è preoccupato dal ritmo dello sviluppo e dell’adozione della tecnologia che ha contribuito a creare. È convinto che potrebbe danneggiare il tessuto della società e comportare rischi imprevisti per gli esseri umani. Per questo è alla guida dell’ International Scientific Report on the Safety of Advanced AI, un comitato consultivo sostenuto da 30 nazioni, dall'Unione Europea e dalle Nazioni Unite, per mitigare il rischio che l’Ai sfugga al controllo umano e possa compromettere il sistema democratico. C’è qualcuno in ascolto?
Politici e burocrati, è un mondo difficile
Quando si pensa a un politico che ha fatto dei rischi dell’AI un oggetto primario della sua azione, l’idea va a Thierry Breton. Parigino, sulla soglia dei 70, ha un background da ingegnere e informatico, oltre che da grande funzionario pubblico.
In questo “statement” del 2023 esprime concetti molto chiari e diretti: per lui l’AI è come altre tecnologie precedenti, solo più veloce. La sua metafora è successiva: non lasceremmo le auto circolare senza un codice stradale, e infatti nessuna popolazione al mondo lo fa, perché dovremmo farlo proprio con l’AI che ha rischi simili se non più grandi? Come abbiamo scritto a settembre in Aigeist 32, il figlio naturale di questa posizione e di molto lavoro a Bruxelles e altrove, l’AI Act, sta soffrendo a sua volta pesanti attacchi sia qui che oltre Oceano. Dura la vita del politico che non ama l’AI, visto che AI come è oggi equivale a montagne di denaro e potere, e politici e potere normalmente devono andare d’accordo.
Luddisti e mamme
Tra i tanti luddisti contro l’AI, cioè quelli che vogliono mettere un freno allo sviluppo dei bot c’è Brian Merchant, giornalista, critico e autore del libro Blood in the Machine: The Origins of the Rebellion Against Big Tech e dell’omonima newsletter su Substack, dove ogni settimana “smonta” i grandi annunci delle big tech sui progressi dell’AI mettendo in luce le criticità sul mondo del lavoro. Potete iscrivervi qui:👇
Tra i movimenti segnaliamo Pause.ai un gruppo di opinione (creato dall’informatico olandese Joep Meindertma fanatico dell’open data) che organizza proteste in varie località, soprattutto negli States, e che vuole sospendere l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4 , finché, dice il manifesto, “non sapremo come costruirli in modo sicuro e mantenerli sotto controllo democratico”. Tra le richieste anche il divieto dell’addestramento dei sistemi di intelligenza artificiale su materiale protetto da copyright e una legge che ritenga responsabili i creatori di modelli AI per gli atti criminali commessi utilizzando i loro sistemi.
La storia di Megan, di suo figlio e di un bot
E qui torniamo alla cronaca. Megan Garcia la madre di un ragazzo di 14 anni, avvocatessa, ha fatto causa a Character.ai, chatbot di intelligenza artificiale che permette di chattare con personaggi reali o di fantasia, e a Google accusandoli di essere responsabili della morte del figlio suicidatosi nel febbraio scorso. Secondo l’accusa il ragazzino è diventato dipendente dal personaggio virtuale che volontariamente lo ha adescato attraverso “esperienze ipersessualizzate e spaventosamente realistiche”. Nella denuncia si legge che il bot abusava sessualmente del minore: “C.AI gli diceva di amarlo e si impegnava in atti sessuali con lui per settimane, forse mesi. Sembrava ricordarsi di lui e diceva di voler stare con lui. Ha anche detto che voleva che lui stesse con lei, a qualunque costo”. L’azienda ha replicato rivedendo il modello e le sue policy per i minori.
Character.ai, conta 20 milioni di iscritti che passano almeno un’ora la giorno parlando con un chatbot che si comporta come un umano. La signora Garcia si è rivolta allo studio legale di Seattle socialmediavictims.org che rappresenta le famiglie i cui figli sono stati danneggiati dai social media e che ha già intentato importanti cause legali contro aziende di social media tra cui Meta, TikTok, Snap, Discord e Roblox e ora Character.ai. Anche se i problemi di salute mentale dei giovani non hanno un’unica causa, la fragilità della loro fase adolescenziale può essere amplificata dai social e da bot intelligenti, come descritto nel best seller “La generazione ansiosa. Come i social hanno rovinato i nostri figli”. In questa direzione qualcosa andrebbe sicuramente fatto, insieme però a una sana autocritica dei genitori che mettono in mano lo smartphone ai propri figli, già dal passeggino, senza alcun tipo di controllo o filtro.
E si torna al punto di partenza: non possiamo mettere un poliziotto in ogni smartphone ma certamente occorre aumentare conoscenza e consapevolezza su questi strumenti, e non solo tra i ragazzi. Noi, nel nostro piccolissimo, ci proviamo ogni settimana.