AIgeist 32 │⚔️Attacco all'AI Act!! │Timeline: cosa devono sapere aziende e utenti │Effetto Draghi sull’AI │Le grandi tech in prima linea per ridurre le regole │Sondaggio: tenere duro o negoziare?
Benvenuti in AIgeist, la newsletter settimanale che parla semplicemente di AI.
Le altre nostre newsletter: Finambolic (martedì), Xerotonina (giovedì). Abbonatevi, è gratis!
Cosa ha in comune Mark Zuckerberg con questi capitani dell’industria italiana (oltre al grande portafoglio): Marco Tronchetti Provera di Pirelli, Federico Marchetti di Yoox, Francesco Milleri di EssilorLuxottica, John Elkann di Exor, Lorenzo Bertelli di Prada… Che tutti insieme appassionatamente e in solido con altri CEO di una cinquantina di aziende (tra cui Ericsson, SAP e Spotify), lobbysti, informatici e ricercatori hanno sottoscritto una lettera aperta (qui il testo), pubblicata pochi giorni fa sul Financial Times, dove si chiede all’UE una riforma urgente dell’AI ACT.
Questo pacchetto di norme, dicono i firmatari, potrebbe soffocare l'innovazione e far sì che l’Europa rimanga indietro rispetto al resto del mondo. Una perdita di attrattività delle aziende e anche economica. In soldoni, secondo la ricerca “Is generative AI a game changer?” di JP Morgan, l'AI generativa potrebbe aumentare il PIL mondiale del 10% nel prossimo decennio e ai cittadini dell'UE, affermano, non dovrebbe essere negata questa crescita. La lettera che evidenza le lacune e le mosse necessarie per “non perdere il treno” si chiude con un avvertimento che suona come una minaccia: “Ci auguriamo che i responsabili politici e le autorità di regolamentazione europee si rendano conto della posta in gioco se non si cambia rotta”. Insomma un vero e proprio attacco. Ma intanto la legge va avanti.
Timeline: cosa devono sapere le aziende
Partiamo dal numero speciale di AIgeist del 20 marzo 2024 sull’Ai Act e proviamo a capire cosa è stato fatto e quali sono i passi successivi cercando di costruire una breve timeline utile per chi ha un’azienda o vuole mettersi in regola.
13 marzo 2024: approvazione del Parlamento europeo del regolamento sull'intelligenza artificiale (AI) che si compone di 113 articoli
12 luglio 2024: con la pubblicazione sulla Gazzetta Ufficiale europea l’Ai Act diventa legge
1 agosto 2024: il corpus di leggi è operativa seguendo il calendario di tappe indicato
2 febbraio 2025: viene applicato il primo pacchetto di norme che stabilisce i requisiti e i divieti per l’immissione di sistemi AI proibiti sul territorio europeo (quindi no alla raccolta di dati biometrici senza consenso, no ai dati discriminatori, no alle uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico a fini di contrasto, se non autorizzate ecc.)
2 maggio 2025: sono stabiliti i codici di condotta per le aziende a cui stanno lavorando ora anche i rappresentanti di OpenAi e Google, insieme ad accademici e altri soggetti che stabiliscono le best practice per agire in Europa.
La loro applicazione non sarà operativa prima della fine dell’anno e avrà la forma di checklist che le imprese potranno usare per dimostrare la loro conformità. Un'azienda che affermerà di rispettare la legge, (esempio se non fornirà un report con le fonti utilizzate per addestrare i suoi modelli o se non rimuoveranno i dati immessi senza consenso) ignorando il codice potrebbe andare incontro a questioni legali.
2 agosto 2025: l’AI Act diventa operativo con delle clausole anche per i produttori di AI generativa
2 agosto 2026: tutti gli operatori in sistemi di intelligenza artificiale devono essere in regola (compreso l'allegato III)
2 agosto 2027: applicazione dell'intero atto UE per tutte le categorie di rischio incluso l'allegato II
C’è dunque almeno un annetto per mettersi un regola e, come dice Reuters in questo articolo, quello a cui le aziende tecnologiche stanno lavorando pare sia la diluizione dei paletti a cui dovranno attenersi. Sarà necessario inserire un trademark, obbligatorio da agosto del 2026, per tutti i contenuti generati con l’AI o no?
Nel frattempo OpenAI che ha già sviluppato il marchio in filigrana da inserire in testi, audio, immagini, video sintetici, è in modalità stand by, poiché teme di perdere preziosi utenti. Un sondaggio interno ha evidenziato che quasi il 30% degli utilizzatori di ChatGPT userebbe meno il chatbot se OpenAI inserisse il bollino e un concorrente non lo facesse.
Effetto Draghi sull’AI: cosa dice il report
Mario Draghi ha eseguito il compito affidatagli dalla presidente della Commissione Ue Ursula von der Leyen e ha presentato il 17 settembre all’emiciclo di Strasburgo il suo report sul futuro della competitività europea (qui il testo integrale). E dove ha indirizzato il bazooka stavolta? Proprio sullo sviluppo tecnologico che è indicato tra i tre obiettivi fondamentali per l’UE, insieme a quelli climatici e al rafforzamento della difesa e della sicurezza delle materie prime essenziali.
Nel suo dossier, racconta tra gli altri Wired, Draghi ha sottolineato come l’Unione europea dipenda dai paesi stranieri per più dell’80% dei prodotti digitali, dei servizi, delle infrastrutture e della proprietà intellettuale. Tale percentuale è acuita soprattutto dalla mancanza di chip, la cui industria è dominata da un numero bassissimo di grandi attori e vede il vecchio continente in grave ritardo. Non sono da meno però anche le lacune nel campo dell’ intelligenza artificiale e cloud computing. Per non far aumentare il gap - il rischio è che l’Europa diventi totalmente dipendente dai modelli di IA progettati e sviluppati all’estero - tutti i paesi devono promuovere un coordinamento intersettoriale e la condivisione dei dati attraverso un piano di priorità verticali per l’intelligenza artificiale utile ad accelerare lo sviluppo della tecnologia del momento nei settori ritenuti strategici, ovvero automotive, manifattura avanzata e robotica, energia, telecomunicazioni, agricoltura, aerospaziale, difesa, previsione ambientale, farmaceutica e sanità. Per le aziende coinvolte, l’Unione dovrebbe poi prevedere finanziamenti e agevolazioni. 💶💶💶
E poi arriva la stoccata sull’Ai Act.💥
Infine, sebbene le ambizioni del GDPR e della legge sull’intelligenza artificiale dell’UE siano encomiabili, la loro complessità e i rischi che ne derivano -sovrapposizioni e incoerenze- possono compromettere gli sviluppi nel campo dell’intelligenza artificiale da parte degli attori dell’industria dell’UE. Le differenze tra gli Stati membri nell’attuazione e nell’applicazione del GDPR, nonché sovrapposizioni e aree di potenziale incoerenza con le disposizioni della legge sull’AI costituiscono un rischio delle aziende europee escluse dalle prime innovazioni dell’intelligenza artificiale a causa dell’incertezza dei quadri normativi, nonché oneri più elevati per i ricercatori e gli innovatori dell’UE per sviluppare un’intelligenza artificiale interna.
Dopo lo show di Draghi sono cominciate a cadere le teste a Bruxelles. Il primo parlamentare ha rassegnare le dimissioni, all’indomani della presentazione del dossier, è stato il francese Thierry Breton, commissario europeo al Mercato interno e all’Industria, nemico acerrimo delle big tech e a capo delle commissioni che hanno negoziato numerose leggi digitali fondamentali dell’UE, tra cui il Digital Service Act (DSA), il Digital Markets Act (DMA), il Data Governance Act (DGA e Data Act) e l’AI Act.
Le grandi tech in prima linea
Ma come se non bastasse Draghi, i giganti della tecnologia, tra cui Meta, Google e Microsoft, infilandosi nella turbolenza politica hanno decisamente aumentato i loro sforzi di lobbying contro la prossima legge sull'intelligenza artificiale dell'Unione Europea, concentrandosi in particolare sulla regolamentazione dei modelli di AI fondamentali come ChatGPT. Meta, in particolare, ha acquistato pagine intere di annunci sui giornali europei per esprimere preoccupazioni sul fatto che un'eccessiva regolamentazione potrebbe danneggiare la competitività e l'innovazione europea.
Uno degli aspetti più dibattuti è se la legge sull'AI debba imporre regolamentazioni severe sui sistemi di intelligenza artificiale più avanzati. Meta e altre aziende tecnologiche sostengono che tali regolamentazioni soffocherebbero l'innovazione e impedirebbero all'Europa di tenere il passo con i progressi globali dell'AI.
Come ha dichiarato Sundar Pichai, CEO di Google, nei suoi incontri con funzionari europei: "Abbiamo bisogno di una regolamentazione che permetta all'innovazione di prosperare, gestendo al contempo i rischi che l'AI presenta."
Dall'altra parte del dibattito, i critici avvertono che il lobbying delle grandi aziende tecnologiche rischia di minare gli obiettivi stessi della legge sull'AI. Bram Vranken, del Corporate Europe Observatory, ha espresso preoccupazioni, affermando: "L'offensiva di lobbying dell'ultimo minuto da parte delle Big Tech rischia di far deragliare la legge sull'AI e di mettere a repentaglio i nostri diritti fondamentali di fronte a sistemi di AI opachi e irresponsabili."
OpenAI, la società dietro ChatGPT, è stata attivamente coinvolta nel dibattito sulla legge sull'AI dell'Unione Europea. Sebbene OpenAI, almeno a parole, riconosca la necessità di una regolamentazione, d’altro canto condivide le preoccupazioni di altri giganti tecnologici riguardo al potenziale che una regolamentazione eccessiva possa ostacolare l'innovazione. Il CEO di OpenAI, Sam Altman, ha dichiarato pubblicamente di essere favorevole alla regolamentazione dell'intelligenza artificiale (ma intanto teneva d’occhio con attenzione eventuali sviluppi in tal senso già dal 2023), ma teme che misure troppo rigide possano frenare lo sviluppo di tecnologie AI benefiche. Ha osservato che "l'UE deve trovare un equilibrio tra regolamentazione e innovazione; altrimenti, aziende come la nostra potrebbero dover limitare l'ambito dei nostri servizi in Europa." Facile a dirsi, meno a farsi.
Al centro delle preoccupazioni di OpenAI vi è la specifica regolamentazione dei "modelli fondamentali", come ChatGPT, che sono sistemi di intelligenza artificiale a scopo generale. OpenAI e altre aziende che sviluppano questi sistemi sono particolarmente preoccupate per i requisiti di divulgazione di informazioni dettagliate sui dati utilizzati per addestrare questi modelli. OpenAI ha affermato che tale trasparenza potrebbe rischiare di esporre segreti commerciali, il che sarebbe dannoso per il loro vantaggio competitivo.
Ma c’è anche chi, come Maximilian Gahntz della Mozilla Foundation, sostiene che aziende come OpenAI stiano utilizzando questa richiesta di flessibilità come un modo per evitare la tanto necessaria trasparenza. Gahntz sottolinea che "la legge sull'AI rappresenta la migliore opportunità per far luce su questo aspetto cruciale e illuminare almeno parte della scatola nera," riferendosi alla natura opaca del funzionamento dei modelli di AI come ChatGPT.
E le startup si allineano (e a volte vanno oltre)
Le startup, come la francese Mistral AI, attuale regina del settore in EU, o Aleph Alpha in Germania si sono alleate rapidamente con i giganti della tecnologia, facendo pressioni attraverso iniziative come lettere aperte per promuovere una regolamentazione più leggera, avvertendo che l'AI Act nella sua forma attuale potrebbe soffocare l'innovazione europea. Lo stesso articolo, che usa espressioni forti come “le startup stanno facendo il lavoro sporco per le big tech” e “cavalli di troia”, parla anche di rischiose porte girevoli tra lobbisti, politici e dirigenti aziendali.
Ma nonostante questi investimenti, molti nel settore pubblico, inclusi gruppi di advocacy come il Corporate Europe Observatory citato sopra, continuano a chiedere normative più severe per garantire che lo sviluppo dell'intelligenza artificiale rimanga etico e trasparente indipendentemente dalla dimensione dell’attore.