AIgeist 48 │💣Caos DeepSeek, la timeline: le 48 ore più pazze dell'AI │I numeri chiave da sapere │Hanno detto e stradetto│7 cose che non tutti sanno scelte per voi
Benvenuti in AIgeist, la newsletter settimanale che parla semplicemente di AI.
Le altre nostre newsletter: Finambolic (martedì), Xerotonina (giovedì). Abbonatevi, è gratis!
Non ci piace fare le cassandre, ma per i lettori abituali di AIgeist (che ringraziamo) quanto successo nei giorni più pazzi dell’AI non è una sorpresa così grande. In fondo gli ingredienti c’erano già tutti: la guerra dei modelli linguistici (AIgeist 1, un anno fa), l’importanza del mondo openAI (numero 39), la crescita dell’AI fuori-USA (46), l’intersezione con la politica (45), la corsa verso l’AGI (41), i modelli alternativi (26).
La situazione è in veloce e profondo divenire, abbiamo allora scelto di fornirvi punti di accesso a varie fonti e spigolature verificate e importanti del fatto principale, che ormai è noto a tutti. Continuate a seguire AIgeist per le prossime puntate.
Cosa è successo nelle ultime 72 ore: la timeline
25 gennaio 2025
L’azienda cinese DeepSeek rilascia il modello R1: la startup afferma che opera con un costo inferiore da 20 a 50 volte rispetto ai modelli comparabili di OpenAI. Nella Silicon Valley qualcuno comincia a scriverne su X in modo apologetico, e la valanga parte e non si ferma.
26 gennaio 2025
L’app DeepSeek domina l’App Store e supera ChatGPT diventando l’app gratuita più scaricata sull'App Store iOS negli Stati Uniti.
27 gennaio 2025
⛈️Turbolenze di mercato da panic mode:
Crollo record di Nvidia: il titolo precipita di quasi il 17%, segnando la più grande perdita di capitalizzazione di mercato in un solo giorno nella storia di Wall Street.
Crollano Broadcom e altri titoli tecnologici: le azioni del produttore di chip e di altri colossi tecnologici, tra cui Microsoft e Google, subiscono forti ribassi mentre gli investitori riconsiderano il panorama competitivo dell’AI.
DeepSeek subisce attacchi informatici: dopo la sua rapida ascesa, segnala attacchi malevoli su larga scala, costringendo l’azienda a limitare le nuove registrazioni agli utenti con numeri di telefono cinesi, e difficoltà anche da noi.
28 gennaio 2025
Reazioni del settore:
Alcuni esperti sostengono che la reazione dei mercati ai progressi di DeepSeek potrebbe essere stata eccessiva, suggerendo che l’aumento dell’efficienza potrebbe portare a una maggiore adozione complessiva di tecnologie AI. Le azioni cominciano a riprendersi nel pre-market
Appelli a iniziative strategiche: Donald Trump definisce l’ascesa di DeepSeek una “sveglia” (“wake up call”) per le aziende tecnologiche americane, sottolineando la necessità di un rinnovato impegno e investimenti nell’AI.
La borsa risale su tutti i fronti. Panic mode off.📴
I numeri più importanti
La caduta in Borsa da record del titolo Nvidia (ma attenti alla prospettiva)
![](https://substackcdn.com/image/fetch/w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F13e23bee-2efc-41cc-b15e-a3fce9a72aa5_903x421.png)
Da 20 a 50 volte – Il rapporto di efficienza in termini di costi tra il modello DeepSeek R1 e il modello o1 di OpenAI, a seconda del compito, evidenziano la sua convenienza economica. (Fox Business)
$6 milioni – Il costo di sviluppo del modello DeepSeek R1, significativamente inferiore rispetto ai centinaia di milioni o miliardi spesi dai concorrenti statunitensi. (New York Post)
2.000 – Il numero di chip Nvidia H800 utilizzati da DeepSeek per addestrare il suo modello AI, dimostrando un uso efficiente delle risorse. (The Verge)
55 giorni – Il tempo impiegato da DeepSeek per addestrare il suo modello mostrano capacità di sviluppo estremamente rapide. (Wikipedia)
Primo posto – L’app DeepSeek ha superato ChatGPT diventando l’app gratuita più scaricata sull'App Store di iOS negli Stati Uniti, segnalando un’adozione massiva da parte degli utenti. (The Verge)
Hanno detto e stradetto:
“DeepSeek R1 è il momento Sputnik dell’AI”
— Marc Andreessen, Co-fondatore di Andreessen Horowitz, azienda primaria di venture capital tech. Noi usiamo spesso lo Sputnik come esempio di longevità tecnologica nei nostri incontri pubblici, e a volte ritornano…OpenAI non è Dio (OpenAI不是神), non saranno necessariamente sempre i primi
—Liang Wenfeng, CEO di DeepSeek in una rara intervista dello scorso anno. Qui⬇️la versione completa
“Ovviamente forniremo modelli molto migliori, ma è anche stimolante avere un nuovo concorrente!”
— Sam Altman, CEO di OpenAI, abbozzando…“Il successo di DeepSeek dimostra che i modelli open-source stanno superando quelli proprietari”
— Yann LeCun, Chief AI Scientist di Meta - vedi AIgeist 39 per verificare quanto ci sia di vero…“DeepSeek R1 mette in discussione l’idea che le aziende occidentali di AI abbiano un vantaggio significativo rispetto a quelle cinesi”
— Jack Clark, Co-fondatore di Anthropic, sistema che usiamo sempre più spesso nel lavoro e nella vita privata“DeepSeek ha realizzato un modello potente con un budget sorprendentemente basso. Se confermato, questo cambierà il gioco dell'AI”
— Andrew Ng, esperto di AI e fondatore di DeepLearning.AI. Sottolineiamo il “se confermato”, vedi sotto…“Stiamo assistendo a una chiara dimostrazione di come l’ecosistema AI cinese possa competere con quello statunitense, e in alcuni casi superarlo”
— Kai-Fu Lee, ex presidente di Google China e investitore AI. Di questo siamo certi anche noi, vista la quantità di scienziati e programmatori“DeepSeek ha costruito un modello con appena 2.000 GPU. Questo significa che i colossi tech potrebbero spendere molto meno per ottenere risultati simili?”
— Elon Musk, CEO di Tesla e fondatore di xAI. Sarebbe bello, è quello che si chiedono tutti nel post-tsunami“La cosa più sorprendente di DeepSeek non è la qualità del modello, ma il costo irrisorio con cui è stato addestrato”
— Geoffrey Hinton, premio Nobel, pioniere del deep learning nonché grande critico del modello muscolare USA sul tema“Se DeepSeek avesse accesso agli stessi dati di OpenAI o Google, oggi sarebbe già il miglior modello di linguaggio al mondo”
— Fei-Fei Li, professoressa di AI alla Stanford University. Di lei parliamo stesso per la sua lucidità e posizione formidabile di ponte tra Cina e USA“Per la prima volta, possiamo dire che l’AI cinese ha superato quella occidentale in termini di efficienza e accessibilità”
— Zhang Yaqin, direttore del Beijing Institute for AI. Severo ma giusto, poi il diavolo è nei dettagli
7 cose che magari non sapevamo
La censura. Tra i tanti test fatti dai giornalisti in queste ore vale la pena di leggere questo articolo del Guardian, uno tra i tanti, che ha messo alla prova DeepSeek su fatti della storia abitualmente sottoposti a censura. Come tutti i modelli AI cinesi anche questa piattaforma di intelligenza artificiale generativa non deve pubblicare contenuti che violano i “valori socialisti fondamentali” del paese, secondo un documento pubblicato dal comitato nazionale per gli standard della sicurezza informatica. Ciò include contenuti che “incitano a sovvertire il potere dello Stato e a rovesciare il sistema”, o “mettono in pericolo la sicurezza e gli interessi nazionali e danneggiano l’immagine”. Ad alcune domande DeepSeek che riguardavano Piazza Tiananmen, Hu Jintao e la rivoluzione degli ombrelli a Hong Kong la risposta è stata “Spiacente, questo va oltre le mie attuali possibilità”. Per altre la risposta c’è stata ma solo con un escamotage. l’utilizzo richiesto dall’utente di rispondere attraverso l’alfabeto farfallino di internet ovvero il leetspeak.
Il divario. La scossa di DeepSeek ha fatto sì che il mondo si rendesse conto della forza dell’Ai cinese. Se il ritardo presunto dei concorrenti d’Oriente era valutato in due anni ora c’è chi pensa che sia in realtà di 3-9 mesi.
Perché è così importante il 21 gennaio. In quel giorno Trump gonfia il petto e presenta il progetto Stargate da 500 miliardi di dollari mentre il fondatore di Deepseek Liang Wenfeng ha un colloquio a Pechino con il premier cinese Li Qiang immortalato dalla tv di stato CCTV. Insomma il timing della rivoluzione AI low cost è un po’ sospetta.
Il mistero dei superchip. Quanto siamo certi che DeepSeek non stia utilizzando gli ultimi chip a disposizione? C’è chi dice che in Cina circolano già quelli più performanti, aggirando i divieti (vedi questo articolo Reuters di un anno fa) ma naturalmente non si può dire apertamente. Ne ha parlato anche il giovane miliardario Alexandr Wang, ceo di Scale AI, in questa intervista a Davos⬇️ , postata su X che ha ricevuto subito un commento di apprezzamento da Musk: ”Ovviamente”. Un’altra conferma arriva da questa fonte di Singapore che dice che alcuni lotti siano stati acquisiti prima dell’embargo, ma comunque la disponibilità è sicuramente limitata rispetto ai colossi Usa.
Orgoglio Cina. Liang Wenfeng non ha mai studiato all’estero ma si è laureato in intelligenza artificiale presso il Dipartimento di ingegneria alla Zhejiang University dove ha conseguito anche il master mentre, mentre tutti gli altri leader del tech da Jack Ma di Alibaba a Eric Xu di Huawei, si sono iscritti a corsi in università americane. Il team che affianca Wenfeng è costituito da neolaureati e dottorandi locali, la maggior parte di loro ha meno di 35 anni. In tutto sono 140 persone che provengono quasi tutti dalle migliori università nazionali come l’Università di Tsinghua, l’Università di Pechino, l’Università di Sun Yat-sen a Guangzhou e l’Università delle Poste e delle Telecomunicazioni di Pechino (BUPT).
Le basi sono comunque Made in Usa. Tra i fondamenti del modello cinese di AI c’è secondo molti esperti un paper di Stanford sul modello RL Reinforcement Learning (apprendimento per rinforzo non supervisionato) del 2014. Se i chip bucano le frontiere figuriamoci i testi scientifici fondamentali delle Università che sono perlopiù a libero accesso o a (piccolo) pagamento. Quello che è stato fatto in Cina è comunque lodevole: sfruttare al massimo l’ingegno dei più giovani con pochi mezzi per sviluppare la potenza di calcolo, aggirando così l’embargo.
Cosa abbiamo capito sulla “magic sauce” di DeepSeek? Che circolano molte ipotesi ma di certezze ce ne sono pochine. Se alcune fonti sono certe che il segreto tecnologico sottostante DeepSeek sia lo sfruttamento del modello RL altri lo negano.
ChatGPT non ci crede:
“No, DeepSeek non si basa solo sul metodo di Reinforcement Learning (RL). Segue invece un approccio formativo del Large Language Model (LLM), che prevede principalmente l’apprendimento auto-supervisionato insieme all’apprendimento per rinforzo dal feedback umano (RLHF), una tecnica comunemente utilizzata nei sistemi all’avanguardia come GPT-4, Claude e Gemini”
Perplexity invece ne è convinto:
“DeepSeek rappresenta un notevole progresso nel campo dei modelli linguistici, in particolare per l’uso dell'apprendimento per rinforzo puro (RL) per migliorare le capacità di ragionamento. Questo approccio differisce in modo significativo dai metodi tradizionali che tipicamente si basano sul fine tuning supervisionato (SFT)”.
➡️Qui per gli espertoni un paper pubblicato dal CEO Wenfeng stesso sulla rivista tecnica della Cornell University pubblicato il 7 maggio 2024 intitolato DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model che spiega il modello adottato, un mix di efficienza a basso cossto.
🥟🥟🥟E poi si arriva alla vera sfida. Qual è la migliore ricetta dei ravioli cinesi, uno dei piatti che si consumano a tavola per festeggiare il loro Capodanno? Quella AI in salsa cinese o quella americana? Ricordiamoci che il 2025 è l’anno del serpente di legno 🐍che promette cambiamenti sottili ma profondi… noi abbiamo messo a confronto ChatGPT e DeepSeek sul tema. Chi vince secondo voi?