AIgeist 51 │L'AI ci rende stupidi? Sì, ma... │Anthropic svela per la prima volta come la usiamo davvero │ Combattere la "pigrizia" artificiale │Le 5 regole d'oro da scaricare e tenere sulla scrivania
Benvenuti in AIgeist, la newsletter settimanale che parla semplicemente di AI.
Le altre nostre newsletter: Finambolic (martedì), Xerotonina (giovedì). Abbonatevi, è gratis!
Nicholas Carr, scrittore americano, è stato tra i primi ad affermare che Internet ci rendeva stupidi. Nel 2008 scrisse un articolo sulla rivista The Atlantic che recitava appunto “Is Google Making Us Stupid?” a cui fece seguire due anni dopo il saggio “The Shallows: What the Internet Is Doing to Our Brains” tradotto in italiano e pubblicato da Cortina Editore con il titolo “Internet ci rende stupidi?” che indagava gli effetti negativi dell’uso della Rete sul nostro cervello. Secondo Carr Internet incoraggia un pensiero frammentato attraverso stimoli continui (notifiche, link ipertestuali, multitasking), compromettendo la capacità di concentrazione profonda necessaria per la lettura critica o la riflessione. Studi citati nel suo lavoro evidenziano come la navigazione web attivi prevalentemente aree cerebrali legate al decision-making rapido, a scapito di quelle coinvolte nell’elaborazione concettuale. Un esperimento del 2008 mostrò infatti che gli utenti dedicavano in media 19 secondi a una pagina web prima di passare ad altro, con un calo del 35% nella ritenzione mnemonica rispetto alla lettura cartacea. Nonostante l’atrofia di alcune competenze, verificata da studi scientifici, come l’uso del GPS che ha ridotto del 27% la capacità di orientamento spaziale, l’utilizzo di Rete ha avuto anche notevoli vantaggi, la civiltà non si è estinta ancora e Internet è ancora uno strumento utile - e per noi bellissimo.
Poi è arrivato l’attacco ai social media. Se lo psicologo Jonathan Haidt ha lanciato l’allarme sugli effetti negativi soprattutto sui più giovani (vedi il best seller “La generazione ansiosa, come i social hanno rovinato ai nostri figli”) sempre Carr nel suo ultimo saggio “Superbloom. Le tecnologie di connessione ci separano? (verrà pubblicato a maggio l’edizione italiana) espone la sua critica alle tecnologie digitali, sostenendo che gli strumenti progettati per connetterci stiano paradossalmente erodendo i confini tra solitudine e socialità, generando un malessere collettivo. La tesi centrale ruota attorno al concetto di "solitudine iperconnessa", dove la proliferazione di dispositivi e piattaforme ha distorto sia l’esperienza dell’isolamento che quella della comunità. La via per tornare in noi e disintossicarci dalla vita digitale suggerisce Carr dovranno essere atti volontari di privazione, anche perché l’algoritmo non lo farà certo per noi.
E tornando agli algoritmi poteva dunque mancare una critica all’AI che aumenta la nostra dipendenza alle macchine? No. Per infrescarvi la memoria andate rileggervi Aigeist 5 dove parlavamo di "enshittification".
Ad affermare che l’utilizzo dei chatbot AI è nocivo ci ha pensato ora Microsoft stessa che ha appena investito una montagna di miliardi per lo sviluppo dell’AI. L’azienda di Seattle, ed è sorprendente, come racconta questo articolo di Bloomberg, ha appena pubblicato la ricerca “The Impact of Generative AI on Critical Thinking”.
Commissionata alla Carnegie Mellon University attesta appunto una perdita delle capacità di pensiero critico tra i lavoratori che utilizzano strumenti di intelligenza artificiale generativa come ChatGPT. Qui sotto trovate la ricerca scientifica completa in PDF ⬇️
E qui un estratto delle conclusioni, tradotto (da ChatGPT, e rivisto da noi):
“Grazie a questo studio, che ha analizzato 936 esempi reali di utilizzo degli strumenti GenAI condivisi dai partecipanti, si è scoperto che i lavoratori applicano il pensiero critico principalmente per garantire la qualità del proprio lavoro, ad esempio verificando i risultati rispetto a fonti esterne. Sebbene l’AI generativa possa migliorare l’efficienza, può però anche ostacolare l’impegno critico nel lavoro, portando potenzialmente a una dipendenza eccessiva dallo strumento nel lungo periodo e a una riduzione delle capacità di problem-solving indipendente. Una maggiore fiducia nella capacità dell’AI di svolgere un compito è infatti correlata a un minore impegno nel pensiero critico.
Quando si utilizzano strumenti di GenAI, l’impegno nel pensiero critico si sposta:
dalla raccolta di informazioni alla verifica delle informazioni;
dalla risoluzione dei problemi all’integrazione delle risposte dell’IA;
dall’esecuzione del compito alla supervisione del compito stesso.
I lavoratori della conoscenza affrontano dunque nuove sfide legate al pensiero critico mentre integrano l’AI generativa nei loro flussi di lavoro. In tal senso, lo studio suggerisce che gli strumenti di GenAI dovrebbero essere progettati per supportare il pensiero critico degli utenti, affrontando “le barriere legate alla loro consapevolezza, motivazione e capacità”.
In breve si sono accorti che bisogna correggere la rotta perché se ci si fida troppo delle risposte in maniera acritica si prendono delle simpatiche cantonate. Se i professionisti che usano ChatGPT nelle aziende perdono la capacità di ragionare e producono scarsi risultati a essere tagliati saranno probabilmente i budget per l’AI. Quindi la sfida per Microsoft è progettare prodotti che riescano a migliorare piuttosto che erodere le capacità umane.
Ma ci sono dei dati che ci dicono cosa sta succedendo? ce lo dice, ed è una prima assoluta, Anthropic
Chi sono questi lavoratori della conoscenza che stanno perdendo colpi smanettando con i bot? Per rispondere a questa domanda possiamo dare un’occhiata al documento “Which Economic Tasks are Performed with AI” pubblicato da Anthropic, la società che ha sviluppato Claude, uno dei più efficaci rivali di ChatGPT, che - ed è una prima assoluta - analizza proprio come viene usata l’AI nella realtà. I dati di questo paper sono estratti attraverso Clio ovvero Cl (aude) i (nsights) and o (bservations), strumento automatizzato come Google Trends che monitora in modo anonimo l’uso del modello linguistico nel mondo reale. Sotto la ricerca completa in PDF⬇️
L’identikit
Anche se la ricerca è in qualche modo limitata, visto che la base dati sono le conversazioni degli utenti solo su Claude tra dicembre 2024 e gennaio 2025, i risultati delineano un identikit preciso. Nel 37,2% dei casi si tratta di addetti che appartengono alla categoria “Computer & Matematical” ovvero programmatori e tecnici informatici, seguiti nel 10,3% delle conversazioni, da giornalisti, comunicatori, pr e professionisti nel campo dell’Arte e Design, da professori e archivisti (9,3%) della categoria “Educational e Library”, addetti all’amministrazione (7,9%) di “Office e administrative”, psicologi, storici e antropologi di “Social Science”, (6,4%) e da analisti finanziari e security manager di “Business” (5,9%). Nel grafico sotto l’identikit completo.
Come viene usato, davvero
Per quel che riguarda l’interazione professionista-bot la ricerca ci fornisce anche un’analisi sui compiti che vengono maggiormente eseguiti da Claude. Il 57% delle conversazioni indicano un utilizzo dell’AI per richiedere spiegazioni su un determinato argomento e quindi potenziando le capacità umane- in gergo Augmentation- (esempio, “mi dici chi ha inventato?” o “cosa vuol dire”…) mentre il 43% per azioni di Automation tipo ( “fai una tabella oppure estrai da questo documento questi dati, scrivimi due righe di codice…”) quindi ripetitive e noiose.
Per quel che riguarda la frequenza d’uso i risultati suggeriscono che l’AI non stia spazzando via intere industrie, né annunciando un’era di disoccupazione di massa. Al contrario, si è inserita nella routine di professionalità basate sulla conoscenza, in particolare nello sviluppo di software e nei lavori correlati alla scrittura, dove svolge il ruolo di assistente disponibile h24. Insieme, questi due domini rappresentano quasi il 50% di tutte le interazioni registrate con l’AI. Più in generale, il 36% delle occupazioni ora la usa per almeno un quarto dei propri compiti, sebbene solo il 4% ne ricorra per oltre il 75% del proprio carico di lavoro.
E a proposito di lavoro editoriale è di questi giorni la notizia che il New York Times ha dato il via libera all’impiego dell’intelligenza artificiale per il suo staff per scrivere testi per i social media, titoli SEO e codice. Il Guardian invece ha ufficializzato la partnership con Open AI, che prevede l’accessibilità dell’archivio dei contenuti del giornale come fonte di ChatGPT e il lancio di un bot interno per sviluppare nuovi prodotti e funzionalità.
Come viene usato nelle aziende, una ricerca europea
A supporto da quanto viene indicato dal paper di Anthropic c’è questo studio dell’Ue “Use of artificial intelligence in enterprises” che ci dice che l’adozione dell’AI nelle imprese europee ha raggiunto il 13,48%, con un forte divario tra le grandi aziende (41,17%) e le piccole (11,21%). I settori più coinvolti sono stati l’informazione e la comunicazione (48,72%), seguiti da servizi professionali e scientifici (30,53%). Tra i Paesi, la Danimarca è in testa con il 27,58%, con la Svezia e il Belgio, mentre verso il fondo alla classifica ci sono Italia (8,20%), Polonia (5,9%) e Romania ultima con solo il 3,07%.
Le tecnologie più utilizzate includono il text mining (6,88%), la generazione di linguaggio naturale (5,41%) e il riconoscimento vocale (4,78%). Le aziende fanno ricorso all’AI soprattutto per marketing e vendite (34,08%), gestione aziendale (27,51%) e, in misura minore, per la logistica (6,12%). Le grandi imprese si distinguono per l’uso di AI nella sicurezza informatica (46,44%) e nei processi produttivi (34,65%).
Le nostre 5 regole d'oro per combattere pigrizia ed errori
Insomma, lo usiamo molto e soprattutto al lavoro, amplifica le nostre capacità ma ci induce secondo gli stessi inventori - vedi Microsoft - a una certa pigrizia critica. Ma non si diceva questo anche di internet, dei social, dei telefonini e quant’altro? E quindi, voi che ci leggete, che strumenti state usando per informarvi anche, con modestia assoluta, grazie a questa newsletter?
Se la prudenza di fronte a una nuova tecnologia non è mai troppa, ci siamo quindi messi come team AIgeist al lavoro per darci noi per primi qualche semplice regola che abbiamo affisso sulle nostre scrivanie.
Ci siamo ispirati a questa fonte e abbiamo creato, con l’aiuto di ChatGPT e qui lo dichiariamo secondo l’ultimo punto del nostro manifesto ETICA, le cinque regole per un utilizzo dell’AI responsabile e consapevole, per mantenere diciamo così “una fase massa del cervello”.
La potete scaricare in PDF (sotto), stampare come un santino da mettere sulla scrivania, tenerlo come promemoria sul desktop o ignorarlo per vedere l’effetto che fa 🧠.
avanti così! Ottimo numero!