AIgeist 16 š editionāGli ER*XORI da non fare usando l'AI ogni giornoā20+ consigli pratici: a scuola āin ufficio āper creare e...š§ pensare
Benvenuti in AIgeist, la newsletter settimanale che parla semplicemente di AI.
Ogni mercoledƬ alle 7. Le altre nostre newsletter: Finambolic (martedƬ), Xerotonina (giovedƬ)
Il tema ĆØ - Ai senza errori? Proviamociā¦
Dal lavoro allāeducazione dei figli, lāintelligenza artificiale puĆ² esserci dāaiuto in molti compiti e farci risparmiare tempo o darci spunti creativi. Attenzione perĆ² ai passi falsi, vostri e nelle risposte, che a volte tanto intelligenti non sono. Ma a questo serve la nostra di intelligenza, non ĆØ vero? Non parliamo qui delle cosiddette āallucinazioniā (marchiani errori difficili da prevedere) ma di quegli inciampi continui che ci parlano di una tecnologia utilissima ma in divenire.
Nellāeducazione 1 - A casa: occhio (soprattutto) ai minori
Partiamo dallāeducazione a casa. Nonostante ci siano molte piattaforme che intrattengono i bambini con giochi educativi o ricreativi intelligenti, queste devono essere proposte con cautela e con precise regole ma soprattutto non usatele come vostro avatar o baby sitter. I criteri a cui attenersi sono sempre gli stessi, vigilare sulla privacy e mettere dei paletti allāinterazione macchina-bambino poichĆ© come afferma Richard Freed, autore di Wired Child: Reclaiming Childhood in a Digital Age, anche se āsi dice che tu sei lāimmigrato digitale e che i tuoi figli sono i nativi, come genitore devi saper guidare lāapprendimento con questi strumenti. Potresti ammirare gli skill digitali di tuo figlio, ma non confonderli con lāautocontrollo. I bambini non hanno uno sviluppo cerebrale tale da porsi dei limitiā.
Ricordatevi poi che ChatGPT non ĆØ adatto ai bambini di etĆ inferiore ai 13 anni e che, in teoria, OpenAI prevede, per quelli fino ai 18 anni, il consenso dei genitori. Per Bard il requisito minimo ĆØ 14 anni.
š Link: guida per i genitori sull'intelligenza artificiale
š Link: dalla materna alle superiori, quando e come usare lāAI
Nellāeducazione 2 - A scuola: occhio alla qualitĆ
Partiamo con i prof. Negli Usa stanno testando un sistema AI che valuterĆ il loro comportamento in classe. Si tratta di un simulatore (ricorda quello che usano i chirurghi) che valuta il comportamento degli educatori di fronte a studenti virtuali come lāequitĆ nellāapproccio allāinsegnamento e nel rimprovero. Insomma ĆØ come avere il preside dietro la scrivania che osserva quello che fanno e giudica.
LāAI ĆØ comunque giĆ entrata nelle attivitĆ didattiche dalla scuola primaria allāuniversitĆ , anche in Italia. Le fonti su come strutturare lezioni sulle varie materie non mancano, ma ci sono almeno 5 errori che ĆØ meglio evitare come educatori:
Usare ChatGPT come un motore di ricerca
Accontentarsi del risultato del primo prompt
(non) Verificare i bias o le allucinazioni
Mai fidarsi degli strumenti che identificano i lavori fatti con lāAI (non funzionano sempre!!!)
Non essere aperti alla sperimentazione
E come evidenziato in questa eccellente serie di video su YouTube di Rizzoli Education massima attenzione va posta sempre nella verifica delle fonti, soprattutto se si tratta di citazioni o riferimenti a leggi e codici e fatti di attualitĆ (i database non sono aggiornati). Nel dubbio meglio diffidare.
Interessante anche il punto di vista di Hendrik Haverkamp, professore di tedesco e pioniere dellāuso dellāAI in classe che fornisce consulenza alle scuole e al ministero dell'Istruzione di Berlino.Ā In breve il suo pensiero ĆØ che bisogna fare attenzione a non creare gruppi di serie A e B poichĆ© lāintelligenza artificiale migliora il rendimento degli alunni molto bravi ma offre meno benefici agli alunni piĆ¹ deboli che tendono a fare affidamento al copia e incolla. La scuola del futuro sarĆ quella dove lo strumento piĆ¹ potente potrebbe non essere quello con il maggior numero di risposte, ma quello che ci consente di porre le domande giuste.
I consigli che funzionano per i prof, valgono anche per gli studenti, anche se i primi, secondo questa ricerca, lo utilizzano piĆ¹ spesso (negli Stati Uniti il 51% degli insegnanti usa ChatGPT per preparare le lezioni contro il 33% degli alunni per fare i compiti). La prima elementare regola ĆØ naturalmente non usare i tool AI se sono espressamente vietati, la seconda ĆØ non adottarli per verificare errori o inesattezze (potrebbero non essere intercettati) e terza, sacrosanta, il copia e incolla MAI!
Qui una buona guida per gli universitari.
Nel lavoro: occhio a obbiettivi e pigrizie varie
Ma al lavoro? Cosa puĆ² andare male (o peggio)?
Prima di tutto separiamo i nostri ruoli: come lavoratori, per esempio che cercano una nuova opportunitĆ , e come membri di unāorganizzazione, o leader della stessa.
Nella ricerca di lavoro si possono fare tanti errori, lāAI ĆØ un grande aiuto (sa scrivere bene, organizza le informazioni benissimo e ha tanta esperienza) ma ĆØ anche un grave rischio. Cominciamo dal piĆ¹ ovvio: la pigrizia. Come ben scrive questo articolo, se il 45% di chi cerca lavoro (in USA) ha usato lāAI per scrivere il curriculum, Ā ci si ritrova poi con decine di ācover letterā per lo stesso lavoro praticamente identiche.
Facile, il candidato ha fatto ingurgitare a GPT la ājob descriptionā del ruolo e gli ha detto in un banale prompt āscrivimi una cover letterā, senza dirgli di personalizzarla con un āpromptā ad hoc Ā ā almeno ā o migliorarla semplicemente a mano dopo, o fornendogli dati ed elementi di contesto. Errore capitale, anche per nostra esperienza. Ci ĆØ capitato recentemente di dover mandare due āmotivation letterā per partecipare a progetti speciali, non dissimili da un nuovo lavoro, e il risultato immediato ĆØ stato a dir poco modesto - piatto, prevedibile, incompleto. Le abbiamo riscritte entrambe per la quasi totalitĆ su una base fatta di prompt accurati e documenti di supporto. Molto meglio.
Se invece si lavora in una organizzazione, ecco un paio di guide utili. Questa in dodici mosse ci ĆØ molto piaciuta per la sua semplicitĆ .
Secondo noi per chi comincia ora ad affrontare lāAI in azienda due sono particolarmente importanti: Ā il punto due, che recita ānon avere obbiettivi chiari di businessā. Vogliamo risparmiare tempo? Risorse preziose? Vendere di piĆ¹? Aumentare la qualitĆ ? E come si misura? In questo non ĆØ dissimile da qualunque processo di trasformazione tecnologica: idee poco chiare portano a risultati modesti o nulli.
Lāaltro che ci piace ĆØ il cinque: ābassa qualitĆ dei datiā. Lāabbiamo detto spesso in AIgeist, e in inglese suona meglio: āshit in, shit outā. Se nel sistema immettiamo dati incompleti, sporchi, parziali, lāalgoritmo non farĆ altro che ingigantire lāerrore, non lo risolverĆ per magia. Quindi prima di preoccuparci dellāAI preoccupiamoci dei nostri dati e dei nostri obbiettivi, e faremo cosa buona e giusta per il business.
Per gli analitico-timorosi non possiamo che consigliare questo contributo di McKinsey che riporta in facili grafici le aree da tenere sottāocchio quando si fanno progetti AI in azienda. Lāidea di rischio ĆØ peraltro alla base dellāAIact europeo di cui abbiamo giĆ parlato. Il suo schema a blocchi di individuazione del rischio ĆØ utile e pratico per lavorare anche su quanto puĆ² andare storto nelle singole aziende.
Nellāarte: attenti allo spirito del tempo
Provate a chiedere a Dall-E di creare unāimmagine. Anche con un prompt molto descrittivo e preciso gli errori sono evidenti: mani con sei dita (qui la spiegazione del motivo - e chi disegna lo saā¦), piedi mancanti, prospettive impossibili nella vita reale che ci vengono proposte come vere. Per non parlare dei bias, le donne sono tutte magre e bionde, i vecchi hanno tutti i capelli grigi ecc. Lo spunto interessante che ci viene proposto in questo articolo ĆØ invece quello di valutare lāerrore della macchina come un punto di vista inaspettato sulla quale ragionare, una rivelazione di qualcosa fino ad allora impensabile. Un buon punto di partenza, non vera arte. Non ancora almeno, secondo il fotografo Phillip Toledano che utilizza lāAI come strumento creativo. Tra gli scettici cāĆØ, tra gli altri, lāartista e attivista cinese Ai Weiwei che in questo articolo del Guardian spiega perchĆ© lāAI non sarĆ mai una minaccia allāesprit umano. Il dibattito ĆØ aperto.