Mario Valle Web

Intelligenza artificiale e percorsi educativi

Presentazione al BLA BLA Festival il 20 ottobre 2024.


Buonasera!

Sono molto felice di chiudere questa edizione del BLA BLA Festival qui con voi, anche se in remoto, ragionando su un tema caldo: …

… quello dell’intelligenza artificiale (abbreviata come IA oppure AI per gli amici anglosassoni).

L’IA è nominata dappertutto, dai frigoriferi ai giocattoli. Sembra quasi diventata una nuova forma di “greenwhashing’’, vale a dire, un messaggio pubblicitario fuorviante, come il mettere “verde” o “biologico” solo per vendere di più.

I grandi attori economici, poi, ci vogliono convincere che con l’IA si aprirà un “Radioso Futuro” dove l’IA risolverà tutti i problemi dell’umanità, creerà più lavori di quanti ne elimini e così via. Invece, ci assale il dubbio che usino la nostra ignoranza in materia per venderci qualcosa. Ma è comunque innegabile che l’IA può essere una grande rivoluzione se la affrontiamo nel modo giusto.

Ma veniamo al concreto. Sicuramente ognuno di noi ha provato ChatGPT, il primo sistema di IA conversazionale reso disponibile al grande pubblico quasi due anni fa, o sistemi simili come Claude o HugginChat. Se l’avete fatto, la più comune esperienza in cui vi sarete imbattuti è che…

… questi sistemi spesso prendano delle cantonate colossali. Ci ridiamo su, ma analizzando le reazioni della gente, si vede che …

… in più della metà della popolazione l’IA genera ansia, non buonumore, soprattutto ansia di …

… perdere il lavoro. Sentimento molto forte fra i venditori e gli informatici. Altalenante, ma sicuramente più debole fra gli educatori.

Veniamo, appunto, a noi educatori. Che cosa vorremmo conoscere? Vorremmo avere un’idea di cosa c’è dentro la scatola nera dell’IA e soprattutto vorremmo capire se è veramente intelligente come dicono e se dobbiamo temere che un giorno finisca per superarci. Vorremmo poi farci un’idea dei pericoli e delle opportunità che l’IA può offrire, soprattutto in campo educativo. Ecco perché siamo qua.

Iniziamo scoperchiando un pochino la scatola nera dell’IA.

I primi vagiti dell’IA li troviamo in un lavoro di Alan Turing del 1950 dove si domandava: “Le macchine possono pensare?”, ma il termine “Intelligenza Artificiale” nasce nel 1956 durante una conferenza al Dartmouth College negli Stati Uniti che riunisce le menti più brillanti dell’epoca. Il termine fa subito presa, anche se già allora c’era qualcuno che avrebbe preferito chiamarla “Intelligenza Meccanica”. La storia procede fra alti e bassi fino ai nostri giorni quando…

…viene assegnato nientemeno che il Nobel ai primi ricercatori che hanno studiato le reti neurali che sono alla base di tutta l’IA odierna.

Le reti neurali prendono ispirazione dalle reti di neuroni che compongono il nostro cervello. Una rete neurale è composta da nodi, i neuroni appunto, connessi fra loro. Quando tutti gli input a un neurone soddisfano una certa funzione, questi genera un output che, moltiplicato per un fattore detto peso, andrà all’ingresso di un’altra serie di neuroni. In una rete neurale ci sono vari strati di neuroni (layer), come in figura, che possono diventare tantissimi e collegati in maniere più esotiche quando si parla di Deep Learning (DL). Questa non è l’unica possibile disposizione dei neuroni, ma solo la più nota.

La rete viene addestrata con montagne di dati di cui si sa già il risultato atteso, come nell’esempio. La rete commette errori che servono per affinare i valori dei vari pesi sulle connessioni. È un processo lungo e iterativo che necessita di una elevatissima potenza di calcolo. Pensate che una rete che alimenta ChatGPT ha qualcosa come 1.8 trilioni (milioni di milioni) di pesi da calcolare. Alla fine dell’addestramento, si avrà un sistema che classifica correttamente i dati che gli vengono mostrati, anche se non li ha mai visti.

Sistemi di questo tipo, che vengono raggruppati sotto la denominazione di Machine Learning (ML), li troviamo dappertutto: nel traduttore di Google, nei filtri per lo spam, nei sistemi che ci raccomandano prodotti da acquistare, nelle auto a guida autonoma, eccetera. Insomma, questa forma di IA è ormai entrata nella nostra quotidianità senza far rumore.

Dove invece ha fatto rumore è stato alla cerimonia del Nobel per la chimica, dove sono stati premiati i ricercatori che hanno inventato un sistema di ML avanzato chiamato AlphaFold che permette di scoprire come si ripiegano le proteine dando solo la sequenza di amminoacidi che le compongono.

Sistemi come AlphaFold ci portano alle più conosciute Intelligenze Artificiali Generative. Esempi come ChatGPT o Gemini, che generano testi in base a una nostra richiesta testuale. Oppure Midjourney o DALL-E, che invece generano immagini o AIVA, che genera musica. Tutti questi sistemi hanno al loro interno…

… un modello del linguaggio (detto LLM cioè Large Language Model) addestrato su tutti i testi o immagini che riesce a trovare. Una volta pronto, il sistema prende la tua domanda, chiamata “prompt”, e la trasforma in base al modello di linguaggio fino a tirar fuori una risposta.

Risposte che spesso non hanno senso e che vengono chiamate “allucinazioni” (per non dire di peggio). Del resto, stiamo parlando di un sistema statistico che cerca correlazioni, ma che non comprende il senso di quello che gli viene chiesto.

Ecco che diventa di primaria importanza il porre domande corrette e con quante più possibili informazioni di contesto. È nata addirittura una nuova professione, quella di “prompt engineer” che sa come preparare un prompt che risponda alla domanda dell’utente riducendo per quanto possibile la quantità di non senso generato.

Il problema per noi non è tanto quando il non senso è ovvio, ma quando la risposta viene data con sicurezza e appare coerente e credibile anche se è intrinsecamente sbagliata. Come mi è capitato mentre cercavo una citazione di Maria Montessori. ChatGPT si è inventato un capitolo che non esiste in un libro esistente e un testo che non si trova da nessuna parte. Tralasciamo poi le informazioni mancanti alla fine. Altri sistemi sono più onesti, come Gemini che mi dice che non ha trovato una fonte specifica e mi consiglia come potrei procedere.

Ecco, allora, un primo suggerimento per il nostro futuro lavoro con le IA: insegnare lo spirito critico, insegnare a non spegnere il cervello e accettare supinamente qualsiasi cosa generata dalla macchina.

Le allucinazioni non sono l’unico problema di cui soffrono i sistemi di IA generativa. Spesso riportano fatti non aggiornati, hanno pregiudizi e generano discorsi d’odio, razzisti o pieni di misoginia, che derivano, purtroppo, dal materiale che hanno ingerito che è stato creato da umani.

Gli stessi problemi si hanno nella generazione di immagini, con effetti al limite dell’horror e una preferenza per mani con sei dita.

Da inguaribili ottimisti, pensiamo che aumentando le dimensioni dei modelli linguistici, le cose dovrebbero migliorare. Invece, secondo uno studio pubblicato a fine settembre sulla rivista Nature, sembra che modelli linguistici via via più grandi divengano sempre meno degni di fiducia. Ma allora, …

…viste queste permesse, possiamo ancora dire che questi sistemi di intelligenza artificiale siano intelligenti?

Agire in modo intelligente non significa essere intelligenti. La lavastoviglie di casa lava i piatti meglio di me e, nonostante ciò, non è intelligente checché ne dicano le pubblicità. Le IA scompongono e ricompongono i dati che hanno ingurgitato mostrando correlazioni dove noi non riuscivamo a vedere niente, ma non creano nulla.

Allora, cos’è l’intelligenza?

Per Jean Piaget: “L’intelligenza non è ciò che si sa, ma ciò che si fa quando non si sa”. Intelligenza è saper cambiare e adattarsi. Se vogliamo invece una definizione più formale: “L’intelligenza è una funzione mentale che, tra l’altro, comporta la capacità di ragionare, pianificare, risolvere problemi, pensare in maniera astratta, comprendere idee complesse, apprendere rapidamente e apprendere dall’esperienza. Non riguarda solo l’apprendimento dai libri, un’abilità accademica limitata, o l’astuzia nei test. Piuttosto, riflette una capacità più ampia e profonda di capire ciò che ci circonda – «afferrare» le cose, attribuirgli un significato, o «scoprire» il da farsi.” (Da Wikipedia).

È innegabile che l’IA sia già avanti in molti campi, come il calcolo e l’analisi dei dati. Ma l’intelligenza umana è fatta di emozioni, intuizioni, creatività, cose che le macchine non possono davvero comprendere o replicare. Quindi non chiamerei l’IA intelligente per questi motivi, ma non solo:

  • Non capisce, cerca correlazioni. Sebbene sia ineguagliabile nel trovare modelli statistici, non ha modo di giudicare se i modelli che trova siano plausibili o inutili.

  • Non riesce a risolvere problemi per i quali non è stata progettata.

  • Rigurgita solo ciò su cui è stata addestrata. Ha una limitata capacità di cambiare.

  • È afflitta dai pregiudizi umani che si trovano nel materiale su cui è stata addestrata.

  • L’IA può creare solo ciò che ha già visto, mentre la vera creatività porta a ciò che non è mai esistito e va ben oltre la combinazione di ciò che già esiste.

Se poi consideriamo che l’IA sempre più viene addestrata su materiale generato da lei stessa e non da umani diventando così sempre meno intelligente, si capisce che chiamarla IA è solo un’etichetta di comodo. Lo studio, da cui è tratta l’immagine, mostra il degrado progressivo dei visi generati quando l’IA è addestrata con visi che sono stati creati dall’IA stessa. Malattia giustamente denominata Model Autophagy Disorder (MAD) come il morbo della mucca pazza.

Non solo, anche se non ci sono distorsioni, le risposte divengono sempre più omogenee, i visi divengono sempre più simili tra loro.

Lasciamo perdere per un momento le ultime considerazioni e poniamoci la domanda: “Possono le IA diventare più intelligenti degli esseri umani o addirittura superintelligenti?” In altre parole, dobbiamo averne paura? A mio avviso, per ora no. In futuro, chissà. Certo, questo non vuol dire che non debbano essere regolamentate per non trasformare il campo delle IA in una sorta di Far West.

Un libro che ho letto recentemente (Jeff Hawkins, “Mille cervelli in uno”) dedica un capitolo al futuro dell’intelligenza artificiale in cui mette in chiaro che queste non saranno mai come gli esseri umani perché mancano di alcune caratteristiche. La prima caratteristica mancante è la corporeità e il movimento. “Come abbiamo già visto, per imparare occorre muoversi. Per apprendere un modello di un edificio dobbiamo percorrerlo andando da un ambiente all’altro. Per imparare a usare un nuovo attrezzo dobbiamo tenerlo in mano, girarlo da una parte e dall’altra, guardarlo ed esaminarne diverse parti con le dita e gli occhi”. Quindi come educatori, riportiamo in auge l’uso delle mani e il movimento per i nostri piccoli.

Inoltre, rispetto alla nostra intelligenza, ad oggi i modelli che usano le IA sono statici, mentre noi impariamo dai nostri errori. Poi, le IA non hanno emozioni, potente motore per la nostra cognizione.

Certo, lo sviluppo delle IA è tumultuoso e qualcuna di queste limitazioni verrà superata prima o poi, ma per ora …

… i modelli più avanzati sono a livello di un laureato mediocre, come li giudica il geniale matematico Terence Tao. Possiamo quindi stare tranquilli.

Il pericolo è un altro. Secondo gli autori di questo libro (M. Crippa e G. Girgenti, “Umano, poco umano”) dobbiamo lavorare a migliorare ciò che ci rende umani, come la creatività e l’immaginazione affinché la nostra intelligenza non venga travolta dalle macchine. Perché …

“se pensi e agisci come una macchina intelligente, sarai sostituito da una macchina intelligente”. Quindi, per non avviarci verso un futuro cupo di tirannia delle macchine, dobbiamo seguire il consiglio che dà Charlie Chaplin, ne “Il grande dittatore”: …

“Più che macchinari, ci serve umanità”. Come educatori è un tema su cui lavorare quando ci imbattiamo nell’IA.

Torniamo al mondo delle IA che, come ogni mondo, ha un lato oscuro. Lato che deriva dal fatto che gli attori che si muovono qui…

… sono società commerciali che lavorano in un campo estremamente competitivo. Un campo dove ogni piccolo miglioramento ti mantiene alla testa della gara verso guadagni immensi e dove un piccolo capitombolo ti fa perdere miliardi. Tenendo ben presente questo, …

… quali altri aspetti non sono proprio da considerare encomiabili?

  • L’uso dell’IA porta a un grande dispendio di risorse. Sembra che una singola richiesta a ChatGPT consumi quasi dieci volte l’energia necessaria per una ricerca su Google. Microsoft, Meta, Amazon faranno addirittura ripartire delle centrali nucleari per soddisfare la loro fame di energia.

  • Alcune società sfruttano lavoratori di paesi in via di sviluppo per l’etichettatura delle immagini pagandoli una miseria.

  • L’etica lascia a desiderare. Rubano contenuti mentre dicono che non lo fanno. Senza contare le ripetute violazioni di copyright e la sottrazione di dati personali.

  • Rendono facile la diffusione di bufale e false immagini e filmati senza che ci sia un qualche meccanismo di controllo.

  • È possibile utilizzare l’IA per scopi malvagi: oggi la disinformazione, un domani armi e sorveglianza.

Per chiedere di mettere ordine in tutto questo, la società Saidot, ha lanciato una campagna globale per sensibilizzare sui rischi nascosti dell’IA. La campagna, intitolata “Qual è il tuo sesto dito?”, prende spunto da un noto difetto dei modelli di IA generativa: la tendenza a produrre immagini di persone con dita extra. Questo “sesto dito” diventa così un potente simbolo dei rischi spesso trascurati nello sviluppo e nell’implementazione dei sistemi di IA. Purtroppo, temo ci siano troppi soldi in gioco per auspicare buon senso.

Abbiamo dato un’occhiata dentro la scatola nera dell’IA, ai suoi vizi e virtù per essere consapevoli di cosa può o non può fare. Ora veniamo a quello che più ci interessa: se e come inserire l’IA nel nostro lavoro educativo.

Come in tanti altri campi che toccano le persone, non facciamoci ingannare dalle soluzioni tecnologiche proposte come modo rapido per risolvere problemi complessi. Il problema tutto umano che l’AI non risolverà mai è l’umanità stessa, la nostra natura. E poi in ogni caso siamo noi a dover applicare le soluzioni che un’IA ci propone.

Quando si presenta un nuovo prodotto bisogna generare sorpresa, ammirazione, superare le aspettative, presentare le novità in modi inaspettati. Appunto, l’effetto “WOW!”. E questo lo sanno fare egregiamente i grandi attori del mondo IA. Come sempre dobbiamo esercitare un sano spirito critico, non entrare in “modo zombie” spegnendo il cervello. In fondo le IA Generative non sono degli oracoli.

Se non contrastiamo questo effetto, il rischio è che ci facciamo influenzare dalla macchina, come analizzato in una ricerca dal titolo piuttosto buffo: “Ehi Google, va bene se ti mangio?” che esplora come i bambini reagiscono di fronte a un assistente vocale come Alexa o Siri. La ricerca mostra che per i bambini al di sotto dei dieci anni l’idea che un assistente vocale sia una macchina non è chiarissima. I bambini tendono a sovrastimare le capacità delle macchine perché, quando vedono un robot capace di fare qualcosa in maniera infinitamente più veloce di loro, è facile rimanerne impressionati. I più piccoli potrebbero quindi rischiare di farsi influenzare nei loro comportamenti dai consigli di una macchina tanto quanto si farebbero influenzare dai consigli di un adulto. E questo temo accada anche a noi, persone cosiddette mature.

Secondo, ricordiamoci che educazione e apprendimento sono due cose distinte. E che gli allievi non sono solo dei vasi vuoti da riempire, in cui l’adulto è “causa” della formazione e il bambino il “prodotto”. Gli attuali sistemi di IA sono bravissimi a estrarre conoscenze, ma noi vogliamo educare i nostri giovani a un uso consapevole ed etico di questi strumenti.

Se ci limitiamo a utilizzare l’IA generativa come un modo per migliorare la trasmissione di informazioni siamo sulla strada sbagliata. Uno studio sperimentale dimostra che l’intelligenza artificiale generativa può danneggiare l’apprendimento perché, anche se migliorano i risultati immediati, peggiora significativamente l’apprendimento a lungo termine.

Sicuramente, non vogliamo arrivare alla situazione assurda in cui gli studenti usano l’IA per fare i compiti e gli insegnanti usano l’IA per correggerli! È ovvio che così facendo nessuno insegna e nessuno impara. Una situazione del genere non possiamo affrontarla rimanendo ancorati a una concezione della scuola basata su voti e compiti.

Ecco un esempio recente. Questo articolo riporta la preoccupazione per i compiti a casa svolti da ChatGPT, ma non mette minimamente in discussione se dare compiti a casa sia nell’interesse dello studente. Un atteggiamento che, rapportato alla tecnologia, …

… porta a vietare invece di capire ed educare. E questo non aiuta la formazione dei nostri giovani. Non aiuta nemmeno a far loro conoscere questi strumenti per poterli usare in modo consapevole ed etico.

Certo, si pensa che l’applicazione più concreta dell’IA nell’educazione sarà quella di creare tutor intelligenti che permettano una personalizzazione dell’apprendimento rendendo l’IA un assistente dell’insegnante, non un sostituto. Oppure, come ho visto fare, utilizzare l’IA per creare il piano per un ciclo di lezioni. Un altro approccio è quello sperimentale: provare a inserire l’IA nell’insegnamento, lavorare con i discenti per capire dove aiuta e dove diventa un ostacolo, stabilire dei punti fermi, come chiarire fin da subito gli aspetti etici dell’IA. È quanto mette bene in evidenza …

… questo documento dell’UNESCO che dà alcuni spunti riguardo alle competenze che dovrebbero avere gli insegnanti. Fra queste spicca l’etica dell’IA per promuoverne un uso responsabile.

Comunque la vogliamo girare, dobbiamo, prima di ogni competenza tecnologica, acquisire la capacità di cui parla Alvin Toffler nel suo libro “Lo Shock del Futuro”: “Gli analfabeti del ventunesimo secolo non saranno quelli che non sanno leggere e scrivere, ma quelli che non saranno in grado di imparare, disimparare e imparare di nuovo”. Perché, …

… come scriveva Eric Hoffer: “In un’epoca di cambiamenti drastici quelli che apprendono erediteranno il futuro. I dotti di solito si trovano ben equipaggiati per vivere in un mondo che non esiste più.” (“Reflections on the Human Condition”, 1973). Vedervi qui mi dice che voi siete fra quelli che apprendono.

Queste considerazioni che stiamo vedendo apparentemente non toccano l’utilizzo delle IA nell’educazione, ma, nonostante ciò, sono a mio avviso delle lezioni fondamentali per navigare queste tecnologie e renderle veramente educative.

Ritornando al campo di nostro interesse, la prima considerazione da fare riguarda il saper porre le domande giuste. Chi fa domande rimarrà in corsa, chi dà solo risposte sparirà, surclassato dalle IA. Picasso sintetizzava tutto ciò nella famosa frase: “I computer sono inutili. Possono solo darti risposte” che ricorda un’altra famosa citazione, attribuita a Lady Ada Lovelace, la prima programmatrice della storia, che affermava: “La Macchina Analitica [di Charles Babbage] non ha alcuna pretesa di dare origine a nulla. Può fare tutto ciò che sappiamo ordinargli di eseguire”. Dobbiamo quindi essere curiosi e sviluppare le nostre conoscenze per riuscire a creare i giusti “prompt”.

Secondo il grande statistico John Tukey (che tra l’altro ha coniato tanti termini ora di uso comune come bit e software): “L’unico meccanismo per suggerire domande è esplorare”. Che vuol dire, appunto, fare esperienze, essere curiosi, crearsi una cultura.

Tutto ciò è profondamente umano, come ci ricorda …

… Steve Jobs. In un’intervista del 1995 in cui gli fu chiesto: “Alcuni dicono che questa nuova tecnologia, è forse [la cosa più importante nelle scuole] …” subito Jobs interruppe l’intervistatore: “Io assolutamente non lo credo […] ho aiutato con più computer in più scuole di chiunque altro al mondo e [sono] assolutamente convinto che [la tecnologia] non sia affatto la cosa più importante”. E continuò spiegando: “La cosa più importante è la persona. Una persona che suscita e nutre la vostra curiosità. E le macchine non possono farlo nello stesso modo in cui possono le persone”. Questo credo possa diventare una nostra aspirazione come educatori in un mondo abitato dalle IA.

Bene. Guardiamo ora a come noi e i piccoli che ci sono affidati agiamo. A noi adulti interessa il risultato delle nostre azioni e di come sia stata efficiente la loro esecuzione. Al contrario, al bambino non interessa il risultato della sua azione: a lui interessa il processo, vuole provare e riprovare finché viene soddisfatta una sua esigenza interiore. Ecco, allora, che focalizzarsi solo sui risultati (compiti e voti) piuttosto che sui processi di apprendimento, rischia di automatizzare pratiche educative cattive anche con la migliore tecnologia. In altre parole, se stiamo valutando l’IA nell’educazione, dovremmo focalizzarci su ciò che migliora l’apprendimento, non sul fatto di avere più materiale prodotto o essere alla moda. Perfino Einstein era d’accordo: “Apprendere significa sperimentare, il resto è solo informazione”.

Se ora torniamo a considerare come vengono addestrate le reti neurali, vediamo che…

… l’errore vi svolge un ruolo chiave. Anche nell’educazione dovrebbe essere così, tanto che Maria Montessori lo chiamava “Il Signor Errore”. IA o meno, come consideriamo lo sbaglio nel lavoro educativo? Qualcosa da stigmatizzare oppure un’occasione di apprendimento? Non vorremmo mica essere più indietro delle IA!

Infine, l’importanza della concentrazione. Un po’ di anni fa lo psicologo Mihály Csíkszentmihályi iniziò a studiare lo stato di profonda concentrazione in cui a volte le persone si ritrovano e lo chiamò stato di “flow”. Nei suoi studi ricavò pure le caratteristiche di questo stato e le condizioni necessarie per il suo instaurarsi. Al riguardo, quello che però notiamo è che, quando si lavora con una IA, …

… è proprio difficile instaurare questo stato di concentrazione profonda. Peccato perché, scriveva Montessori, “La prima premessa per lo sviluppo del bambino è la concentrazione. Il bambino che si concentra è immensamente felice.” E questo vale anche per gli adulti.

Ecco, abbiamo visto alcuni aspetti dell’educazione che, pur sembrando lontanissimi dall’IA, reputo necessari affinché l’uso di questi sistemi nell’educazione non vada a detrimento di quest’ultima.

Concludiamo. L’IA c’è per rimanere, anche nel mondo educativo. Maria Montessori lo scriveva, riferendosi alla tecnologia del suo tempo, nel 1947 nella prefazione a un libro indiano sulla tecnologia nelle scuole. Ma subito dopo …

… riaffermava con forza che il primato, senza eccezioni, deve essere dato allo sviluppo del bambino completo e che i mezzi tecnologici non sempre sono all’altezza del compito.

Quindi non spaventiamoci o spegniamo il cervello di fronte a queste tecnologie, anche se a volte appaiono piuttosto inquietanti. Cerchiamo invece di capire e trovare dove e come possano essere utilizzate nel lavoro educativo. Ma soprattutto pensiamo a come educare i nostri “abitanti del futuro” che con le IA ci dovranno convivere e …

… lavoriamo affinché l’IA divenga un assistente del talento umano, non un sostituto che ci faccia perdere la nostra umanità.

Grazie per la vostra attenzione!

 

Riferimenti utili

ChatGPTchatgpt.com
Claudeclaude.ai
Geminigemini.google.com/app
HuggingChathuggingface.co/chat
Midjourneywww.midjourney.com
Dall-Ewww.dall-efree.com
Will Robots Take My Job?willrobotstakemyjob.com
Jeff Hawkins, “Mille cervelli in uno — Nuova teoria della mente”, Il Saggiatore (2022)www.ilsaggiatore.com/libro/mille-cervelli-uno
Mauro Crippa, Giuseppe Girgenti, “Umano, poco umano — Esercizi spirituali contro l’intelligenza artificiale”, PIEMME (2024)www.edizpiemme.it/libri/umano-poco-umano
Gerd Gigerenzer, “Perché l'intelligenza umana batte ancora gli algoritmi”, Raffaello Cortina Editore (2023)www.raffaellocortina.it/scheda-libro/gerd-gigerenzer/perche-lintelligenza-umana-batte-ancora-gli-algoritmi-9788832855029-3889.html
S. Druga, R. Williams, C. Breazeal, and M. Resnick, “‘Hey Google is it OK if I eat you?’: Initial Explorations in Child-Agent Interaction,” in Proceedings of the 2017 Conference on Interaction Design and Children (IDC ’17), New York, NY, USA: ACM, 2017, pp. 595–600doi: 10.1145/3078072.3084330
Quora Answers, “L’intelligenza artificiale supererà quella umana?”it.quora.com/L-intelligenza-artificiale-superer%C3%A0-quella-umana
Alberto Puliafito, “Guida pratica per resistere all’effetto wow sull’intelligenza artificiale”, Internazionale (22.05.2024)www.internazionale.it/notizie/alberto-puliafito/2024/05/22/chatgpt-40-intelligenza-artificiale-effetto-wow
Mutlu Cukurova, “ The Interplay of Learning, Analytics, and Artificial Intelligence in Education ”, arXiv (2024)discovery.ucl.ac.uk/id/eprint/10191279
Hamsa Bastani et al., “Generative AI Can Harm Learning”, The Wharton School Research Paper (2024)ssrn.com/abstract=4895486
UNESCO, “AI competency framework for teachers” (2024)unesdoc.unesco.org/ark:/48223/pf0000391104
Sina Alemohammad et al., “Self-Consuming Generative Models Go MAD”, arXiv (2023)arxiv.org/pdf/2307.01850
AI News, “I modelli linguistici più grandi e recenti mentono di più”, (2024)ainews.it/i-modelli-linguistici-piu-grandi-e-recenti-mentono-di-piu
L’IA come nuovo tutor per gli studentiwww.scuolafutura.toscana.it/home/lia-come-nuovo-tutor-per-gli-studenti
Machine Learning for Kidsmachinelearningforkids.co.uk
Daniel Morrow, “Excerpts from an Oral History Interview with Steve Jobs”americanhistory.si.edu/comphist/sj1.html
Mario Valle, “La pedagogia montessoriana e le nuove tecnologie”, Il leone verde (2017)mariovalle.name/montessori/libro-nuove-tecnologie
Mario Valle, “Le tecnologie digitali in famiglia: nemiche o alleate?”, Il leone verde (2021)mariovalle.name/montessori/libro-tecnologia-e-famiglia
Il Centro Svizzero di Calcolo Scientifico (CSCS)www.cscs.ch
Ritorna alle risorse su MontessoriIndietro

Licenza d’uso

Licenza Creative Commons

Questo lavoro di è sotto licenza Creative Commons Attribuzione, Non Commerciale, Condividi allo stesso modo 4.0 International (CC BY-NC-SA 4.0)

 

Sei libero di:

  • Condividere — riprodurre, distribuire, comunicare al pubblico, esporre in pubblico, rappresentare, eseguire e recitare questo materiale con qualsiasi mezzo e formato.
  • Modificare — remixare, trasformare il materiale e basarti su di esso per le tue opere.

Alle seguenti condizioni:

  • Attribuzione — Devi riconoscere una menzione di paternità adeguata, fornire un link alla licenza e indicare se sono state effettuate delle modifiche. Puoi fare ciò in qualsiasi maniera ragionevolmente possibile, ma non con modalità tali da suggerire che il licenziante avalli te o il tuo utilizzo del materiale.
  • Non Commerciale — Non puoi usare il materiale per scopi commerciali.
  • Condividi allo stesso modo — Se remixi, trasformi il materiale o ti basi su di esso, devi distribuire i tuoi contributi con la stessa licenza del materiale originario.

Questo è un riassunto in linguaggio accessibile a tutti (e non un sostituto) della licenza. Maggiori informazioni si trovano su: creativecommons.org/licenses/by-nc-sa/4.0/