Una studentessa chiede a ChatGPT di spiegarle il condizionale in francese. Ottiene una risposta corretta, ben strutturata, persino cortese. Ma possiamo dire che abbia davvero capito? E se la risposta fosse stata sbagliata, avrebbe saputo riconoscere l’errore?
Queste nuove forme di interazione con l’intelligenza artificiale rischiano di essere lette con categorie già note, ereditate dalla lunga stagione della didattica digitale. Strumenti come ChatGPT, Claude o Gemini, basati su Large Language Models (LLM), pongono però una questione diversa: intervengono direttamente nella produzione del linguaggio, toccando il centro della didattica.
Il funzionamento degli LLM ci sfugge ancora, perché l’analogia più immediata è quella con un “super browser” che cerca in un archivio immenso. Ma non è così. Queste macchine non cercano: generano. Lavorano su basi probabilistiche: analizzano enormi quantità di testi e prevedono quale parola sia più probabile in un dato contesto.
Questa plausibilità linguistica li rende convincenti, anche quando sbagliano. Ma il vero nodo didattico sta nella velocità e nella qualità apparente. Compiti che richiederebbero ore di lavoro arrivano già corretti, coesi, articolati. In pochi secondi.
Nell’insegnamento linguistico, uno dei rischi più rilevanti riguarda la delega cognitiva. Non tanto verificare l’accuratezza della risposta, quanto delegare alla macchina operazioni che dovrebbero restare oggetto di riflessione e rielaborazione. Proprio perché funziona bene, la tentazione di lasciare ChatGPT lavorare al posto nostro è forte.
Ma è proprio quando ci poniamo la domanda “chi fa che cosa e come” che l’IA diventa interessante. L’IA restituisce bozze, ipotesi, strutture. Studenti e studentesse le discutono, le smontano, le migliorano. Il processo resta in mano loro. In termini pedagogici, questo è lo spazio in cui una persona può avanzare nell’apprendimento se adeguatamente supportata, senza che qualcun altro faccia il lavoro al posto suo.
Le linee guida ministeriali sull’uso dell’IA a scuola stabiliscono alcuni principi: tutela dei dati personali, centralità della persona, responsabilità dell’istituzione scolastica. Riconoscono le potenzialità dell’IA, ma affidano ai docenti e alle scuole la responsabilità di definire tempi e modalità. Non tutto ciò che è tecnicamente possibile è automaticamente didatticamente e giuridicamente legittimo.
Entro questa cornice, come si traduce quindi l'integrazione dell’IA nella didattica? Significa innanzitutto educare all’IA: spiegare come funziona, quali sono i suoi limiti, perché produce certi tipi di risposte. Significa progettare attività in cui l'uso sia mediato, collettivo, protetto. Lavorare su output già generati, analizzarli insieme, discuterli a partire da materiali didattici strutturati.
Per l’insegnamento linguistico, questo approccio apre possibilità concrete. Un brano dal libro di testo, una pagina di cultura e civiltà, un dialogo possono diventare il punto di avvio per attività progressive: osservazione guidata, riformulazione, confronto tra versioni. Un LLM può affiancare questo percorso proponendo varianti controllate del testo, suggerendo domande, simulando risposte alternative su cui ragionare insieme. L’attività non viene sostituita, ma estesa. Il manuale resta il riferimento, mentre l’IA permette di modulare il lavoro su più livelli, adattandolo al gruppo classe e agli obiettivi linguistici.
L’intelligenza artificiale chiede prima di tutto di essere compresa e la scuola resta il luogo in cui questa comprensione può diventare condivisa, responsabile, orientata. A condizione che il lavoro didattico sia accompagnato, non delegato; che le attività vengano pensate come percorsi adattabili; che i docenti possano muoversi dentro cornici chiare e condivise. Non è un cambiamento immediato. Ma è un cambiamento che può essere costruito a partire da ciò che già facciamo in classe.
Referenze iconografiche: vectorfusionart / Shutterstock