Discipline potenzialmente coinvolte in educazione civica: storia, italiano, informatica, fisica, inglese, diritto
È una storia tutta umana quella che porta all’Intelligenza Artificiale, non dobbiamo dimenticarlo; l’IA è uno degli ultimi capitoli di un’epica avventura che affonda il suo incipit nel mito, accelera attraverso quattro rivoluzioni industriali e giunge in un presente carico di futuro. Si tratta della storia che, nel percorso di educazione civica qui raccontato, abbiamo chiamato “L’onda lunga di Prometeo”: la natura umana modifica sé stessa dominando la natura. Il furto del fuoco, nel mito, viene punito, ma di fatto in ogni epoca rinasce un nuovo Prometeo e un nuovo fuoco che “carica” di futuro il presente in cui si verifica un balzo tecnologico.
Il percorso proposto a una quinta di una Secondaria di secondo grado partiva dalla visione del film di Christopher Nolan Oppenheimer, uscito nelle sale all’inizio dell’anno scolastico 2023-2024 e ora facilmente reperibile in streaming. I progressi della fisica della prima metà del Novecento e la figura di Oppenheimer, le diverse posizioni degli scienziati e dei politici coinvolti nel Progetto Manhattan sono stati messi in relazione e in parallelo al presente, partendo dai progressi dell’informatica nella seconda metà del Novecento e arrivando alle figure dei CEO e degli ingegneri informatici delle più grandi aziende tecnologiche che hanno lanciato sul mercato l’IA, in particolare quella generativa, e poi si sono più volte fermati a riflettere sulle conseguenze di quanto stavano contribuendo a diffondere.
Si è trattato di un progetto annuale strutturato in lezioni frontali, Flipped classroom e laboratori: tutte le fasi di ricerca-azione per la restituzione della classe capovolta e i prodotti dei laboratori sono stati supportati dall’IA generativa, prevalentemente ChatGPT e Gemini e dai generatori di immagine di tipo Dall-E.
La tempistica è stata necessariamente dilatata nel tempo perché si trattava non solo di seguire un percorso storico diacronico, ma soprattutto di seguire l’evoluzione del tentativo di governance che, proprio in quei mesi, l’Unione Europea portava a termine con l’approvazione definitiva dell’AI Act nella primavera del 2024. Proponiamo qui sinteticamente il racconto delle cinque fasi di questo percorso.
Il parallelo tra Oppenheimer e Progetto Manhattan da una parte e Altman OpenAI e l’Intelligenza Artificiale dall’altra mette in luce non solo le somiglianze tra queste due epoche e progetti di scoperta scientifica, ma anche le sfide etiche e morali che accompagnano ogni grande avanzamento tecnologico.
Film, libri e opere d’arte hanno esplorato i concetti della meccanica quantistica, contribuendo a diffonderne la conoscenza e l’interesse. Il passaggio dalla fisica tradizionale alla fisica quantistica fu opera di due giovani, Werner Heisenberg e Paul A.M. Dirac, e di due fisici più maturi, Erwin Schrödinger e Max Born. La meccanica quantistica che scaturì dai loro lavori sconvolgeva – come neanche la relatività einsteiniana aveva fatto – la visione fisica del mondo: alla continuità subentrava la discontinuità, alle certezze la probabilità. Una storia indubbiamente affascinante, che tuttavia, a partire dal 1940, vide un brusco cambiamento: gli sforzi degli scienziati vennero indirizzati alle applicazioni belliche. È dunque inevitabile che, proprio oggi, il film di Nolan, con il grande consenso di pubblico e critica, riporti al centro la questione del rapporto tra tecnologia e uomo.
L’IA occupa un posto di rilievo nell’immaginario culturale contemporaneo. Dai romanzi, non solo di Asimov, e film di fantascienza alle serie TV, l’idea di macchine intelligenti che possono superare l’intelligenza umana ha ispirato storie che esplorano temi di autonomia, identità e moralità. La narrazione culturale intorno all’IA continua a influenzare la percezione pubblica e il dibattito etico.
Nella sua epoca d’oro, tra la metà dell’Ottocento e la metà del secolo scorso, la scienza aveva una posizione di preminenza nei confronti della tecnologia: rendeva teoricamente possibili le invenzioni, le giustificava, la teoria veniva prima della pratica. Dalla metà del Novecento, invece, la tecnologia ha assunto una velocità tale da non permettere alla scienza nemmeno il compito di giustificare l’ambito e le applicazioni delle scoperte.
Robert Oppenheimer è stato il fisico teorico a capo del Progetto Manhattan, il programma di ricerca e sviluppo che ha portato alla creazione della bomba atomica durante la Seconda Guerra Mondiale. Il laboratorio di Los Alamos è diventato il simbolo della scienza utilizzata per scopi militari, ma anche dell’inizio di una nuova era tecnologica.
Attenzionato nel 1939 da Szilard ed Einstein sulla possibilità che i tedeschi arrivassero a costruire un ordigno atomico in tempi brevi, solo dopo l’attacco a Pearl Harbour Roosvelt si risolse ad avviare il Progetto Manhattan. Robert Oppenheimer stesso ebbe profondi dubbi morali riguardo all’uso delle bombe atomiche. Nel luglio 1945, il fisico Leo Szilard, insieme ad altri scienziati del Progetto Manhattan, promosse una petizione per evitare l’uso delle bombe atomiche sul Giappone. La petizione, rivolta al Presidente Harry S. Truman, sosteneva che l’uso di tali armi contro i civili avrebbe avuto gravi conseguenze morali e politiche; questi scienziati suggerivano invece una dimostrazione non distruttiva della loro potenza. Nonostante il sostegno di numerosi colleghi, la petizione non raggiunse Truman prima del bombardamento di Hiroshima e Nagasaki: scienza ed etica in tempo di guerra erano inconciliabili. Nel 1955, Albert Einstein e Bertrand Russell, preoccupati dalla crescente minaccia delle armi nucleari, incluse le bombe all’idrogeno, promossero un’iniziativa culminata nel Manifesto Einstein-Russell. Questo documento, firmato da numerosi eminenti scienziati, metteva in guardia l’umanità sui pericoli della proliferazione nucleare e sollecitava le nazioni a risolvere le loro controversie in modo pacifico.
Nel 2015 Sam Altman, insieme a Elon Musk, Greg Brockman e altri, ha cofondato OpenAI, un’organizzazione di ricerca sull’Intelligenza Artificiale con l’obiettivo di garantire che l’IA sia sviluppata in modo sicuro e a beneficio dell’umanità. OpenAI ha prodotto innovazioni come GPT (Generative Pre-trained Transformer), il potente modello di linguaggio che ormai tutti conosciamo. Tuttavia, OpenAI ha affrontato controversie, tra cui il passaggio da organizzazione no-profit a for-profit nel 2019 e questo passaggio ha suscitato critiche riguardo a potenziali conflitti d’interesse.
Attualmente, Altman è CEO di OpenAI e l’azienda continua a guidare lo sviluppo di tecnologie avanzate. Trai i soci fondatori sono emerse critiche e preoccupazioni più o meno interessate allo sviluppo della IA generativa. Nel marzo 2023, Elon Musk e oltre 1100 esperti e leader tecnologici, tra cui Steve Wozniak e Andrew Yang, hanno firmato un appello noto come "Pause Giant AI Experiments" promosso dal Future of Life Institute. La lettera aperta chiedeva una pausa di sei mesi nello sviluppo di IA avanzate, specialmente quelle più potenti di GPT-4; i firmatari evidenziavano i rischi per la società e l’umanità. Gli autori temevano che un’IA non adeguatamente regolamentata potesse portare a conseguenze imprevedibili, tra cui disinformazione massiva, perdita di posti di lavoro e persino minacce esistenziali. Oltre a Musk, molti altri personaggi influenti hanno espresso preoccupazioni simili.
Dopo la lezione introduttiva gli studenti hanno ricercato i testi citati, ovvero le petizioni storiche sul nucleare e quelle recenti relative all’impatto dell’IA. Per i testi più recenti è stata sufficiente una classica webquest. Per trovare i testi del 1939 e del 1945, l’aiuto dell’IA generativa e della sua potenza di calcolo è stata fondamentale. I testi in L2, qui sotto elencati, sono stati presentati dagli studenti, che li hanno contestualizzati, mettendo in rilievo i passaggi cruciali.
a. Testi storici relativi alla bomba atomica e al proliferare delle armi atomiche:
I primi passi verso una governance europea sull’IA sono della primavera del 2021 quando la Commissione europea propone una legge; a giugno 2023 il Parlamento europeo si è espresso sul testo una prima volta e tra novembre e dicembre 2023 il Consiglio europeo e il Parlamento, dopo aver mediato con i vari governi UE, hanno ratificato un accordo; il testo definitivo, l’AI Act, europeo è stato pubblicato nella primavera del 2024. Lo si può consultare a questo indirizzo:
https://data.consilium.europa.eu/doc/document/ST-5662-2024-INIT/en/pdf
Di pari importanza, soprattutto per il mondo della scuola, è il documento Unesco (2023, ChatGPT and Artificial Intelligence in Higher Education) consultabile al seguente link:
Scegliendo articoli di sintesi ed evidenziando alcuni passi dell’AI Act gli studenti, sotto la guida dell’insegnante, hanno compreso l’importanza e la necessità di fare una scelta informata, ovvero la scelta consapevole di continuare ad adoperare l’IA.
L’AI Act ci pone di fronte a un approccio di governance dell’Intelligenza Artificiale basato sul rischio. Nella categoria del “rischio limitato” rientrano i sistemi di Intelligenza Artificiale in grado di generare o maneggiare testi, immagini, audio o video, i cosiddetti “deepfake”. La classe è giunta alla conclusione che l’IA generativa è una risorsa, tuttavia il rischio non è inesistente, bensì “limitato” se l’uso è consapevole.
Dopo aver letto una selezione di articoli relativi all’AI Act e dopo la lettura in plenaria del documento Unesco sull’IA generativa, la classe ha costruito infografiche mettendo a tema i cardini su cui sono stati costruiti questi documenti. Gli studenti hanno poi restituito in plenaria, attraverso le loro infografiche, l’approccio dell’AI Act basato sul rischio: inaccettabile, elevato, limitato, minimo fornendo esempi per ogni livello di rischio.
Un Debate e un lavoro di gruppo hanno concluso il percorso allo scopo di fornire le ultime conoscenze e competenze per svolgere un tema di tipologia B sull’argomento.
a. Partendo dalla breve lettera di Altman, la mozione del Debate è:“Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war”.
Sotto la guida del docente la classe ha potuto notare come questa citazione riprenda proprio il parallelo “Nucleare-IA” che è stato oggetto di tutto il percorso di educazione civica affrontato. Le squadre hanno chiesto a ChatGPT di fornire cinque motivazioni pro e cinque motivazioni contro: questi spunti sono stati la base da cui partire per costruire le argomentazioni.
b. La riflessione e metacognizione finale è stata poi visualizzata e concretizzata in un lavoro di gruppo finalizzato a costruire un digital storytellig sulle vicende di Oppenheimer a Los Alamos oppure sul fronte Altman e OpenAI: il generatore di immagini IA ha fornito le illustrazioni che poi sono state usate per montare uno storytelling digitale.
Le diverse fasi sono state valutate in itinere. Alla fine del percorso un tema di tipologia B mi ha permesso di effettuare una valutazione conclusiva. La traccia da me proposta nello scorso anno scolastico tematizzava la figura dell’informatico come nuovo Prometeo che fornisce al genere umano le opportunità e i rischi dell’IA.
A luglio 2024 il primo modulo del corso tenuto per Sanoma da Sandra Troia sulla IA generativa per la didattica mi ha fornito l’indicazione di cui avevo bisogno per una riorganizzazione più razionale e proficua di tempi e modi per una futura riproposta di questo percorso. Condividendo con l’IA i materiali ormai a mia disposizione e gli step del percorso piuttosto destrutturato appena concluso, ho potuto rimodulare obiettivi, tempistiche e fasi per una proposta più contenuta nei tempi. Ne ho ottenuto un percorso che delinea più razionalmente obiettivi, fasi e criteri di valutazione.
Referenze iconografiche: Suri_Studio/Shutterstock