La normativa europea sull'Intelligenza Artificiale

La prima normativa al mondo che regolamenta l'AI

Il 2 agosto 2024 è entrato definitivamente in vigore l'AI Act, il regolamento europeo che stabilisce requisiti e obblighi relativi a usi specifici dell'Intelligenza Artificiale.
La normativa, prima al mondo nel suo genere, ha l’obiettivo di garantire che i sistemi di Intelligenza Artificiale utilizzati nell'Unione europea siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente. Allo stesso tempo si è aperto un dibattito su quanto una normativa vincolante possa frenare lo sviluppo di una tecnologia profondamente innovativa.

Dopo anni di lavori e trattative il 2 agosto 2024 è entrato definitivamente in vigore l’Artificial Intelligence (AI) Act, il regolamento europeo sull’Intelligenza Artificiale (regolamento (UE) 2024/1689), presentato come la prima legge al mondo a occuparsi in modo complessivo di Intelligenza Artificiale. Il suo obiettivo è promuovere e garantire l’utilizzo di sistemi di Intelligenza Artificiale sicuri e affidabili, che rispettino i diritti fondamentali e i principi etici dell’Unione europea.

La Commissione europea aveva presentato la sua proposta di legge sull’Intelligenza Artificiale già nell’aprile 2021. Da quel momento si sono aperti intensi negoziati tra Commissione, Parlamento e Consiglio europeo che hanno portato alla stesura di un testo condiviso, che riguarda anche i recenti sviluppi dell’Intelligenza Artificiale generativa (quella alla base della generazione di immagini e testi, come ChatGPT). La maggior parte delle disposizioni diventeranno applicabili due anni dopo l’entrata in vigore della legge, ma i divieti scattano già dopo sei mesi.

La legge si basa sull’idea che i sistemi di Intelligenza Artificiale, come molte tecnologie emergenti, siano una grande opportunità ma presentino anche dei rischi. Per citarne alcuni, rischi che riguardano la sicurezza, la privacy delle persone, la discriminazione di particolari gruppi o categorie, la trasparenza. I risultati prodotti dall’Intelligenza Artificiale dipendono infatti da come viene progettata e da quali dati vengono immessi nel sistema. I risultati dell’Intelligenza Artificiale dunque, anche se presentati spesso come oggettivi e precisi, dipendono dalla qualità e dalla natura dei dati utilizzati, oltre che dal modo in cui sono progettati i suoi modelli. Ad esempio, il sistema potrebbe restituire informazioni parziali su base probabilistica a partire dai dati immessi, che possono essere errati o riflettere e perpetuare discriminazioni o pregiudizi. Allo stesso tempo l’algoritmo potrebbe restituire informazioni false (le cosiddette “allucinazioni”) estrapolando dei risultati in modo errato o casuale.

Per questo motivo l’AI Act segue un approccio basato sul livello di rischio: tanto maggiore è il rischio di arrecare danni alle persone e alla società, quanto più rigorose sono le regole che chi sviluppa o utilizza questi sistemi deve rispettare.

Alcune applicazioni considerate estremamente pericolose per i diritti dei cittadini sono del tutto vietate, per esempio:

  • i sistemi che manipolano i comportamenti delle persone e sfruttano la loro vulnerabilità, ad esempio utilizzando tecniche subliminali (che vanno oltre la consapevolezza di una persona);
  • sistemi che fanno la raccolta automatica (scraping) di immagini facciali da internet;
  • i sistemi che permettono il riconoscimento delle emozioni sul posto di lavoro o a scuola;
  • le tecnologie di polizia predittiva, intesa come la previsione che una certa persona possa commettere un reato solo sulla base delle caratteristiche del suo profilo;
  • i sistemi che si basano sull’idea di punteggio sociale (social scoring), che classificano gli individui sulla base dei loro comportamenti (ma anche di caratteristiche individuali o dei loro legami sociali) attraverso i quali l’autorità pubblica potrebbe compiere delle scelte in maniera discriminatoria.

Sono considerati invece ad alto rischio, tra gli altri:

  • i sistemi di identificazione e categorizzazione biometrica;
  • i software usati nella scuola o nella formazione, ad esempio per valutare il rendimento o per controllare gli studenti durante gli esami;
  • i sistemi usati nella gestione del personale, ad esempio per selezionare i candidati a un posto di lavoro;
  • i sistemi usati dalla pubblica amministrazione per assegnare benefici, sussidi e altri servizi.

Chi sviluppa sistemi ad alto rischio deve dare garanzie di trasparenza, sicurezza e accuratezza, tenere un registro delle attività e garantire una revisione umana.

La priorità dell’AI Act è quindi quella di garantire che i sistemi utilizzati nell’Unione europea siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente, pur promuovendo l’innovazione e stimolando investimenti all’interno dell’Unione.
La legge europea va inquadrata in un più ampio sforzo dell’Unione di regolamentare l’impatto delle tecnologie (e delle grandi piattaforme che negli ultimi anni le hanno monopolizzate) sui diritti dei cittadini.

L’AI Act ha generato un intenso dibattito su come e quanto sia possibile regolamentare tecnologie emergenti che si sviluppano in modo molto rapido. Gli Stati Uniti hanno iniziato a regolamentare l’Intelligenza Artificiale in modo più frammentato, affidando le decisioni in merito ai singoli Stati ed emanando delle semplici linee guida, mentre l’Unione europea è la prima istituzione a dotarsi di una normativa così vincolante.
Per la politica appare difficile mettere dei paletti che non frenino però allo stesso tempo lo sviluppo tecnologico e quindi economico dei paesi. D’altra parte, l’impatto di questi sistemi sulla società, il lavoro, la democrazia è ampiamente riconosciuto così come la necessità di una qualche forma di gestione e di governo delle stesse.

Attività in classe

Dividete la classe in gruppi e rispondete alle domande. Confrontate poi le risposte.

  1. Quali sistemi e tecnologie, già ampiamente utilizzate, impiegano una qualche forma di Intelligenza Artificiale?
  2. In che modo i social media come TikTok o Instagram usano l’Intelligenza Artificiale?
  3. Quali sono i rischi e/o i benefici legati all'uso dell'Intelligenza Artificiale su questi sistemi?

Carola Frediani

Giornalista, esperta di tecnologia, cybersicurezza e diritti digitali. Per Editori Laterza ha scritto il saggio Guerre di rete, da cui hanno preso il nome la newsletter e il progetto editoriale guerredirete.it.