Dopo anni di lavori e trattative il 2 agosto 2024 è entrato definitivamente in vigore l’Artificial Intelligence (AI) Act, il regolamento europeo sull’Intelligenza Artificiale (regolamento (UE) 2024/1689), presentato come la prima legge al mondo a occuparsi in modo complessivo di Intelligenza Artificiale. Il suo obiettivo è promuovere e garantire l’utilizzo di sistemi di Intelligenza Artificiale sicuri e affidabili, che rispettino i diritti fondamentali e i principi etici dell’Unione europea.
La Commissione europea aveva presentato la sua proposta di legge sull’Intelligenza Artificiale già nell’aprile 2021. Da quel momento si sono aperti intensi negoziati tra Commissione, Parlamento e Consiglio europeo che hanno portato alla stesura di un testo condiviso, che riguarda anche i recenti sviluppi dell’Intelligenza Artificiale generativa (quella alla base della generazione di immagini e testi, come ChatGPT). La maggior parte delle disposizioni diventeranno applicabili due anni dopo l’entrata in vigore della legge, ma i divieti scattano già dopo sei mesi.
La legge si basa sull’idea che i sistemi di Intelligenza Artificiale, come molte tecnologie emergenti, siano una grande opportunità ma presentino anche dei rischi. Per citarne alcuni, rischi che riguardano la sicurezza, la privacy delle persone, la discriminazione di particolari gruppi o categorie, la trasparenza. I risultati prodotti dall’Intelligenza Artificiale dipendono infatti da come viene progettata e da quali dati vengono immessi nel sistema. I risultati dell’Intelligenza Artificiale dunque, anche se presentati spesso come oggettivi e precisi, dipendono dalla qualità e dalla natura dei dati utilizzati, oltre che dal modo in cui sono progettati i suoi modelli. Ad esempio, il sistema potrebbe restituire informazioni parziali su base probabilistica a partire dai dati immessi, che possono essere errati o riflettere e perpetuare discriminazioni o pregiudizi. Allo stesso tempo l’algoritmo potrebbe restituire informazioni false (le cosiddette “allucinazioni”) estrapolando dei risultati in modo errato o casuale.
Per questo motivo l’AI Act segue un approccio basato sul livello di rischio: tanto maggiore è il rischio di arrecare danni alle persone e alla società, quanto più rigorose sono le regole che chi sviluppa o utilizza questi sistemi deve rispettare.
Alcune applicazioni considerate estremamente pericolose per i diritti dei cittadini sono del tutto vietate, per esempio:
Sono considerati invece ad alto rischio, tra gli altri:
Chi sviluppa sistemi ad alto rischio deve dare garanzie di trasparenza, sicurezza e accuratezza, tenere un registro delle attività e garantire una revisione umana.
La priorità dell’AI Act è quindi quella di garantire che i sistemi utilizzati nell’Unione europea siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente, pur promuovendo l’innovazione e stimolando investimenti all’interno dell’Unione.
La legge europea va inquadrata in un più ampio sforzo dell’Unione di regolamentare l’impatto delle tecnologie (e delle grandi piattaforme che negli ultimi anni le hanno monopolizzate) sui diritti dei cittadini.
L’AI Act ha generato un intenso dibattito su come e quanto sia possibile regolamentare tecnologie emergenti che si sviluppano in modo molto rapido. Gli Stati Uniti hanno iniziato a regolamentare l’Intelligenza Artificiale in modo più frammentato, affidando le decisioni in merito ai singoli Stati ed emanando delle semplici linee guida, mentre l’Unione europea è la prima istituzione a dotarsi di una normativa così vincolante.
Per la politica appare difficile mettere dei paletti che non frenino però allo stesso tempo lo sviluppo tecnologico e quindi economico dei paesi. D’altra parte, l’impatto di questi sistemi sulla società, il lavoro, la democrazia è ampiamente riconosciuto così come la necessità di una qualche forma di gestione e di governo delle stesse.