L’Unione Europea e l’Intelligenza Artificiale: Nuove Regole tra Innovazione e Preoccupazioni
Napoli, 3 Febbraio 2025
Krystian Samulak
Il 2 febbraio 2025 segna una data storica per l’Unione Europea con l’entrata in vigore delle prime misure dell’AI Act, il regolamento che mira a disciplinare l’uso e lo sviluppo dell’intelligenza artificiale nel territorio comunitario. Questo quadro normativo classifica i sistemi IA in base al livello di rischio: minimo, limitato, alto e inaccettabile. Attualmente, sono operative le disposizioni relative agli usi considerati inaccettabili, mentre l’intero regolamento sarà implementato nei prossimi 18 mesi. Gli Stati membri dovranno designare entro agosto le autorità responsabili della supervisione. L’AI Act proibisce specifici utilizzi dell’IA ritenuti altamente rischiosi. Tra questi, l’impiego di tecniche subliminali o manipolative per influenzare il comportamento umano, la raccolta di dati biometrici per classificare individui in base a caratteristiche sensibili come razza, opinioni politiche o orientamento sessuale, e la valutazione del rischio di comportamenti criminali basata esclusivamente su profilazione o tratti della personalità. È inoltre vietata la creazione di database di riconoscimento facciale tramite l’acquisizione indiscriminata di immagini da internet o da sistemi di videosorveglianza, nonché l’interpretazione delle emozioni in ambiti lavorativi o scolastici attraverso rilevazioni biometriche. Infine, è proibito l’uso del riconoscimento facciale in tempo reale in spazi pubblici. Nonostante le restrizioni, l’AI Act prevede deroghe per motivi di “sicurezza nazionale”. Le forze dell’ordine possono utilizzare l’identificazione biometrica in tempo reale durante indagini su reati gravi come omicidio, stupro, traffico di droga o armi, crimine organizzato e ambientale. Queste tecnologie sono consentite anche nella ricerca di persone scomparse o in situazioni di minaccia terroristica imminente. Ulteriori eccezioni includono l’uso dell’IA per interpretare emozioni ai fini della sicurezza in punti di frontiera o centri di controllo dell’immigrazione e l’applicazione di algoritmi predittivi per identificare potenziali criminali. Alcune organizzazioni, come il Center for Democracy & Technology, hanno espresso preoccupazioni riguardo a queste eccezioni. Secondo l’associazione, le deroghe per la sicurezza nazionale potrebbero permettere lo sviluppo e l’uso di tecnologie invasive e non etiche che altrimenti sarebbero illegali. Esiste il timore che le autorità possano aggirare le restrizioni sull’IA invocando motivi di sicurezza nazionale, aprendo la strada a forme di sorveglianza di massa. L’AI Act rappresenta un passo significativo dell’Unione Europea verso la regolamentazione dell’intelligenza artificiale, cercando di bilanciare innovazione tecnologica e tutela dei diritti fondamentali. Tuttavia, le eccezioni previste sollevano interrogativi sulla possibilità di abusi e sulla necessità di garantire un controllo democratico sull’uso di tali tecnologie. Sarà fondamentale monitorare l’implementazione del regolamento e valutare l’efficacia delle misure adottate per prevenire derive autoritarie.
Fonti ufficiali:
AI Act – Regolamento Ue: https://www.europarl.europa.eu/topics/it/article/20201015STO89417/regolamento-sull-intelligenza-artificiale-cosa-vuole-il-parlamento-europeo
Consilium Europa – Normativa AI: https://www.consilium.europa.eu/it/policies/artificial-intelligence/
Biodiritto – Analisi giuridica AI Act: https://www.biodiritto.org/AI-Legal-Atlas/AI-Normativa/Unione-Europea-Regolamento-sull-Intelligenza-Artificiale-AI-Act