Intelligenza Artificiale

Lo scorso 13 marzo 2024, il Regolamento Europeo sull’Intelligenza Artificiale (“Artificial Intelligence Act”), prima norma vincolante al mondo a regolare l’intelligenza artificiale, è stato approvato dal Parlamento Europeo con 523 voti a favore. Tuttavia, la norma dovrà essere sottoposta al Consiglio e, come anticipavamo nella nostra newsletter di gennaio, si dovrà attendere fino al 2027 per la sua completa applicazione.

Infatti, sebbene l’effettiva applicazione avverrà decorsi ventiquattro (24) mesi dalla entrata in vigore, ovvero trascorsi venti (20) giorni dalla pubblicazione nella Gazzetta ufficiale, alcuni argomenti saranno applicabili secondo specifiche tempistiche. Elenchiamo qui di seguito le tempistiche:

  • I divieti di pratiche vietate, i quali si applicheranno pienamente sei (6) mesi dopo dalla pubblicazione;
  • i codici di condotta che saranno applicabili nove (9) mesi dopo la entrata in vigore;
  • le norme generali sull’IA, inclusa la governance, che saranno applicabili dodici (12) mesi dopo;
  • gli obblighi per i sistemi ad alto rischio, che verranno dopo trentasei (36) mesi.

Il nuovo regolamento ha come scopo principale proteggere i diritti fondamentali delle persone nonché la democrazia e lo stato di diritto e la sostenibilità ambientale dall’IA ad alto rischio. Tutto ciò senza dimenticare l’innovazione del settore.

In attesa della pubblicazione del documento definitivo, di seguito vi elenchiamo i principali obblighi e doveri imposti da questo nuovo quadro normativo e riportate dal Parlamento Europeo nel comunicato stampa pubblicato lo scorso 13 marzo:

  • Applicazioni vietate

Le nuove norme vietano determinate applicazioni dell’intelligenza artificiale che minacciano i diritti dei cittadini, tra cui sistemi di categorizzazione biometrica basati su caratteristiche sensibili e il recupero non mirato di immagini facciali da internet o da riprese CCTV per creare database di riconoscimento facciale.

Saranno altresì proibite la rilevazione delle emozioni sul luogo di lavoro e nelle scuole, la valutazione sociale, la polizia preventiva (quando si basa esclusivamente sul profilo di una persona o sulla valutazione delle sue caratteristiche) e l’intelligenza artificiale che manipola il comportamento umano o sfrutta le vulnerabilità delle persone.

  • Esenzioni per le forze dell’ordine

Sono anche vietati i sistemi di IA destinati a essere utilizzati dalle autorità di polizia come poligrafi e strumenti simili, la cui validità scientifica non è provata o che risultino in diretto conflitto con i valori essenziali dell’UE, per effettuare valutazione del rischio individuale di persone fisiche al fine di valutare il rischio di reato o di recidiva.

Tuttavia, come esenzione, l’uso di sistemi di identificazione biometrica “in tempo reale”, da parte delle forze dell’ordine può essere utilizzata solo se sono soddisfatte certe cautele come: la limitazione di uso, nel tempo e nell’ambito geografico, e la previa e specifica autorizzazione giudiziaria o amministrativa.

  • Obblighi per sistemi ad alto rischio

Sono previsti obblighi chiari anche per altri sistemi di IA ad alto rischio, ovvero i sistemi che possono comportare un potenziale danno alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto.

Tali sistemi devono valutare e ridurre i rischi, mantenere i registri di utilizzo, essere trasparenti e accurati e garantire la supervisione umana.

I cittadini avranno il diritto di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti.

  • Trasparenza

I sistemi di IA generici e i modelli su cui si basano devono soddisfare determinati requisiti di trasparenza, tra cui la conformità alla legge dell’UE sul diritto d’autore e la pubblicazione di sintesi dettagliate dei contenuti utilizzati per la formazione, nonché requisiti aggiuntivi in base al grado di rischio collegato.

Inoltre, le immagini, i contenuti audio o video artificiali o manipolati, conosciuti anche come deepfake, devono essere chiaramente etichettati come tali.

 

FONTE: Legge sull’intelligenza artificiale: i deputati adottano una legge storica | Notizie | Parlamento europeo (europa.eu)

Ti serve una consulenza privacy?

Il nostro team sarà felice di trovare la soluzione perfetta per te!