AI - Intelligenza Artificiale | Digitalizzazione | Normativa Tecnica
Data Pubblicazione: | Ultima Modifica:

AI Act: entrato in vigore il regolamento europeo sull'intelligenza artificiale

L'Artificial Intelligence Act (AI Act), è stato finalmente pubblicato nella Gazzetta Ufficiale il 12 luglio 2024. Entrato in vigore oggi il 1° agosto 2024 sarà applicato gradualmente nei prossimi sei e 36 mesi, con la maggior parte delle disposizioni che diventeranno applicabili dopo 24 mesi.

AI Act: la svolta europea nella Regolamentazione dell'intelligenza artificiale

AGGIORNAMENTO. Dopo tre anni di intenso lavoro, l'AI Act è stato pubblicato in Gazzetta Ufficiale dell'Unione europea il 12 luglio 2024), con un'applicazione graduale delle varie norme. 

A marzo 2024, l'Europa aveva fatto storia con l'approvazione definitiva dell'AI Act, segnando l'avvento del primo regolamento globale sull'intelligenza artificiale (IA). Con un'approvazione schiacciante di 523 voti a favore, 46 contrari e 49 astenuti, l'Unione Europea si è posizionata come pioniera nella normativa di questa tecnologia rivoluzionaria, superando le altre grandi potenze mondiali.

Il Consiglio dell’Unione Europea ha approvato l’AI Act, una legge innovativa che armonizza le norme sull’intelligenza artificiale, stabilendo uno standard globale per la regolamentazione del AI. Gli obiettivi principali della legge sono:

  • Promuovere lo sviluppo e l’adozione di sistemi di IA sicuri e affidabili nel mercato unico dell’UE.
  • Garantire il rispetto dei diritti fondamentali dei cittadini dell’UE.
  • Stimolare investimenti e innovazione nel campo dell’IA in Europa.

La legge rappresenta una pietra miliare per l’UE, affrontando sfide tecnologiche globali e creando nuove opportunità economiche e sociali. Sottolinea l'importanza di fiducia, trasparenza e responsabilità nella gestione delle nuove tecnologie.

La normativa classifica i sistemi di IA in base al rischio:

  • Rischio limitato: obblighi di trasparenza leggeri.
  • Alto rischio: soggetti a requisiti e obblighi per l’accesso al mercato dell’UE.
  • Banditi: sistemi di IA per la manipolazione cognitivo comportamentale.

 

Soggetti obbligati

L'AI Act si rivolge non solo agli sviluppatori di sistemi di intelligenza artificiale, ma anche alle organizzazioni pubbliche e private che ne faranno uso, nonché agli importatori e distributori di tali tecnologie.

 

Divieti

A partire dal 2 febbraio 2025, sei mesi dopo l'entrata in vigore del regolamento, saranno sanzionati i sistemi AI considerati inaccettabili per il rischio che pongono ai diritti delle persone. Questi includono sistemi manipolativi, quelli che sfruttano la vulnerabilità delle persone, sistemi di social scoring e di sorveglianza biometrica in tempo reale negli spazi pubblici.

Le organizzazioni che utilizzano o intendono utilizzare tali sistemi dovrebbero iniziare subito una due diligence per valutare se rientrano nei divieti e adottare le misure correttive necessarie.

 

Obbligazioni per i sistemi ad alto rischio

Le organizzazioni che sviluppano o utilizzano sistemi AI ad alto rischio avranno tempo fino al 2 agosto 2026 per adeguarsi, tra cui sistemi di riconoscimento biometrico e quelli usati in contesti lavorativi, scolastici o per servizi essenziali. Altri sistemi ad alto rischio dovranno conformarsi entro il 2 agosto 2027.

Gli sviluppatori di modelli di IA per scopi generali ("General Purpose AI" o "GPAI") devono adeguarsi entro il 2 agosto 2025.

 

Raccomandazioni

Le organizzazioni devono iniziare subito a definire una roadmap per l'adeguamento all'AI Act, individuando team dedicati e sviluppando un modello di governance. Per i sistemi ad alto rischio, è raccomandabile adottare misure tecniche e organizzative per garantire l'uso sicuro e responsabile, assegnando la supervisione a persone competenti e adeguatamente formate.

 

Adempimenti specifici

Le organizzazioni che forniscono servizi pubblici, bancari o assicurativi, e utilizzano l'AI per attività come il credit scoring, dovranno avviare una procedura di valutazione dell'impatto sui diritti fondamentali, simile al Data Protection Impact Assessment del GDPR.

Anche per i sistemi AI a rischio limitato, come i chatbot, è consigliabile ottemperare agli obblighi di trasparenza informando gli utenti che il servizio è automatizzato.

 

Sistemi già immessi sul mercato

I fornitori di modelli di GPAI sul mercato prima del 2 agosto 2025 devono conformarsi entro il 2 agosto 2027. Per i sistemi AI ad alto rischio già sul mercato, le regole si applicheranno solo se questi subiranno modifiche significative nella progettazione. Le soluzioni ad alto rischio destinate all'uso pubblico devono conformarsi entro il 2 agosto 2030.

 

Ufficio per l'intelligenza artificiale

La Commissione Europea ha istituito l'AI Office, guidato da Lucilla Sioli, per garantire l'attuazione coerente dell'AI Act e supportare gli Stati membri. L'AI Office monitorerà l'attuazione degli obblighi e coordinerà la stesura di codici di condotta.

 

AI Pact

La Commissione promuove l'AI Pact, un'iniziativa per incoraggiare le aziende a iniziare l'attuazione dei requisiti dell'AI Act prima del termine, creando standard di riferimento per il mercato. L'AI Office ha ricevuto risposte da oltre 550 organizzazioni e svilupperà il patto attorno a due pilastri: il coinvolgimento delle organizzazioni e l'adozione anticipata delle misure di conformità.

CONSULTA AI ACT SU GAZZETTA UFFICIALE

 

Italia avanza con la strategia nazionale per l’Intelligenza Artificiale 2024-2026

In seguito alla pubblicazione dell'AI Act e all’avvio delle audizioni legislative al Senato, l’AGID ha pubblicato la "Strategia Italiana per l’Intelligenza Artificiale 2024-2026". Questo piano strategico, redatto da un Comitato di esperti guidato da Gianluigi Greco, mira a posizionare l'Italia come leader nell'innovazione dell'IA attraverso un approccio sicuro e inclusivo. Il documento, che può essere scaricato qui, suddivide le azioni strategiche in quattro aree principali: Ricerca, Pubblica Amministrazione, Imprese e Formazione.

Il Comitato, composto da quattordici esperti di spicco, ha elaborato un piano che include un sistema di monitoraggio e un'analisi del contesto regolativo. Il supporto dell’Agenzia per l’Italia Digitale (AgID) è stato fondamentale nella stesura del documento, che riflette l'impegno del Governo italiano verso una normativa nazionale che promuova lo sviluppo responsabile dell’IA.

Il Sottosegretario Alessio Butti e il Direttore Generale di AgID Mario Nobile hanno sottolineato l’importanza della strategia nel garantire un futuro tecnologico prospero e sicuro per l'Italia. La strategia valorizza le competenze italiane e il potenziale delle università e delle imprese, con l’obiettivo di promuovere soluzioni di IA trasparenti e affidabili, in linea con i valori nazionali.


CONSULTA IL PIANO "
Strategia Italiana per l’Intelligenza Artificiale 2024-2026" in ALLEGATO


Allegati

AI - Intelligenza Artificiale

Con questo Topic raccogliamo per i nostri lettori tutti gli articoli, news, approfondimenti riguardanti l'evoluzione tecnica, le norme e regole, i casi applicativi sul tema dell'intelligenza artificiale

Scopri di più

Digitalizzazione

News e approfondimenti che riguardano, in generale, l'adozione di processi e tecnologie digitali per la progettazione, la costruzione e la gestione dell'ambiente costruito.

Scopri di più

Normativa Tecnica

Con questo TOPIC raccogliamo le news e gli approfondimenti che riguardano il tema della normativa tecnica: le nuove disposizioni, le sentenze, i pareri e commenti, l’analisi di casi concreti, il commento degli esperti.

Scopri di più

Leggi anche