AGM Solutions

AI Act: il primo quadro normativo globale sull’intelligenza artificiale

L’AI Act rappresenta il primo tentativo al mondo di regolamentare l’intelligenza artificiale, ponendo l’Unione Europea come leader nella definizione di standard globali per un’AI etica, sicura e trasparente.

Il regolamento introduce un approccio basato sul rischio, classificando le applicazioni dell’AI in diverse categorie di rischio e stabilendo obblighi proporzionati per i diversi attori dell’AI. Questo quadro normativo mira a promuovere innovazione responsabile, proteggendo al contempo i diritti fondamentali degli individui e garantendo un utilizzo sicuro della tecnologia. Una svolta cruciale per il futuro dell’AI in Europa e oltre. 

Il regolamento approda in Gazzetta ufficiale europea

Approvato il 21 giugno 2023 e pubblicato in Gazzetta Ufficiale dell’Unione Europea il 12 luglio 2024, il regolamento entrerà in piena applicazione a partire dal 2 agosto 2026. Questo quadro normativo mira a garantire che l’AI sia sviluppata e utilizzata in modo responsabile, trasparente ed etico, tutelando i diritti fondamentali delle persone.

Entro il 2 agosto 2028 e successivamente ogni quattro anni, la Commissione Europea valuterà l’efficacia del regolamento e la necessità di aggiornamenti, in modo da mantenerlo allineato con i progressi tecnologici.

Con il Regolamento 2024/1689 (AI ACT), l’Unione Europea si propone come guida mondiale, stabilendo uno standard che combina l’innovazione con la protezione dei diritti e della sicurezza dei cittadini.

Un regolamento basato sul rischio

Il cuore dell’AI Act è il suo approccio basato sul rischio, che classifica i sistemi di AI in quattro categorie principali:

Rischio inaccettabile: Sistemi vietati perché considerati dannosi per la società, come:

  • Social scoring: valutazioni basate su comportamenti o caratteristiche personali che determinano l’accesso a diritti fondamentali.
  • Tecniche manipolatorie occulte: sistemi che influenzano decisioni dell’utente.

Rischio elevato: Tecnologie che richiedono una conformità rigorosa, tra cui:

  • Sistemi utilizzati in ambiti critici come sanità, giustizia o istruzione.
  • Sistemi che classificano le persone in base a caratteristiche biometriche come sesso, etnia o età, utilizzati a scopi di sicurezza o identificazione.

Rischio limitato: Sistemi che necessitano di trasparenza, ad esempio chatbot o strumenti di generazione di contenuti sintetici. Gli utenti devono essere informati della natura artificiale del sistema.

Rischio minimo o nullo: Tecnologie senza impatti significativi, come videogiochi o applicazioni per uso personale, per cui non sono previsti obblighi specifici.

Quali sono gli obiettivi del regolamento?

L’AI Act mira a garantire un uso responsabile dell’intelligenza artificiale attraverso tre obiettivi principali:

  1. Protezione dei diritti fondamentali: garantire che l’AI rispetti la dignità umana, la privacy e il principio di non discriminazione.
  2. Sicurezza e trasparenza: obbligare i fornitori e sviluppatori a garantire che i sistemi AI siano sicuri, conformi e monitorati durante tutto il ciclo di vita.
  3. Promozione dell’innovazione: stimolare la ricerca e lo sviluppo di tecnologie etiche e competitive, creando un ecosistema di fiducia per sviluppatori e utenti.

Principi chiave dell’AI ACT: su cosa si basa il nuovo regolamento sull’intelligenza artificiale

Sono quattro i principi essenziali su cui si fonda il regolamento:

  • Precauzione: Minimizzare i rischi anche in situazioni di incertezza.
  • Proporzionalità: Adeguare i requisiti normativi al livello di rischio associato alla tecnologia.
  • Trasparenza: Informare gli utenti sull’uso dell’AI e sulle sue capacità.
  • Accountability: Assicurare la responsabilità di sviluppatori e utilizzatori per garantire la conformità al Regolamento.

Sanzioni per le violazioni

Il mancato rispetto delle disposizioni del regolamento comporta multe significative, proporzionali alla gravità dell’infrazione:

  • 35 milioni di euro o il 7% del fatturato globale annuo per pratiche vietate o mancata conformità ai requisiti sui dati.
  • 15 milioni di euro o il 3% del fatturato globale annuo per la mancata osservanza di altri obblighi, come le norme sui modelli generali di AI.
  • 7,5 milioni di euro o l’1,5% del fatturato globale annuo per informazioni false o incomplete fornite alle autorità competenti.

Il nostro percorso di compliance assessment

Per le aziende, il rispetto dell’AI Act non è solo un obbligo normativo, ma anche un’opportunità per rafforzare la fiducia dei clienti e posizionarsi come leader responsabili nel mercato. In questo contesto, AGM Solutions offre percorsi personalizzati di compliance assessment per supportare le imprese nell’allinearsi ai requisiti del regolamento.