5
21 min

L'AI Act europeo

La classificazione del rischio, pratiche vietate, sistemi ad alto rischio e gli obblighi per sviluppatori e utilizzatori

Il primo regolamento AI al mondo

L'AI Act è il primo quadro normativo completo al mondo per l'intelligenza artificiale. Approvato dall'Unione Europea nel 2024, stabilisce regole chiare per lo sviluppo, la commercializzazione e l'uso di sistemi AI nell'UE. L'obiettivo è promuovere l'innovazione responsabile proteggendo i diritti fondamentali e la sicurezza delle persone.

Classificazione del rischio

L'AI Act classifica i sistemi AI in quattro categorie di rischio: rischio minimo, rischio limitato, alto rischio e rischio inaccettabile. La maggior parte delle applicazioni AI (come filtri spam o giochi) sono a rischio minimo e non richiedono regolamentazione specifica. I sistemi ad alto rischio devono soddisfare requisiti rigorosi prima di essere immessi sul mercato.

Pratiche vietate

  • Sistemi di social scoring da parte di autorità pubbliche
  • Manipolazione subliminale che può causare danni fisici o psicologici
  • Sfruttamento delle vulnerabilità di gruppi specifici (minori, disabili)
  • Identificazione biometrica remota in tempo reale in spazi pubblici (con eccezioni limitate)

Le pratiche vietate sono completamente proibite nell'UE. Non possono essere utilizzate nemmeno con consenso o per scopi legittimi. Questa è una delle protezioni più forti dell'AI Act.

Sistemi ad alto rischio

I sistemi ad alto rischio includono AI utilizzate in infrastrutture critiche, istruzione, occupazione, servizi pubblici essenziali, applicazioni di legge, migrazione e amministrazione della giustizia. Questi sistemi devono soddisfare requisiti rigorosi: valutazione del rischio, qualità dei dati, documentazione tecnica, trasparenza, supervisione umana, accuratezza e robustezza.

Obblighi per sviluppatori e utilizzatori

Gli sviluppatori di sistemi AI ad alto rischio devono garantire che i loro sistemi siano conformi ai requisiti prima dell'immissione sul mercato. Gli utilizzatori devono utilizzare i sistemi secondo le istruzioni, monitorare il loro funzionamento e segnalare incidenti gravi. Le violazioni possono comportare multe fino al 6% del fatturato annuo globale o 35 milioni di euro, a seconda di quale sia maggiore.

Questo contenuto è gratuito e indipendente

Segno non usa pubblicità né traccia i tuoi dati. Se questo contenuto ti è stato utile, sostieni il progetto.

Sostieni Segno