Risorse
14 min
Legale

AI Act europeo: sintesi e impatto

Una panoramica chiara dell'AI Act: classificazione dei rischi, obblighi e cosa cambia per cittadini e aziende.

L'AI Act è il primo regolamento al mondo che disciplina in modo organico l'intelligenza artificiale. Approvato dall'Unione Europea nel 2024, stabilisce regole chiare su come i sistemi IA possono essere sviluppati, distribuiti e utilizzati. Ecco cosa devi sapere.

La classificazione per livelli di rischio

L'AI Act classifica i sistemi di intelligenza artificiale in quattro livelli di rischio, ciascuno con obblighi diversi:

  • Rischio inaccettabile — Sistemi vietati: social scoring, manipolazione subliminale, sorveglianza biometrica di massa. Questi sistemi non possono essere usati nell'UE.
  • Rischio alto — Sistemi soggetti a obblighi stringenti: IA usata in sanità, istruzione, giustizia, accesso al credito, reclutamento. Devono essere trasparenti, documentati e sottoposti a valutazione.
  • Rischio limitato — Sistemi con obblighi di trasparenza: chatbot, deepfake, contenuti generati da IA. L'utente deve sapere che sta interagendo con un'IA.
  • Rischio minimo — Nessun obbligo specifico: filtri spam, videogiochi con IA, raccomandazioni musicali.

Cosa cambia per i cittadini

  • Diritto a sapere quando un'IA prende decisioni che ti riguardano.
  • Divieto di social scoring e sorveglianza biometrica di massa.
  • Obbligo di etichettare i contenuti generati da IA (deepfake, immagini, testi).
  • Possibilità di presentare reclami alle autorità nazionali.

L'AI Act entrerà pienamente in vigore in modo graduale tra il 2025 e il 2027. Alcune disposizioni, come il divieto di sistemi a rischio inaccettabile, sono già operative.