Legale
AI Act europeo: sintesi e impatto
Una panoramica chiara dell'AI Act: classificazione dei rischi, obblighi e cosa cambia per cittadini e aziende.
L'AI Act è il primo regolamento al mondo che disciplina in modo organico l'intelligenza artificiale. Approvato dall'Unione Europea nel 2024, stabilisce regole chiare su come i sistemi IA possono essere sviluppati, distribuiti e utilizzati. Ecco cosa devi sapere.
La classificazione per livelli di rischio
L'AI Act classifica i sistemi di intelligenza artificiale in quattro livelli di rischio, ciascuno con obblighi diversi:
- Rischio inaccettabile — Sistemi vietati: social scoring, manipolazione subliminale, sorveglianza biometrica di massa. Questi sistemi non possono essere usati nell'UE.
- Rischio alto — Sistemi soggetti a obblighi stringenti: IA usata in sanità, istruzione, giustizia, accesso al credito, reclutamento. Devono essere trasparenti, documentati e sottoposti a valutazione.
- Rischio limitato — Sistemi con obblighi di trasparenza: chatbot, deepfake, contenuti generati da IA. L'utente deve sapere che sta interagendo con un'IA.
- Rischio minimo — Nessun obbligo specifico: filtri spam, videogiochi con IA, raccomandazioni musicali.
Cosa cambia per i cittadini
- Diritto a sapere quando un'IA prende decisioni che ti riguardano.
- Divieto di social scoring e sorveglianza biometrica di massa.
- Obbligo di etichettare i contenuti generati da IA (deepfake, immagini, testi).
- Possibilità di presentare reclami alle autorità nazionali.
L'AI Act entrerà pienamente in vigore in modo graduale tra il 2025 e il 2027. Alcune disposizioni, come il divieto di sistemi a rischio inaccettabile, sono già operative.