AI Act: Nuove Regole sull’Intelligenza Artificiale – Cosa Devi Sapere
8 febbraio 2025

L'Unione Europea ha introdotto l'AI Act, una legge che mira a regolamentare l'uso dell'intelligenza artificiale (IA) per garantire la sicurezza e i diritti dei cittadini. Entrata in vigore il 2 febbraio 2025, questa normativa vieta le applicazioni di IA considerate troppo pericolose e stabilisce regole precise per altre categorie di rischio.
Cosa prevede l'AI Act?
L'AI Act classifica i sistemi di IA in base al livello di rischio:
-
Rischio inaccettabile: Applicazioni vietate, come sistemi che manipolano il comportamento umano o utilizzano il riconoscimento facciale in tempo reale in spazi pubblici senza consenso.
-
Alto rischio: Sistemi utilizzati in settori critici come sanità, istruzione o trasporti, soggetti a requisiti rigorosi di trasparenza e sicurezza.
-
Rischio limitato: Applicazioni che richiedono trasparenza, ad esempio chatbot che devono informare gli utenti di interagire con un'IA.
-
Rischio minimo: Sistemi come filtri antispam o videogiochi, che non necessitano di regolamentazione specifica.
Cosa cambia per i consumatori?
Per i cittadini europei, l'AI Act offre maggiore protezione contro l'uso improprio dell'IA. Ad esempio, pratiche come il "social scoring", che valuta le persone in base al comportamento o alle caratteristiche personali, sono vietate.
Inoltre, le aziende devono garantire che i loro sistemi di IA siano trasparenti e sicuri. Questo significa che i consumatori saranno informati quando interagiscono con un'IA e avranno maggiori garanzie sulla protezione dei loro dati personali.
Quali sono le sanzioni per le aziende?
Le imprese che non rispettano le nuove regole possono affrontare multe significative, fino a 35 milioni di euro o al 6% del fatturato globale annuo, a seconda di quale sia maggiore.
L'AI Act rappresenta un passo importante verso un uso più sicuro e responsabile dell'intelligenza artificiale in Europa, offrendo ai consumatori maggiore trasparenza e protezione.
