Brevissima…
L’AI Act, prima legge in assoluto sull’intelligenza artificiale, affronta i rischi collegati a questa innovazione digitale.
In particolare, si fa riferimento alla protezione dei dati personali che circolano nel web, che rischia di essere messa a dura prova dall’uso incontrollato dell’intelligenza artificiale.
Il regolamento sull’intelligenza artificiale (AI) può considerarsi la risposta dell’Unione europea a questa ondata di innovazione digitale in continua crescita, una misura per instaurare un mercato digitale europeo sicuro e fidato, contenente un pacchetto di misure politiche a sostegno dello sviluppo di un’intelligenza artificiale affidabile.
Ecco alcune delle misure previste:
- affrontare i rischi creati specificamente dalle applicazioni di intelligenza artificiale
- vietare le pratiche di intelligenza artificiale che comportano rischi inaccettabili
- stabilire requisiti chiari per i sistemi di intelligenza artificiale per le applicazioni ad alto rischio
- definire obblighi specifici per gli operatori e i fornitori di applicazioni di intelligenza artificiale ad alto rischio
- ecc.
I tempi di attuazione del Regolamento variano dai 6 ai 36 mesi, con priorità ai settori a rischio più elevato (ad es. formazione scolastica o professionale, componenti di sicurezza dei prodotti, servizi pubblici e privati essenziali, ecc.), passando per i settori a rischio limitato (si fa riferimento ai rischi associati alla mancanza di trasparenza nell’uso dell’intelligenza artificiale), fino ai settori a rischio minimo o nullo (come videogiochi abilitati all’intelligenza artificiale).
Attualmente, la maggior parte dei sistemi di intelligenza artificiale utilizzati nell’UE rientra in quest’ultima categoria.
AI Act – Regolamento (UE) 2024/1689 del 13 giugno 2024 «Regolamento sull’intelligenza artificiale»