Brevissima…

L’AI Act, prima legge in assoluto sull’intelligenza artificiale, affronta i rischi collegati a questa innovazione digitale.

In particolare, si fa riferimento alla protezione dei dati personali che circolano nel web, che rischia di essere messa a dura prova dall’uso incontrollato dell’intelligenza artificiale.


Il regolamento sull’intelligenza artificiale (AI) può considerarsi la risposta dell’Unione europea a questa ondata di innovazione digitale in continua crescita, una misura per instaurare un mercato digitale europeo sicuro e fidato, contenente un pacchetto di misure politiche a sostegno dello sviluppo di un’intelligenza artificiale affidabile.

Ecco alcune delle misure previste:

  • affrontare i rischi creati specificamente dalle applicazioni di intelligenza artificiale
  • vietare le pratiche di intelligenza artificiale che comportano rischi inaccettabili
  • stabilire requisiti chiari per i sistemi di intelligenza artificiale per le applicazioni ad alto rischio
  • definire obblighi specifici per gli operatori e i fornitori di applicazioni di intelligenza artificiale ad alto rischio
  • ecc.

I tempi di attuazione del Regolamento variano dai 6 ai 36 mesi, con priorità ai settori a rischio più elevato (ad es. formazione scolastica o professionale, componenti di sicurezza dei prodotti, servizi pubblici e privati essenziali, ecc.), passando per i settori a rischio limitato (si fa riferimento ai rischi associati alla mancanza di trasparenza nell’uso dell’intelligenza artificiale), fino ai settori a rischio minimo o nullo (come videogiochi abilitati all’intelligenza artificiale).

Attualmente, la maggior parte dei sistemi di intelligenza artificiale utilizzati nell’UE rientra in quest’ultima categoria.


AI Act – Regolamento (UE) 2024/1689 del  13 giugno 2024 «Regolamento sull’intelligenza artificiale»


Stampa articolo