Negli ultimi tempi si parla tanto di AI, ma perché?
Recentemente, l’8 dicembre 2023, le istituzioni europee e cioè il Parlamento, il Consiglio e la Commissione dell’UE hanno siglato un accordo politico su un regolamento relativo all’uso dell’intelligenza artificiale. Si tratta del nuovo regolamento europeo AI ACT di portata rivoluzionaria, destinato a cambiare il mercato e le imprese, concepito con il preciso intento di guidare lo sviluppo e l’evoluzione dell’AI in una direzione incentrata sull’uomo.
Scopriamo insieme ad un team di avvocati esperti nel nuovissimo settore dell’intelligenza artificiale, il nuovo regolamento europeo AI ACT.
Lo Studio Legale Bertuzzi e Associati forte dell’esperienza e competenza maturata nel tempo ti consente di fare chiarezza sull’intricato panorama legato all’uso dell’intelligenza artificiale. Siamo qui per aiutarti a comprendere le nuovissime regole dettate in codesto settore dal nuovo Regolamento Europeo AI ACT, tutelando i tuoi diritti al fine di ottenere i migliori risultati possibili. Contattaci subito e richiedi una consulenza personalizzata a te e alle tue esigenze
Il nuovo regolamento europeo AI ACT: Cosa è l’IA?
In termini tecnici, l’IA è un software che utilizza uno o più algoritmi di apprendimento automatico al fine di generare output o prendere decisioni. Attraverso la creazione e l’applicazione di algoritmi integrati in un ambiente di calcolo dinamico, l’IA consente di simulare i processi dell’intelligenza umana. L’obiettivo perseguito dall’IA è quello di creare computers in grado di pensare ed agire al pari degli esseri umani.
Il nuovo regolamento europeo AI ACT: I principi fondamentali dell’AI ACT: il principio di sicurezza e il principio di trasparenza
Il nuovo regolamento europeo AI ACT (v. anche art. Regolamento Europeo sull’ IA: approvazione definitiva )si basa su due principi fondamentali: il principio di sicurezza e il principio di trasparenza.
Secondo il principio di sicurezza tutti i sistemi di IA devono essere progettati e sviluppati in modo da rispettare i diritti fondamentali, lo Stato di diritto, la democrazia, la sostenibilità ambientale, gli interessi pubblici, consentendo alle imprese che intendono investire nel settore, la possibilità di crescere ed innovarsi.
Secondo il principio di trasparenza tutti i sistemi di IA devono essere progettati e sviluppati in modo da garantire la trasparenza delle loro decisioni e dei loro processi. Ciò significa tali sistemi devono essere in grado sia di spiegare le ragioni poste alla base delle loro decisioni che di fornire informazioni sui dati utilizzati per prendere tali decisioni.
Il nuovo regolamento europeo AI ACT: i punti fondamentali: cosa dobbiamo sapere?
I punti fondamentali del regolamento europeo sono:
- limitazione all’utilizzo, da parte delle forze dell’ordine, di sistemi informatici di identificazione biometrica aventi lo scopo di identificare una persona sulla base di una o più caratteristiche fisiologiche;
- divieti di “social scoring” ovvero di poter valutare l’integrità sociale dei cittadini su più fronti attribuendogli un punteggio e di utilizzo dell’IA al fine di manipolare o sfruttare le vulnerabilità degli utenti;
- diritto dei consumatori e cittadini di presentare un reclamo all’autorità di vigilanza del mercato competente in merito e di ricevere spiegazioni sulle decisioni basate sui sistemi dell’IA che incidono sui loro diritti;
- irrogazione di sanzioni che prevedono un importo massimale pari a 35 milioni di euro o del 7% per le violazioni delle applicazioni AI vietate, ovvero di 15 milioni di euro o del 3% per le violazioni degli obblighi della legge sull’AI e di 7,5 milioni di euro o dell’1,5% per la fornitura di informazioni non corrette.
Il nuovo regolamento europeo AI ACT: sistemi di IA ad alto e basso rischio
I sistemi di IA sono classificati in base al loro rischio. I livelli di rischio sono 4:
- -rischio inaccettabile
- -rischio elevato
- -rischio limitato
- -rischio minimo o nullo
-per rischio inaccettabile si intendono tutti i sistemi di IA considerati una chiara minaccia per la sicurezza e i diritti delle persone e come tali saranno vietati;
-per rischio elevato si intendono tutti i sistemi di IA che utilizzati ad esempio nelle infrastrutture critiche come i trasporti, nell’istruzione, nell’occupazione, nei servizi privati e pubblici essenziali potrebbero mettere a rischio la vita e la salute dei cittadini e come tali saranno soggetti ad obblighi rigorosi prima di poter essere immessi sul mercato;
-per rischio limitato ci si riferisce a tutti i sistemi di IA come le chatbot e che, come tali, dovranno rispettare specifici obblighi di trasparenza;
-per rischio minimo o nullo si intendono tutti i sistemi di IA che includono applicazioni come videogiochi abilitati per l’IA o filtri antispam e che, come tali, sono liberamente utilizzabili presentando un rischio trascurabile per i diritti o la sicurezza dei cittadini.