News
L’Unione Europea approva l’AI Act: passo storico nella regolamentazione dell’intelligenza artificiale
L’Unione Europea ha approvato l’AI Act, la prima storica regolamentazione sull’uso e sui limiti dell’intelligenza artificiale. Ancora una volta l’UE arriva prima di tutte le altre grandi economie a definire un quadro normativo preciso: come spesso si dice a Wall Street, gli USA inventano e l’UE regolamenta. Questo nuovo passo avanti regolamentare è importante non solo per l’Unione Europea, ma anche per il mercato azionario e per tutte le società che si occupano di AI. Molto spesso, quando l’UE approva una regolamentazione per un certo mercato, gli Stati Uniti e le altre grandi economie Occidentali guardano a questo quadro come base per formulare le loro stesse leggi.
L’AI Act non è soltanto composto da linee guida per indirizzare la loro operatività. L’Unione Europea ha stabilito delle regole molto chiare e anche delle sanzioni per qualunque azienda dovesse romperle: si parla di multe che possono arrivare al 7% del fatturato o 35 milioni di euro. A seconda di quale sia il valore più alto, sarà quello che verrà applicato nel caso di infrazioni gravi del regolamento. Con l’AI Act pronto per entrare in vigore, gli analisti si chiedono già quale potrebbe essere l’impatto economico della notizia per aziende come Microsoft, OpenAI e Google.
Come funziona il nuovo AI Act
L’Unione Europea ha deciso di segmentare il mondo dell’AI, in modo da poter fare delle regole specifiche per i vari settori di applicazione di questa tecnologia. Ci sono delle applicazioni che sono considerate “inaccettabili” e non potranno essere sviluppate in alcun modo: tra queste, la possibilità di creare degli algoritmi per assegnare ai cittadini un certo punteggio di credito sociale. Questo sistema è già impiegato in altre parti del mondo, con la Cina che ha fatto da apripista e l’Australia che ha presentato un sistema simile lo scorso anno. Inoltre non sarà possibile utilizzare degli algoritmi per identificare i cittadini, soprattutto in luoghi pubblici come il posto di lavoro o a scuola.
Ci sono poi delle applicazioni definite “ad alto rischio“, come l’uso dell’intelligenza artificiale per i veicoli a guida autonoma o per le operazioni chirurgiche. In questo caso l’UE riconosce tanto i rischi quanto il potenziale della tecnologia, per cui si farà una valutazione individuale di tutti i casi e le aziende dovranno ottenere una previa autorizzazione per poter sviluppare soluzioni di questo genere. Ci sono infine delle applicazioni a basso rischio, come quelle previste dai nuovi computer AI-native di Microsoft, che rimangono invece soltanto legate al rispetto dei criteri sulla privacy degli utenti e sull’uso etico e responsabile dell’intelligenza artificiale.
12 mesi alle aziende per adattarsi
L’Unione Europea ha concesso un periodo di 12 mesi alle imprese per adattare i loro servizi al rispetto minuzioso di tutti i dettagli previsti dall’AI Act. Alle società che si occupano di intelligenza artificiale è chiesto soprattutto il controllo di come i loro servizi possano interferire con altri regolamenti UE: rispetto del copyright, della privacy, del trattamento dei dati personali, della sicurezza informatica e così via. Qui la linea tra il concesso e il proibito non è stata marcata in modo chiaro, soprattutto nel caso dell’AI generativa. Per questo, l’Unione Europea ha concesso un periodo di 36 mesi extra a tutti i chatbot già disponibili su scala commerciale per adattarsi ai nuovi regolamenti. Questo dovrebbe essere un tempo sufficiente a chiarire tutti i dubbi, eventualmente anche con la pubblicazione di nuovi chiarimenti da parte del regolatore europeo.