News, Economia

Più test, paletti e nuove regole per l’AI negli Stati Uniti

Avatar di Alessandro Calvo
Written by Alessandro Calvo
Diplomato in Scienze Economiche presso l'Ateneo di Torino, mi dedico alla vita di nomade digitale con un focus particolare sugli investimenti azionari. Rivesto il ruolo di gestore e analista capo per il portfolio di azioni su TradingOnline.com. Come ricordato da Peter Lynch, è importante tenere a mente che investire in azioni non equivale a giocare alla lotteria; rappresenta piuttosto la detenzione di una quota parte di un'impresa
Scopri i nostri principi editoriali

La Casa Bianca annuncia un interessante accordo con le principali società nel mondo dell’intelligenza artificiale. Tra queste ci sono OpenAI, creatrice di ChatGPT, ma anche Alphabet, Meta Platforms e altre società più piccole. Dopo aver ignorato a lungo la regolamentazione del mondo crypto e aver visto il caos nato dalle conseguenze, ora le istituzioni americane sembrano molto solerti nel voler regolamentare i trend tecnologici più importanti. In particolare, l’intelligenza artificiale desta molti dubbi sui pericoli che potrebbe rappresentare nel caso di un utilizzo sbagliato. L’alba di questa tecnologia presenta grandi opportunità sul piano economico, ma anche grandi dilemmi etici.

Il Presidente degli Stati Uniti, Joe Biden, si è dichiarato soddisfatto dei risultati raggiunti. Ha anche aggiunto che sono solo il primo passo di un lungo percorso che vedrà connesse le istituzioni americane e le società che si occupano di AI. In ogni caso, per il momento si tratta soltanto di accordi privati tra le società invitate alla Casa Bianca e la presidenza. Manca ancora una vera e propria regolamentazione, anche se l’amministrazione Biden sembra voler andare in questa direzione nel corso dei prossimi mesi. Per il momento ci si limita a voler evitare quelli che potrebbero essere gli effetti peggiori nell’immediato di un uso inconsapevole dell’AI generativa.

presentazione della notizia sull'accordo tra Casa Bianca e principali aziende di AI
Fino a questo momento, soprattutto negli USA, la regolamentazione etica dell’AI è rimasta in capo alle singole società del settore

Watermark e test minuziosi

Per il momento le novità che sono state annunciate riguardano misure di sicurezza generiche. Le società invitate alla tavola rotonda, tra cui anche Amazon e Microsoft, si sono dette pronte ad aumentare gli sforzi legati ai test per assicurarsi che i loro prodotti non possano causare danni. Inoltre hanno accordato di collaborare sul piano della condivisione delle informazioni sui rischi e sugli investimenti in cybersecurity, un altro dei temi molto importanti che riguardano l’intelligenza artificiale. Nel corso dei prossimi mesi si scoprirà quanto questi colossi tech, che competono per affermarsi come leader del mondo AI, siano effettivamente disposti a lavorare insieme.

Per il momento non è stata invitata la nuova società xAI di Elon Musk. Le aziende presenti, però, rappresentano oggi l’avanguardia dell’AI generativa ed è positivo per l’intera industria che ci siano degli sforzi congiunti. Tra questi, anche la possibilità di introdurre un watermark sui contenuti generati dall’intelligenza artificiale. Questo marchio renderebbe immediatamente riconoscibili i contenuti che sono stati creati dall’AI generativa, in modo da poterli distinguere dagli altri. Non è chiaro come questo possa funzionare nel concreto senza rovinare i possibili scopi per cui l’AI generativa è stata creata, ma al momento si parla ancora di intenti molto generici; i dettagli saranno con ogni probabilità discussi nel corso del tempo.

foto di chatgpt e unione europea insieme
L’Unione Europea è stata la prima ad approvare un set di regole vere e proprie sull’AI. È possibile che ChatGPT dovrà dichiarare quali contenuti siano stati generati con l’uso di questa tecnologia.

Gli USA recuperano terreno legislativo

Per il momento gli Stati Uniti sono ancora indietro rispetto all’Europa sul piano di regolamentazione dell’intelligenza artificiale generativa. Malgrado gli USA siano la culla delle società più avanzate del settore, non c’è ancora una vera e propria regolamentazione federale del settore. In Europa, invece, a giugno sono state approvate dall’Unione alcune regole generali per servizi come ChatGPT. Tra queste il fatto di dover espressamente dichiarare quali contenuti siano stati generati con l’AI, e l’obbligo di aiutare a distinguere le immagini generate dall’intelligenza artificiale da quelle che non lo sono. Inoltre sono state approvate delle misure di sicurezza sulla prevenzione dei contenuti illegali.

Il senatore degli Stati Uniti Chuck Schumer ha già chiesto di promuovere un’agenda per la regolamentazione dell’AI da parte del governo americano. Il Congresso sta anche considerando di approvare una legge che riguarda le inserzioni pubblicitarie a sfondo politico; nel caso venga trasformata in legge a tutti gli effetti, prevederà che i contenuti generati con l’AI -come immagini o slogan- debbano essere espressamente dichiarati come tali.

Da una parte, i legislatori cercano di non ostacolare il progresso. Dall’altra parte è ancora poco chiaro quali possano essere gli sviluppi dell’AI nel corso dei prossimi anni e quali siano i rischi che questa tecnologia comporta. Per questo, con ogni probabilità, stiamo vedendo soltanto i primi accenni di una materia viva che farà discutere molto nel corso dei prossimi mesi e anni.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *