News

Meta Platforms rilascia un’intelligenza artificiale in grado di controllare il lavoro delle altre AI

Un’intelligenza artificiale in grado di controllare il lavoro delle altre AI. È questo, in estrema sintesi, il nuovo modello lanciato da Meta Platforms.

Pubblicato

il

Meta Platforms, la casa madre di Facebook, ha annunciato che la sua divisione di ricerca ha intenzione di rilasciare alcuni modelli di intelligenza artificiale, tra i quali rientra un Valutatore autodidatta, il quale, almeno nelle aspettative dei ricercatori potrebbe offrire un percorso verso un minore coinvolgimento delle persone nel percorso di sviluppo ed apprendimento dell’intelligenza artificiale.

L’annuncio effettuato da Meta Platforms segue la pubblicazione di un articolo avvenuto nel corso del mese di agosto, nel quale si spiegava, con dovizie di particolari, come questa intelligenza artificiale si basi sulla stessa tecnica di catena di pensiero che viene utilizzata dai modelli 01 che sono stati rilasciati da poco da OperAI per formulare dei giudizi affidabili sulle risposte dei modelli.

La tecnica adottata prevede la suddivisione di problemi complessi in passaggi logici più piccoli. Questa impostazione sembrerebbe aver migliorato l’accuratezza delle risposte a dei problemi più impegnativi in materie come scienza e matematica.

Meta Platforms, la nuova intelligenza artificiale

Meta Platforms ha spiegato che i ricercatori hanno utilizzato esclusivamente dati generati dall’intelligenza artificiale per addestrare il modello di valutazione, eliminando anche in questa fase l’intervento umano.

La capacità di utilizzare l’intelligenza artificiale per valutare l’AI in modo affidabile offre uno sguardo a un possibile percorso verso la creazione di agenti autonomi in grado di imparare dai propri errori.

Molti nel campo dell’intelligenza artificiale immaginano tali agenti come assistenti digitali sufficientemente sviluppati da svolgere una vasta gamma di compiti senza l’intervento umano.

I modelli auto-miglioranti potrebbero eliminare la necessità di un processo spesso costoso e inefficiente utilizzato oggi, denominato Apprendimento per rinforzo tramite feedback umano, che richiede l’input di annotatori umani che devono avere competenze specialistiche per etichettare i dati in modo accurato e verificare che le risposte a query matematiche e di scrittura complesse siano corrette.

Jason Weston, uno dei ricercatori, si augura che, man mano che l’intelligenza artificiale diventa sempre più sovrumana, diventi sempre più brava a controllare il proprio lavoro, tanto da essere effettivamente migliore dell’essere umano medio.

Clicca per votare questo articolo!
[Voti: 0 Media: 0]

Lascia una risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Trending

Exit mobile version