Connect with us

News

Google cerca il sorpasso sui processori: pronti i nuovi chip Arm per cloud e per l’AI generativa

Google ha deciso di andare all-in nella sua nuova avventura del mondo dei processori, che vede la società diventare sempre più attenta a progettare i semiconduttori che utilizza anziché comprarli da aziende come Nvidia o Intel. L’obiettivo non è soltanto una maggiore indipendenza, ma cercare di sorpassare Amazon nel settore del cloud computing e Microsoft in quello dell’intelligenza artificiale. Per questo l’azienda ha appena presentato gli ultimi risultati della sua ricerca: un chip basato sull’architettura Arm per i suoi data center, che rappresenta l’evoluzione dell’attuale TPU v4 per allenare i modelli di intelligenza artificiale generativa.

Immediatamente le novità sono state recepite con entusiasmo dai mercati, con le azioni Google che hanno chiuso la giornata di scambi di ieri in rialzo dello 0,96%. La sensazione è che l’azienda sia pronta a diventare un player di livello globale nel mondo della progettazione dei microchip, avendo fatto in due anni dei progressi straordinari parallelamente a tutto il lavoro svolto nel suo business principale. E per via dei controlli antitrust sempre più pressanti, Google ha dovuto fare tutto questo senza poter contare su acquisizioni che potessero semplificare la ricerca e lo sviluppo dei suoi semiconduttori.

presentazione della notizia su Google che presenta nuovi chip per AI e data center
Secondo New Street Research, nel 2023 Google ha spento $3 miliardi per la sua ricerca nel campo dei microchip

Pronto un nuovo processore Arm per i data center

Google sarebbe pronta a lanciare, entro fine anno, una nuova versione del suo servizio di cloud computing che includerà l’offerta di CPU basati sull’architettura Arm e migliorati dagli ingegneri della società di Mountain View. L’architettura Arm è un particolare modo di gestire i rapporti tra l’hardware e il software, che determina il modo e l’ordine in cui vengono eseguite le istruzioni del processore per ottimizzare i processi e rendere le app più veloci. Questo tipo di architettura è specifico di Arm, società che si è quotata in Borsa da poco e di cui Google possiede delle quote; il colosso dei motori di ricerca ha lavorato sui processori prodotti da Arm per renderli, secondo quanto dichiarato nella presentazione, quasi il 30% più veloci dei tradizionali processori Arm e il 50% più efficienti rispetto agli equivalenti prodotti da Intel.

I nuovi chip per i data center sono stati battezzati Axion e attualmente sono già impiegati con successo in alcuni dei servizi Google: l’algoritmo pubblicitario di YouTube, il motore grafico di Google Earth e altri servizi consumer dell’azienda. Ora l’obiettivo è completare la raccolta di tutti i dati di test, per poi, nell’arco di pochi mesi, completare il passaggio della nuova architettura alle soluzioni offerte ai clienti business che scelgono Google Cloud. Il management di questa unità di business ha già precisato che non ci sarà bisogno, per i clienti, di aggiornare il codice delle loro app per fare il passaggio a questa nuova architettura.

foto di un data center
L’AI generativa ha segnato il ritorno alla ricerca più in campo hardware che software

Pronta la rincorsa a ChatGPT

Trovandosi a rincorrere nella sfida per l’AI generativa, che ha visto Microsoft cogliere subito il vantaggio del pioniere grazie alla sua partnership di lunga data con OpenAI -la società creatrice di ChatGPT-, Google sta provando a portare la sfida verso un nuovo campo di battaglia. La scommessa di Mountain View è che, lavorando adeguatamente sui chip (che Microsoft compra da Nvidia), sarà possibile fare un sorpasso decisivo anche su questo fronte. Per questo Google è ora pronta a implementare i suoi nuovi TPU v5, che conterranno il doppio dei chip rispetto alla versione v4.

Google ha già chiarito che l’azienda non venderà i suoi nuovi processori, ma limiterà il loro utilizzo alla gestione dei servizi proprietari e permetterà ai clienti di noleggiarli attraverso Google Cloud per allenare i grandi modelli di intelligenza artificiale. Oltre al doppio dei chip, l’azienda si aspetta anche il doppio della performance e una forte affidabilità garantita dal raffreddamento a liquido. Con Microsoft che ha già promesso di voler rivelare una sua linea di chip per affrancarsi dalla dipendenza da Nvidia, la sfida di Big Tech per l’AI generativa è più aperta che mai.

Click to comment

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *