News
Meta rilancia con forza sull’AI generativa: presentato nuovo modello di chatbot e nuovo editor di foto
Meta è pronta a lanciare la sua sfida a ChatGPT di OpenAI e Microsoft, e a Gemini di Google. La società fondata da Mark Zuckerberg ha presentato un nuovo modello di AI generativa, chiamato Llama 3, che sarebbe in grado di fare meglio dei suoi diretti concorrenti in termini di precisione nelle risposte, capacità di ragionamento, scrittura di codice e creatività. Questa, quantomeno, è la promessa esplicita che Meta fa ai suoi utenti: quella di poter trovare nel nuovo modello la miglior qualità di risposta tra tutti i modelli attualmente disponibili gratuitamente. Contemporaneamente Meta ha anche presentato un nuovo editor di immagini basato sull’AI generativa, in grado di cambiare in tempo reale il file in base ai prompt dell’utente.
Il modello sarà integrato all’interno della suite Meta AI, l’assistente personale di Meta basato sull’intelligenza artificiale generativa, con cui l’azienda spera di recuperare il terreno perso rispetto ai big del settore. Meta è una delle poche aziende di Big Tech che non hanno ancora iniziato a lavorare sui dei chip proprietari per alimentare i modelli di AI generativa, al contrario di Google e di Microsoft. Non è ancora sicuro quando verrà rilasciato al pubblico, ma vista la presentazione è molto probabile che questo possa succedere già nel corso delle prossime settimane.
Un assistente integrato nelle app del gruppo
L’idea di Meta è quella di provare a integrare un assistente basato sull’intelligenza artificiale all’interno delle app del gruppo: WhatsApp, Facebook, Instagram e Threads. L’idea sarebbe quella di aiutare gli utenti, ad esempio, a messaggiare tra di loro nella propria lingua materna lasciando che la controparte riceva i messaggi nella propria lingua; aiuterebbe anche la creazione di contenuti, soprattutto per quanto riguarda la produzione di materiale pubblicitario. Gli inserzionisti potrebbero ricorrere all’AI per creare video e immagini, in modo tale da ridurre il tempo e lo sforzo necessario per creare le campagne. In prospettiva, questo si trasformerebbe in un aumento dei ricavi per Meta.
Al momento non è ancora chiaro al 100% quali saranno le forme di integrazione tra i social media di Meta e la nuova AI del gruppo, ma è già stato stabilito che verrà creato anche un sito autonomo dove usare Llama 3 e il nuovo editor di immagini. Questo è il guanto di sfida più diretto lanciato a OpenAI e Google, anche se Meta sta partendo con un ritardo significativo e potrebbe avere qualche difficoltà a convincere gli utenti a passare dalle piattaforme concorrenti alla propria. Sarà soprattutto una questione di velocità di adozione a fare la differenza, in un momento in cui il mercato è in piena fase di espansione ma i player più grandi iniziano già a separarsi velocemente da quelli più piccoli.
Cosa c’è di nuovo
I modelli Llama 1 e LLama 2 sono stati destinati più che altro agli sviluppatori, ma la terza generazione è pronta a fare il grande passo verso gli utenti finali. Tanto per cominciare, questa volta il modello è stato allenato sia su testi che immagini. Anche se accetterà soltanto input testuali, sarà in grado di generare risposte ibride formate sia da immagini che da testo. Inoltre avrà la capacità di elaborare dei piani multi-step, diventando un supporto importante per progettare delle strategie. Inoltre questa intelligenza artificiale sarà integrata nel nuovo modello di Rayban Meta Smart Glasses, costruendo una base per la realtà aumentata che porterà il gruppo più in profondità nelle applicazioni dell’AI per i dispositivi indossabili.