OpenAI rilascia gratuitamente ChatGPT-4o che può parlare, ridere, cantare e vedere
Tenete presente che sarà in grado di capire che state mentendo
Il 13 maggio OpenAI ha annunciato il rilascio di una nuova versione di ChatGPT-4o che, a detta di OpenAI, "renderà l'interazione uomo-computer un passo più naturale". La nuova rete neurale accetta qualsiasi combinazione di testo, audio e immagini e genera risposte in tutti questi formati. Secondo l'azienda, l'IA riconosce le emozioni, può interrompere a metà frase e risponde quasi con la stessa velocità di un essere umano.
Diamo il benvenuto a GPT-4o, il nostro nuovo modello di punta in grado di ragionare in tempo reale su audio, vista e testo: https://t.co/MYHZB79UqN
- OpenAI (@OpenAI) 13 maggio 2024
L'input di testo e immagini è disponibile da oggi in API e ChatGPT, con voce e video nelle prossime settimane. pic.twitter.com/uuthKZyzYx
La lettera "o" nel nome ChatGPT-4o non solo imita 40, ma sta anche per omni, che significa completezza o onnivocità. Il CTO di OpenAI Mira Murati ha dichiarato che ChatGpt-4o sarà un'intelligenza artificiale di livello ChatGPT-4 per tutti, anche per gli utenti che non hanno un abbonamento a pagamento.
Durante la presentazione, ChatGPT-4o ha risolto un'equazione lineare scritta su carta e ha anche dato consigli sulla respirazione profonda semplicemente ascoltando i suoni del respiro.
I precedenti modelli linguistici ChatGpt-3.5 e ChatGPT-4 potevano comunicare anche a voce, ma a questo scopo la voce veniva prima tradotta in testo e poi elaborata. In altre parole, prima una rete neurale elaborava la voce e poi un'altra il testo. Ora, la stessa rete neurale elabora sia il suono che le informazioni che trasporta. Con questo approccio, OpenAI cerca di ottenere più contesto dal materiale disponibile, come ad esempio lo stato emotivo dell'interlocutore. È anche molto più veloce.