OpenAI lance un ChatGPT-4o gratuit qui peut parler, rire, chanter et voir
Gardez à l'esprit qu'il sera en mesure de comprendre que vous mentez
Le 13 mai, OpenAI a annoncé la sortie d'une nouvelle version de ChatGPT-4o qui, selon elle, "rendra l'interaction homme-machine encore plus naturelle". Le nouveau réseau neuronal accepte toute combinaison de texte, d'audio et d'images et génère des réponses dans tous ces formats. Selon l'entreprise, l'IA reconnaît les émotions, peut s'interrompre au milieu d'une phrase et répond presque aussi rapidement qu'un humain.
Dites bonjour à GPT-4o, notre nouveau modèle phare qui peut raisonner sur l'audio, la vision et le texte en temps réel : https://t.co/MYHZB79UqN
- OpenAI (@OpenAI) 13 mai 2024
La saisie de texte et d'image est déployée aujourd'hui dans l'API et ChatGPT avec la voix et la vidéo dans les semaines à venir. pic.twitter.com/uuthKZyzYx
La lettre "o" dans le nom de ChatGPT-4o n'imite pas seulement 40, mais représente également omni, ce qui signifie exhaustivité ou omnivorité. Mira Murati, directeur technique d'OpenAI, a déclaré que ChatGpt-4o sera une intelligence artificielle de niveau ChatGPT-4 pour tout le monde, même pour les utilisateurs ne disposant pas d'un abonnement payant.
Lors de la présentation, ChatGPT-4o a résolu une équation linéaire écrite sur papier et a également donné des conseils de respiration profonde en écoutant simplement les sons respiratoires.
Les modèles linguistiques précédents ChatGpt-3.5 et ChatGPT-4 pouvaient également communiquer par la voix, mais à cette fin, la voix était d'abord traduite en texte, puis traitée. En d'autres termes, un réseau neuronal traitait d'abord la voix, puis un autre le texte. Aujourd'hui, le même réseau neuronal traite à la fois le son et l'information qu'il véhicule. Avec cette approche, l'OpenAI tente de tirer davantage de contexte du matériel disponible, comme l'état émotionnel de l'interlocuteur. Elle est également beaucoup plus rapide.