OpenAI brengt gratis ChatGPT-4o uit die kan praten, lachen, zingen en zien
Houd in gedachten dat hij in staat zal zijn om te begrijpen dat je liegt
Op 13 mei kondigde OpenAI de release aan van een nieuwe versie van ChatGPT-4o, die volgens hen "mens-computer interactie een stap natuurlijker zal maken". Het nieuwe neurale netwerk accepteert elke combinatie van tekst, audio en afbeeldingen en genereert reacties in al deze formaten. Volgens het bedrijf herkent de AI emoties, kan hij midden in een zin onderbreken en reageert hij bijna net zo snel als een mens.
Zeg hallo tegen GPT-4o, ons nieuwe vlaggenschipmodel dat in realtime kan redeneren via audio, beeld en tekst: https://t.co/MYHZB79UqN
- OpenAI (@OpenAI) 13 mei 2024
Tekst- en beeldinvoer wordt vandaag uitgerold in API en ChatGPT met spraak en video in de komende weken. pic.twitter.com/uuthKZyzYx
De letter "o" in de naam ChatGPT-4o bootst niet alleen 40 na, maar staat ook voor omni, wat uitgebreidheid of omnivoorheid betekent. CTO van OpenAI Mira Murati verklaarde dat ChatGPT-4o een kunstmatige intelligentie op ChatGPT-4-niveau zal zijn voor iedereen, zelfs voor gebruikers zonder betaald abonnement.
Tijdens de presentatie loste ChatGPT-4o een lineaire vergelijking op die op papier was geschreven en gaf ook tips voor een diepe ademhaling door simpelweg naar ademhalingsgeluiden te luisteren.
Eerdere taalmodellen ChatGpt-3.5 en ChatGPT-4 konden ook communiceren via spraak, maar hiervoor werd de stem eerst vertaald naar tekst en vervolgens verwerkt. Met andere woorden, eerst verwerkte een neuraal netwerk de stem en vervolgens verwerkte een ander netwerk de tekst. Nu verwerkt hetzelfde neurale netwerk zowel het geluid als de informatie die het bevat. Met deze aanpak probeert OpenAI meer context te halen uit het beschikbare materiaal, zoals de emotionele toestand van de gesprekspartner. Het is ook veel sneller.