OpenAI brengt gratis ChatGPT-4o uit die kan praten, lachen, zingen en zien
Op 13 mei kondigde OpenAI de release aan van een nieuwe versie van ChatGPT-4o, die volgens hen "mens-computer interactie een stap natuurlijker zal maken". Het nieuwe neurale netwerk accepteert elke combinatie van tekst, audio en afbeeldingen en genereert reacties in al deze formaten. Volgens het bedrijf herkent de AI emoties, kan hij midden in een zin onderbreken en reageert hij bijna net zo snel als een mens.
De letter "o" in de naam ChatGPT-4o bootst niet alleen 40 na, maar staat ook voor omni, wat uitgebreidheid of omnivoorheid betekent. CTO van OpenAI Mira Murati verklaarde dat ChatGPT-4o een kunstmatige intelligentie op ChatGPT-4-niveau zal zijn voor iedereen, zelfs voor gebruikers zonder betaald abonnement.
Tijdens de presentatie loste ChatGPT-4o een lineaire vergelijking op die op papier was geschreven en gaf ook tips voor een diepe ademhaling door simpelweg naar ademhalingsgeluiden te luisteren.
Eerdere taalmodellen ChatGpt-3.5 en ChatGPT-4 konden ook communiceren via spraak, maar hiervoor werd de stem eerst vertaald naar tekst en vervolgens verwerkt. Met andere woorden, eerst verwerkte een neuraal netwerk de stem en vervolgens verwerkte een ander netwerk de tekst. Nu verwerkt hetzelfde neurale netwerk zowel het geluid als de informatie die het bevat. Met deze aanpak probeert OpenAI meer context te halen uit het beschikbare materiaal, zoals de emotionele toestand van de gesprekspartner. Het is ook veel sneller.