OpenAI випускає безкоштовний ChatGPT-4o, який зможе розмовляти, сміятися, співати і бачити
Майте на увазі, він зможе зрозуміти що ви обманюєте
13 травня OpenAI анонсувала вихід нової версії ChatGPT-4o, який за їх словами «зробить взаємодію між людиною і комп'ютером ще на крок більш природньою». Нова нейромережа сприймає будь-яку комбінацію тексту, аудіо та зображень і генерує відповідь також в усіх цих форматах. Як стверджують представники компанії, ШІ розпізнає емоції, може переривати на середині речення і відповідає майже так само швидко, як людина.
Say hello to GPT-4o, our new flagship model which can reason across audio, vision, and text in real time: https://t.co/MYHZB79UqN
— OpenAI (@OpenAI) May 13, 2024
Text and image input rolling out today in API and ChatGPT with voice and video in the coming weeks. pic.twitter.com/uuthKZyzYx
Літера «о» в назві ChatGPT-4o не тільки мімікрує під 40, а й має означення omni, тобто всеосяжність, або всеїдність. CTO OpenAI Міра Мураті (Mira Murati) заявила, що ChatGpt-4o буде штучним інтелектом рівня ChatGPT-4 для всіх, навіть користувачів без платної підписки.
На презентації ChatGPT-4o вирішив лінійне рівняння, записане на папері, а також дав поради щодо глибокого дихання просто слухаючи звуки дихання.
Попередні мовні моделі ChatGpt-3.5 та ChatGPT-4 теж в принципі могли спілкуватися голосом, але для цього спочатку голос переводився в текст, а потім оброблявся. Тобто, по-суті, спочатку одна нейронна мережа обробляла голос, потім інша – текст. Тепер же одна і та ж нейромережа обробляє і звук і інформацію, що він несе. З таким підходом OpenAI намагається отримати більше контексту з наявного матеріалу, наприклад, про емоційний стан співбесідника. А ще це набагато швидше.