OpenAI lanza ChatGPT-4o gratuito que puede hablar, reír, cantar y ver
Ten en cuenta que él será capaz de entender que estás mintiendo
![OpenAI lanza ChatGPT-4o gratuito que puede hablar, reír, cantar y ver OpenAI lanza ChatGPT-4o gratuito que puede hablar, reír, cantar y ver](/media/post_big/fortuneindia_2024-05_2f2081d1-a3d8-46d1-b113-f21ee3a3763d_GPT_4O.jpg)
El 13 de mayo, OpenAI anunció el lanzamiento de una nueva versión de ChatGPT-4o, que, según ellos, "hará que la interacción persona-ordenador sea un paso más natural". La nueva red neuronal acepta cualquier combinación de texto, audio e imágenes y genera respuestas en todos estos formatos. Según la empresa, la IA reconoce emociones, puede interrumpir a mitad de frase y responde casi tan rápido como un humano.
Saluda a GPT-4o, nuestro nuevo modelo insignia que puede razonar a través de audio, visión y texto en tiempo real: https://t.co/MYHZB79UqN
- OpenAI (@OpenAI) 13 de mayo de 2024
La entrada de texto e imagen se lanza hoy en API y ChatGPT con voz y vídeo en las próximas semanas. pic.twitter.com/uuthKZyzYx
La letra "o" en el nombre de ChatGPT-4o no solo imita a 40, sino que también significa omni, que significa exhaustividad u omnivoracidad. La CTO de OpenAI Mira Murati afirmó que ChatGpt-4o será una inteligencia artificial de nivel ChatGPT-4 para todo el mundo, incluso para usuarios sin suscripción de pago.
En la presentación, ChatGPT-4o resolvió una ecuación lineal escrita en papel y también dio consejos de respiración profunda con sólo escuchar los sonidos de la respiración.
Los anteriores modelos lingüísticos ChatGpt-3.5 y ChatGPT-4 también podían comunicarse por voz, pero para ello primero se traducía la voz a texto y luego se procesaba. Es decir, primero una red neuronal procesaba la voz y luego otra el texto. Ahora, la misma red neuronal procesa tanto el sonido como la información que transporta. Con este enfoque, OpenAI intenta obtener más contexto del material disponible, como el estado emocional del interlocutor. También es mucho más rápido.