OpenAI lanza ChatGPT-4o gratuito que puede hablar, reír, cantar y ver
El 13 de mayo, OpenAI anunció el lanzamiento de una nueva versión de ChatGPT-4o, que, según ellos, "hará que la interacción persona-ordenador sea un paso más natural". La nueva red neuronal acepta cualquier combinación de texto, audio e imágenes y genera respuestas en todos estos formatos. Según la empresa, la IA reconoce emociones, puede interrumpir a mitad de frase y responde casi tan rápido como un humano.
La letra "o" en el nombre de ChatGPT-4o no solo imita a 40, sino que también significa omni, que significa exhaustividad u omnivoracidad. La CTO de OpenAI Mira Murati afirmó que ChatGpt-4o será una inteligencia artificial de nivel ChatGPT-4 para todo el mundo, incluso para usuarios sin suscripción de pago.
En la presentación, ChatGPT-4o resolvió una ecuación lineal escrita en papel y también dio consejos de respiración profunda con sólo escuchar los sonidos de la respiración.
Los anteriores modelos lingüísticos ChatGpt-3.5 y ChatGPT-4 también podían comunicarse por voz, pero para ello primero se traducía la voz a texto y luego se procesaba. Es decir, primero una red neuronal procesaba la voz y luego otra el texto. Ahora, la misma red neuronal procesa tanto el sonido como la información que transporta. Con este enfoque, OpenAI intenta obtener más contexto del material disponible, como el estado emocional del interlocutor. También es mucho más rápido.