Tal y como habían prometido, OpenAI ha presentado una nueva tecnología con el que quiere lleva a su modelo de lenguaje un paso más allá. GPT-4o es un modelo avanzado de lenguaje que se implementará próximamente en ChatGPT, aumentando su velocidad de respuesta hasta un «nivel humano», pero que además es capaz de interactuar con entrada mediante texto, audio e incluso mediante imágenes.

OpenAI presenta GPT-4o, un nuevo modelo de lenguaje IA más veloz y "razonable"

GPT-4o nos va a ofrecer una interacción mas humana, siendo similar a la que podríamos obtener manteniendo una conversación con una persona. En concreto se ha aumentado su velocidad de forma que ahora responde en un tiempo promedio de 320 milisegundos, aunque es capaz de llegar hasta los 232 milisegundos. Con ello tenemos una experiencia más fluido y natural que con motores precedentes.

En una nueva forma de unificar los modelos de lenguaje, GPT-4o es capaz de interactuar en tiempo real a través de texto, audio y vídeo, tal y como nos han mostrado en diversas demostraciones.

Entra las capacidades que nos han mostrado hemos podido comprobar su trabajo traduciendo en tiempo real una conversación entre italiano e inglés, con un lenguaje coloquial que no se limitada a la transcripción exacta, sino a ser una especia de intermediado que va traduciendo. También es capaz de interpretar las emociones de una persona, incluso partiendo únicamente de una fotografía, e incluso de ayudar en programación analizando y proponiendo mejoras en el código.

Una de las grandes novedades no son tanto sus capacidades de ayudarnos en distintas tareas, sino como es capaz de interpretar, razonar y sugerir mejoras, tal y como lo haría una persona.

Si te as quedado con ganas de ver como funciona GPT-4o, a continuación tienes la presentación al completo.

Sobre El Autor
Pedro A.
Editor Jefe, enamorado de mi familia y de la tecnología en cualquiera de sus formas, aficionado a la Sci-Fi y a mirar al cielo nocturno. Tratando de vivir la vida sin remordimientos.