OpenAI anuncia GPT-4o, su nuevo modelo de IA más rápido y gratuito que puede trabajar en imágenes, texto y voz

Fue a finales de 2022 cuando OpenAI sorprendió al mundo entero con ChatGPT. Este chatbot con inteligencia artificial que utilizaba su modelo GPT-3.5, era capaz de responder a todas nuestras preguntas y revolver dudas con precisión. En estos momentos, el mundo entero se dio cuenta de lo útil que podría ser la IA siendo utilizada de esta forma y desde entonces, han aparecido muchos otros modelos y chatbots que intentan competir. Mientras tanto, OpenAI acaba de anunciar GPT-4o, al que consideran como el modelo de IA más rápido e inteligente con un gran aliciente y es que también es gratuito.

GPT-3.5 fue el primer modelo de IA que nos mostró OpenAI con ChatGPT, pero pronto fue mejorado con GPT-4, el cual añadía una serie de novedades. Teníamos la capacidad no solo de interactuar y generar texto a base de respuestas, sino también imágenes. Además, el nuevo modelo era más creativo e inteligente, lo que le permitía elaborar respuestas más precisas, algo fundamental en las IA. Tareas como escribir canciones, guiones de películas o libros, empezaban a ser algo habitual y que muchos aprovecharon para poder hacer sus experimentos con inteligencia artificial para ver los resultados.

OpenAI presenta GPT-4o, su modelo de IA más rápido y preciso, capaz de dar respuestas a nuestra voz en 320 ms, como un ser humano

Fue en marzo de 2023 cuando GPT-4 se anunció oficialmente y hoy tras más de un año, tenemos un nuevo modelo de IA por parte de OpenAI. En el video de YouTube podemos ver la presentación de GPT-4o, siendo este el modelo más avanzado y rápido. Según la compañía, este modelo es mucho más eficaz a la hora de comprender y analizar las fotos e imágenes. Dan como ejemplo la capacidad de GPT-4o de poder analizar una foto que le pasemos de un menú en un idioma diferente, traduciéndolo y explicando la historia de dicha comida. Con GPT-4o han querido hacer un modelo más preciso, que dé respuestas más detalladas y además que estas se noten "naturales" y no escritas por una máquina.

Además, han realizado mejoras en cuanto a accesibilidad, pues ChatGPT ahora admite más de 50 idiomas. Otro de los puntos importantes, es que ha bajado considerablemente el tiempo de respuesta si utilizamos el modo voz. Con GPT-3.5 las respuestas tardaban 2,8 segundos, mientras que con GPT-4o hablamos de un tiempo de solo 320 ms, similar al de un ser humano.

Los usuarios gratuitos de ChatGPT podrán utilizar también GPT-4o

GPT-4 anuncio

Básicamente, OpenAI considera que si hablamos con GPT-4o es como si estuviésemos hablando con otra persona, no solo por una latencia mínima, sino también por unas respuestas más naturales a las preguntas o por el hecho de que podemos interrumpirla mientras contesta. La nueva IA de OpenAI es capaz de contestar con distintos tonos de voz y expresar varios estados de ánimo. Nos estamos acercando a un momento donde la inteligencia artificial se va pareciendo a lo que veíamos en películas.

Por otro lado, se ha añadido una capacidad de traducción automática, lo que nos permite traducir en tiempo real a alguien que habla en otro idioma. OpenAI ya ha anunciado que este modo de voz y las nuevas capacidades llegarán en forma de una versión alfa a lo largo de las próximas semanas. Aquellos usuarios que están suscritos a GPT Plus lo recibirán de forma anticipada. Aunque quizá, lo mejor de todo es que también se beneficiaran los usuarios de ChatGPT Free.

Estos podrán utilizar la IA y herramientas más avanzadas con GPT-4o, aunque con un límite de mensajes y cuando este se supere, volverán a GPT-3.5. Aquellos que paguen por el Plus tendrán también un límite, pero será 5 veces mayor a los usuarios gratuitos, mientras que los que estén suscritos a las modalidades Team y Enterprise, tendrán límites más altos. Otros cambios anunciados es una nueva aplicación de escritorio disponible para macOS, a la cual podremos acceder con el atajo de teclado Opción + Espacio. Esta aplicación llegará a los usuarios de Plus muy pronto y lanzarán una versión para Windows a finales de este año.