
OpenAI ha anunciado el lanzamiento alfa del Modo de voz avanzado de ChatGPT, energizado pormodelo innovador GPT-4o. Esta característica revolucionaria, que promete ofrecer respuestas de audio hiperrealistas, inicialmente será accesible para un pequeño grupo de usuarios de ChatGPT Plus a partir de hoy, con el objetivo de extender la disponibilidad a todos los suscriptores Plus. para otoño de 2024.
Modo Voz: El modo voz de ChatGPT es oficial
La presentación del modo voz con GPT-4o, que tuvo lugar en mayo, despertó gran interés y admiración entre el público, gracias a su extraordinaria velocidad de generación y el sorprendente parecido con una voz humana real, que ha provocado comparaciones con la de la famosa actriz Scarlett Johansson.
OpenAI negó haber utilizado la voz de la actriz, posteriormente eliminó la voz de la demostración y anunció, en junio, un posponer el lanzamiento del modo de voz avanzado para mejorar las medidas de seguridad.
En esta fase alfa, algunas de las funciones mostradas durante la actualización de primavera, como video y uso compartido de pantalla, no se incluirán y se introducirán más adelante. Sin embargo, un grupo seleccionado de usuarios premium tendrá acceso a la función de voz ChatGPT presentada en la demostración.
Lea también: SearchGPT: qué es el motor de búsqueda OpenAI y cómo funciona
El modo Advanced Voice se diferencia de la solución de audio que ofrece actualmente ChatGPT, que se basa en tres modelos distintos. GPT-4o, gracias a su naturaleza multimodal, es capaz de procesar estas tareas sin recurrir a modelos auxiliares, generando respuestas vocales con uno Latencia significativamente reducida. Además, OpenAI destaca la capacidad de GPT-4o para percibir matices emocionales en la voz, como la tristeza y la emoción, y reconocer el canto.
Para garantizar un seguimiento cuidadoso del uso de voz de ChatGPT, OpenAI ha optado por un liberación gradual. Los miembros del programa Alpha recibirán una notificación en la aplicación ChatGPT, seguida de un correo electrónico con instrucciones para utilizar la función.
Las capacidades vocales de GPT-4o han sido probados en 45 idiomas, lo que demuestra el compromiso de OpenAI de hacer que esta tecnología sea accesible a una amplia audiencia internacional. Además, la compañía ha implementado nuevos filtros para evitar solicitudes de creación musical u otro material de audio protegido por derechos de autor, protegiendo así la propiedad intelectual.
El modo de voz mejorado de ChatGPT se limitará inicialmente a cuatro voces preestablecidas de ChatGPT: Juniper, Breeze, Cove y Ember, creados en colaboración con actores de doblaje profesionales. ChatGPT no tendrá la capacidad de imitar las voces de otras personas y bloqueará cualquier salida que se desvíe de estas voces predeterminadas, garantizando así un uso ético y responsable de la tecnología.