noticias

OpenAI implementa el modo de voz avanzado para algunos usuarios de ChatGPT Plus

2024-08-01

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

· Las nuevas funciones de audio permiten a los usuarios hablar con ChatGPT y recibir respuestas en tiempo real inmediatamente, o interrumpir mientras ChatGPT está hablando. Más adelante se introducirán funciones más avanzadas, como vídeo y uso compartido de pantalla.

El 31 de julio, OpenAI anunció el lanzamiento del modo de voz avanzado para algunos usuarios de ChatGPT Plus y planea abrirlo a todos los usuarios de ChatGPT Plus en el otoño.

OpenAI está impulsando el desarrollo de una nueva generación de asistentes de voz con inteligencia artificial. La nueva función de audio permitirá a los usuarios hablar con ChatGPT y recibir respuestas en tiempo real de inmediato, además de interrumpir ChatGPT mientras habla. Los patrones del habla distinguen la información transmitida por diferentes entonaciones del habla. Suena más natural y utiliza el sonido para transmitir una variedad de emociones.

El nuevo modo de voz funciona con el modelo GPT-4o de OpenAI, que combina capacidades de voz, texto y visión. Para recopilar comentarios, OpenAI inicialmente está implementando funciones premium de voz para un "pequeño grupo de usuarios" de ChatGPT Plus, pero OpenAI dice que estará disponible para todos los usuarios de ChatGPT Plus este otoño.

OpenAI retrasó el lanzamiento de la experiencia de llamadas de voz desde finales de junio hasta julio, diciendo que llevaría tiempo cumplir con los estándares de lanzamiento. OpenAI dijo que ha probado las capacidades de voz de GPT-4o con más de 100 equipos rojos externos, que abarcan 45 idiomas. La compañía dijo que ha incorporado varios mecanismos de seguridad, como para proteger la privacidad y evitar que el modelo se utilice para crear voces deepfake. Trabajó con actores de voz para crear cuatro voces preestablecidas que no imitan ni generan voces de otras personas. . el sonido de.

Cuando OpenAI lanzó por primera vez GPT-4o, enfrentó reacciones negativas por usar una voz llamada "Sky", que se parecía mucho a la de la actriz Scarlett Johansson. Scarlett Johansson emitió un comunicado diciendo que OpenAI se puso en contacto con ella para permitir que la modelo usara su voz, pero ella se negó. OpenAI negó que fuera la voz de Johnson, pero suspendió el uso de Sky.

OpenAI también dijo que ha adoptado filtros para identificar y bloquear solicitudes para generar música u otro audio protegido por derechos de autor, y ha aplicado los mismos mecanismos de seguridad utilizados en los modelos de texto a GPT-4o para evitar que violen las leyes y generen contenido dañino. "Tenemos medidas de seguridad para bloquear solicitudes de contenido violento o protegido por derechos de autor". Además, en una fecha posterior se implementarán funciones más avanzadas, como video y uso compartido de pantalla.