mi información de contacto
correo[email protected]
2024-09-25
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
no hay necesidad de esperar hasta el otoño esta mañana temprano, openai anunció que la nueva versión del modo de voz avanzado de chatgpt se implementará por completo para todos los usuarios plus y team esta semana.
el director ejecutivo de openai, sam altman, publicó en la plataforma x:
¡el modo de voz avanzado se lanza oficialmente hoy! (se publicará en su totalidad esta semana) espero que sientas que vale la pena esperar 🥺🫶
sin embargo, la nueva versión del modo de voz avanzado también tiene un límite de tiempo de uso diario, y este límite también cambiará cuando al usuario le queden 15 minutos, el sistema emitirá un recordatorio.
esto significa que puede no ser realista utilizarlo como un amigo cercano de ia con el que puedes hablar sobre todo las 24 horas del día.
hay dos formas sencillas de determinar si ha obtenido calificaciones push.
primero, si es elegible para que lo presionen, se mostrará la siguiente notificación en la aplicación cuando acceda al modo de voz por primera vez:
el segundo método consiste en comprobar la cantidad de estilos de voz.
anteriormente, chatgpt admitía cinco estilos de voz preestablecidos, pero posteriormente fue retirado de los estantes debido a una disputa legal entre el estilo de voz "sky" y "widow sister".
hoy, openai lanza cinco nuevos estilos de voz que suenan más naturales: vale, spruce, arbor, maple y sol.
el sitio web oficial de openai describe estos nueve sonidos de la siguiente manera:
arbor: sencillo y versátil
breeze - animada y seria
cala - tranquila y sencilla
ember - confiado y optimista
juniper: abierto y optimista
arce - alegre y franco
sol - inteligente y relajado
spruce: tranquilo y confiado.
vale - inteligente y curioso
después de escuchar el nuevo estilo de voz, todos los internautas tienen sus propias preferencias. algunos extrañan "sky", mientras que otros ya están inmersos en el nuevo estilo de voz. sol es actualmente el más popular. ¿qué tono prefieres? puedes compartirlo en el área de comentarios.
entonces, ¿cuál es el efecto del modo de voz avanzado de chatgpt?
el funcionario proporciona un ejemplo. cuando quieras disculparte sinceramente con tu abuela, que solo habla mandarín, por llegar tarde, puedes usar chatgpt, que habla más de 50 idiomas, para lograrlo.
lo escuchaste bien, chatgpt dijo lo siguiente en mandarín de manera clara y concisa:
abuela, lo siento, llegué tarde. no era mi intención hacerte esperar tanto. ¿cómo puedo compensarte?
además, el modo de voz avanzado de chatgpt ahora admite la configuración de comandos personalizados.
el personal de openai señala que la modalidad vocal (la forma en que se transmite una voz) contiene muchos elementos que pueden no reflejarse en una conversación de texto, como el acento, la entonación, el ritmo, etc.
ahora, los usuarios pueden personalizar la forma en que habla un modelo de ia a través de configuraciones que describen con mayor precisión cómo el usuario quiere que hable el modelo.
dio ejemplos como hacer que la modelo hable con una cadencia específica, enunciar claramente, hablar lentamente y usar el nombre del usuario con regularidad. ella recomienda comenzar de manera simple, como informarle al modelo el nombre del usuario y alguna información básica.
en un escenario específico, los usuarios preguntan qué cosas divertidas pueden hacer el fin de semana. el modo de voz avanzado de chatgpt proporciona sugerencias basadas en el clima y la ubicación del usuario (el área de la bahía), como caminatas, picnics o conducir por la ruta 1.
o cuando dice que le gusta la idea de conducir por el paisaje y le pregunta qué ruta debe tomar, chatgpt puede elaborar un plan detallado.
en resumen, al personalizar la voz y la interacción del modelo, el modo de voz avanzado de chatgpt puede proporcionar sugerencias específicas basadas en las preferencias y necesidades del usuario, haciendo que las interacciones sean más naturales y útiles.
además, la velocidad de la conversación, la fluidez y el acento de la nueva versión del modo de voz avanzado chatgpt se han mejorado enormemente. puede que realmente valga la pena considerarlo como su compañero de idioma extranjero.
al hablar de la experiencia del usuario, el diseñador de modelos openai, drew, dijo que cuando está haciendo algo o no necesita hablar con chatgpt, chatgpt permanecerá en silencio.
cuando tiene una pregunta, la hace y la pregunta puede convertirse en una larga conversación.
durante una conversación, la voz de chatgpt se ajusta al tono de la conversación. en su opinión, chatgpt es como un amigo sentado a su lado, que no sólo proporciona información sino que también comunica ideas.
en la práctica, también puedes intentar utilizarlo para practicar entrevistas y otros escenarios sin preocuparte por retrasos.
"quiero decir, la latencia es tan baja que es como hablar con otro ser humano", enfatizó drew.
para conocer el primer lote de experiencias de usuario, puede revisar los artículos anteriores de appso👇
¡el primer lote de experiencias de usuario del modo de voz gpt-4o ya está aquí! la película "ella" finalmente se hizo realidad, internauta: casi me enamoro de ella
vale la pena señalar que la nueva versión del modo de voz avanzado lanzada por openai no está actualmente abierta a la ue, reino unido, suiza, islandia, noruega y liechtenstein.
una piedra provocó miles de olas y los internautas afectados estaban enojados e indefensos.
desafortunadamente, el video y la pantalla compartida de chatgpt aún no están disponibles.
hace cuatro meses, esta característica se dio a conocer en una conferencia de prensa. en ese momento, openai también nos mostró cómo preguntarle a chatgpt en tiempo real el problema matemático en el papel frente a usted o el código en la pantalla de la computadora.
actualmente, openai no ha especificado cuándo se lanzará esta función.
en una industria de la ia donde el desarrollo es siempre impredecible, el tardío modo de voz avanzado es esencialmente un producto castrado.
no hay características nuevas que sean demasiado llamativas y ni siquiera ha cumplido los compromisos funcionales en la conferencia de mayo. el impulso a gran escala que se ha calentado se parece más a un producto dirigido al nuevo modelo de google.
paradójicamente, el "próximamente" en el diccionario openai parece ser diferente al nuestro.
algunas características prometidas desde hace mucho tiempo podrían significar mañana o el próximo año.
si lo piensas desde otro ángulo, openai, que tiene excelentes capacidades técnicas, también es una empresa que vende imaginación. lo que más esperamos puede ser su próxima excavación.
después de todo, se ha convertido en una tradición para ellos, ¿verdad?
una cosa más
el sitio web oficial de openai ha actualizado hoy una versión de las respuestas de control de calidad sobre el modo de voz chatgpt. también hemos resumido brevemente algunas respuestas prácticas, con la esperanza de que le sirvan de referencia.
1. cuando usas el modo de voz avanzado, aún puedes colgar en segundo plano en tu teléfono y continuar la conversación.
2. si cambia del modo de texto o de voz estándar al modo de voz avanzado, tenga en cuenta que no podrá volver al estado anterior de conversación de texto o de voz estándar.
3. al utilizar bluetooth en el automóvil o funciones de teléfono manos libres en el automóvil, la experiencia del diálogo de voz avanzado puede verse afectada porque openai actualmente no proporciona una optimización especial para estos dispositivos.
3. el diálogo de voz avanzado aún no está disponible para los gpt. sólo puedes tener conversaciones de voz estándar con gpt. los gpt tienen su propia opción de voz única llamada shimmer.
4. para respetar los derechos de autor de los creadores de música, openai ha adoptado una serie de medidas de seguridad, incluidas nuevas condiciones de filtrado para evitar que las conversaciones de voz generen contenido musical, incluido el canto.
5. modo de voz avanzado las conversaciones son de naturaleza multimodal y el texto transcrito no siempre coincide exactamente con la conversación original.
6. el audio de la conversación de voz avanzada se conservará junto con el historial de chat hasta que lo elimine activamente. después de la eliminación, el audio normalmente se elimina dentro de los 30 días, pero puede conservarse por más tiempo en determinadas circunstancias.
7. openai dice que, de forma predeterminada, el sistema no utilizará su audio en los chats de voz para entrenar el modelo a menos que elija compartir el audio.
8. si la opción "mejorar la experiencia de chat de voz para todos los usuarios" no está activada en "configuración", significa que no ha compartido audio y el sistema no utilizará su audio para entrenar al modelo.