Nachricht

OpenAI führt für einige ChatGPT Plus-Benutzer den erweiterten Sprachmodus ein

2024-08-01

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

· Neue Audiofunktionen ermöglichen es Benutzern, mit ChatGPT zu sprechen und sofort Antworten in Echtzeit zu erhalten oder zu unterbrechen, während ChatGPT spricht. Erweiterte Funktionen wie Video- und Bildschirmfreigabe werden zu einem späteren Zeitpunkt eingeführt.

Am 31. Juli kündigte OpenAI die Einführung des erweiterten Sprachmodus für einige ChatGPT Plus-Benutzer an und plant, ihn im Herbst für alle ChatGPT Plus-Benutzer zu öffnen.

OpenAI treibt die Entwicklung einer neuen Generation von Sprachassistenten mit künstlicher Intelligenz voran. Mit der neuen Audiofunktion können Benutzer mit ChatGPT sprechen und sofort Antworten in Echtzeit erhalten sowie ChatGPT während des Sprechens unterbrechen. Sprachmuster unterscheiden die Informationen, die durch unterschiedliche Intonationen der Sprache übermittelt werden. Es klingt natürlicher und nutzt Klang, um eine Vielzahl von Emotionen zu vermitteln.

Der neue Sprachmodus basiert auf dem GPT-4o-Modell von OpenAI, das Sprach-, Text- und Bildfunktionen kombiniert. Um Feedback zu sammeln, führt OpenAI zunächst Sprach-Premiumfunktionen für eine „kleine Gruppe von Benutzern“ von ChatGPT Plus ein. OpenAI gibt jedoch an, dass sie im Herbst für alle ChatGPT Plus-Benutzer verfügbar sein werden.

OpenAI verzögerte die Einführung des Sprachanruferlebnisses von Ende Juni auf Juli und gab an, dass es einige Zeit dauern würde, bis die Veröffentlichungsstandards eingehalten würden. OpenAI gab an, die Sprachfähigkeiten von GPT-4o mit mehr als 100 externen Red Teams in 45 Sprachen getestet zu haben. Das Unternehmen sagte, es habe mehrere Sicherheitsmechanismen eingebaut, um beispielsweise die Privatsphäre zu schützen und zu verhindern, dass das Modell zur Erstellung von Deepfake-Stimmen verwendet wird, um vier voreingestellte Stimmen zu erstellen. GPT-4o imitiert oder generiert keine Stimmen anderer Personen . der Klang von.

Als OpenAI GPT-4o zum ersten Mal auf den Markt brachte, stieß es auf Gegenreaktionen, weil es eine Stimme namens „Sky“ verwendete, die sehr nach der der Schauspielerin Scarlett Johansson klang. Scarlett Johansson hat in einer Erklärung erklärt, dass sie von OpenAI kontaktiert wurde, um dem Model zu erlauben, ihre Stimme zu verwenden, sie lehnte jedoch ab. OpenAI bestritt, dass es sich um Johnsons Stimme handelte, hat jedoch die Nutzung von Sky eingestellt.

OpenAI sagte außerdem, dass es Filter eingeführt habe, um Anfragen zur Generierung von Musik oder anderen urheberrechtlich geschützten Audiodaten zu identifizieren und zu blockieren, und die gleichen Sicherheitsmechanismen wie in Textmodellen auf GPT-4o angewendet habe, um zu verhindern, dass diese gegen Gesetze verstoßen und schädliche Inhalte generieren. „Wir haben Schutzmaßnahmen eingerichtet, um Anfragen zu gewalttätigen oder urheberrechtlich geschützten Inhalten zu blockieren. Darüber hinaus werden zu einem späteren Zeitpunkt erweiterte Funktionen wie Video- und Bildschirmfreigabe eingeführt.“