моя контактная информация
Почтамезофия@protonmail.com
2024-07-31
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
31 июля IT House сообщил, что 30-го числа по местному времени OpenAI объявила, что с этого момента она откроет голосовой режим GPT-4o (примечание IT House: альфа-версия) для некоторых пользователей ChatGPT Plus и постепенно будет продвигать его для всех ChatGPT. Этой осенью подписчик Плюс.
В мае этого года технический директор OpenAI Мира Мурати упомянула в своем выступлении:
В GPT-4o мы обучили новую унифицированную модель сквозного анализа текста, изображения и звука, то есть все входные и выходные данные обрабатываются одной и той же нейронной сетью. Поскольку GPT-4o — наша первая модель, сочетающая в себе все эти режимы, мы все еще находимся на ранних стадиях изучения возможностей этой модели и ее ограничений.
Первоначально OpenAI планировала пригласить небольшую группу пользователей ChatGPT Plus для тестирования голосового режима GPT-4o в конце июня этого года, но чиновник объявил об отсрочке в июне, заявив, что необходимоБольше времени на полировкумодель, улучшить модельОбнаружение и отклонение определенного контентаСпособность.
Согласно ранее опубликованной информации, средняя задержка голосовой обратной связи у модели GPT-3.5 составляет 2,8 секунды, а у модели GPT-4 — 5,4 секунды. Следовательно, она не очень хороша в голосовой связи, а предстоящий GPT- 4o может значительно сократить задержку.почти бесшовный разговор。
Голосовой режим GPT-4o имеетБыстрый ответ、Голос такой же хороший, как у настоящего человекаЧто касается других функций, OpenAI также называет речевой режим GPT-4o, который может определять эмоциональный тон речи, включая грусть, волнение или пение.
Представитель OpenAI Линдси МакКаллум сказала: «ChatGPT Не подражайте чужому голосу, включая голоса частных лиц и общественных деятелей, а также блокиОтличается от звука по умолчанию Выход. "