новости

выяснилось, что загадочная модель openai «клубника» будет запущена через две недели. ответ на вопрос займет более десяти секунд, а стоимость подписки может оказаться в 10 раз дороже.

2024-09-11

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

в прошлом месяце генеральный директор openai альтман попал в заголовки газет с фотографией клубники. теперь, возможно, клубничная модель действительно «созреет».

как сообщает the information, в рамках сервиса chatgptopenai планирует выпустить модель «клубника» в течение двух недель.

конечно, в отчете также говорится, что окончательная дата выпуска может измениться, поэтому действуйте осторожно.

надежный информатор @apples_jimmy считает, что выпуск клубничной модели ожидается на этой неделе.

и он также сказал, что openai, как ожидается, выпустит в октябре новую модель под названием gpt-4.x, которая может называться gpt-4.5.

что касается более мощной модели gpt-5, я слышал, что она может быть запущена уже в декабре, но на всякий случай советую ожидать ее в первом или втором квартале 2025 года.

как сообщает «информация», пока неясно, в каком виде будет запущена модель «клубника».одна из возможностей заключается в том, что модель «клубника» будет самостоятельным продуктом.

другая возможность состоит в том, что клубничная модельбудет интегрировано в меню выбора модели chatgpt.пользователи могут по своему желанию переключаться между различными модельными сервисами.

в предыдущих отчетах также упоминалось, что самая большая разница между моделью клубники и другими моделями заключается в том, чтоон умеет «подумать», прежде чем ответить на вопрос.

более того, модель клубники не только хорошо справляется с математикой и программированием, но, если ей дать больше времени на «обдумывание», она также может отвечать на вопросы клиентов по субъективным темам, таким как стратегии маркетинга продукта.

в информации говорится,время обдумывания клубничной модели обычно длится от 10 до 20 секунд, что помогает уменьшить количество ошибок.

а поскольку модель «клубника» тратит больше времени на размышления, это приводит к тому, что она может понять, когда ей необходимо задать больше вопросов клиенту, чтобы полностью понять потребности пользователя.

кроме того, модель «клубника» также имеет некоторые отличия от модели gpt-4o. например, его первоначальная версияне имеет многомодельных возможностей gpt-4o., может только получать и генерировать текстовые ответы, но не может обрабатывать изображения.

в «информации» полагают, что это может быть связано с тем, что конкуренты также запускают аналогичные продукты, поэтому даже если этот продукт не идеален в некоторых аспектах (например, не умеет обрабатывать изображения), openai может лишь ускорить темпы запуска.

в этой связи информатор @apples_jimmy также упомянул: anthropic и google также тайно готовят свои новые модели.и планирует запустить его примерно во время выборов в сша.

более того, стоимость подписки неоднократно вызывала эмоции у пользователей.

chatgpt запустил новый платный уровень chatgpt pro и уже предложил его некоторым пользователям.цена 200$/мес., в десять раз дороже нынешних 20 долларов в месяц.

если это правда, то это может также перекликаться с вышеупомянутыми сообщениями о клубничной модели.

в информации также отмечается, что модель клубники может быть ограничена по количеству раз, когда пользователь может использовать ее в час, как chatgpt plus, в то время как модели с более высокими ценами на подписку будут более отзывчивыми.

на момент публикации openai не ответила на этот вопрос.

послойно нарезаем «клубнику».

что для нас означает модель openai «клубника»?

фактически, предшественником strawberry model является «q*», загадочное существо, вызвавшее бурю негодования в конце прошлого года.

в ноябре прошлого года сэма альтмана без предупреждения исключили из совета директоров. его даже уведомили об этом на заседании, что потрясло всю компанию и всю отрасль.

причина, которую тогда назвал совет директоров, заключалась в том, что он и команда не смогли прийти к соглашению по вопросам безопасности и управления рисками. и этот риск был связан со сверхсекретным на тот момент проектом «q*».

первоначально этим проектом руководил илья суцкевер. сейчас он покинул openai, чтобы заняться бизнесом, связанным с безопасностью ии. учитывая, что маск однажды сказал, что этот проект «представляет угрозу человечеству», трудно не задаться вопросом, что здесь происходит.

ранее the information и reuters всячески старались получить инсайдерскую информацию, но в итоге смогли лишь подтвердить ее.способность к математическим операциям находится в центре внимания «q *».

фото: рейтер

большая модель хорошо владеет «литературой» и умело обращается с языком и текстом. по сути, она находится на одном уровне с людьми. но математические операции никогда не были очень хорошими. несмотря на то, что «q*» когда-то вызвал огромные изменения в openai, по данным reuters, его производительность в то время была примерно на уровне вычислительного уровня ученика начальной школы.

известная на данный момент свежая информация показывает, что в рамках openai уже есть проекты, которые могут достичь точности математических операций 90%, что является удивительным улучшением.

фото: рейтер

подчеркну: на данный момент невозможно подтвердить, какого шага достигла «клубника».

можно только сказать, что если «клубника» будет использоваться как обновленная версия «q*», то с высокой вероятностью это будет проект, который продолжит поиск прорывов в математике и вычислительной технике.

отношения между «математическим расчетом» и «рассуждением» нельзя напрямую приравнивать, но они раскрывают амбиции openai.

я всегда говорю о рассуждениях, о чем именно вы говорите?

итак, что же такое «рассуждение»?

эти два слова, очевидно, имеют очень широкое значение в действительности. в начале этого года группа под руководством китайского университета гонконга провела всесторонний анализ возможностей рассуждения на основе моделей. самое фундаментальное определение «рассуждения» состоит из трех частей:

когнитивное мышление: способность делать осмысленные выводы из неполных и противоречивых знаний.

самая распространенная форма такого рода рассуждений — собрать пазл. каждый маленький кусочек — это уголок огромной картины. если вы возьмете наугад два кусочка, они точно не совпадут.

вы можете только удерживать эти маленькие фрагменты и собирать их вместе, чтобы постепенно сформировать законченную картину. в этом процессе нет инструкций или пошаговых схем, и зачастую приходится полагаться на чувства и интуицию.

логическое рассуждение: делать выводы упорядоченным образом на основе посылок и отношений между этими предпосылками, причем вывод имеет неявную связь или логически установлен.

решение математических задач — это типичные логические рассуждения. на основе них вы можете пошагово рассчитать результаты. логические рассуждения в настоящее время являются «самой твердой костью» в разработке больших моделей.

рассуждение на естественном языке: это процесс интеграции нескольких типов знаний, которые могут быть явными или неявными, для получения новых выводов о мире.

друзьям, которые любят читать детективы и детективные романы, это будет легко понять. подобные рассуждения похожи на историю убийства. в книге есть некоторые смутные намеки и неясная информация. вам нужно объединить различные улики, чтобы определить, кто убийца и каков был процесс преступления.

если вы просто посмотрите на внутренние документы openai, полученные reuters, то увидите, что цель «клубники» — планирование, доступ к интернету и проведение углубленных исследований.

они больше похожи на последний вид рассуждения на естественном языке, который является не чем иным, как его усилением. трудно сказать, можно ли рассматривать это как улучшение способности к рассуждению.

но,openai не так строг в отношении «рассуждения», но имеет более широкое видение.

два месяца назад джон шульман, один из основателей openai, заявил в подкасте dwarkensh, что прогресс gpt-4 во многом обусловлен технологией постобучения.

«очень сложно создать модель, которая будет иметь функции, которые будут интересны людям после обучения», — сказал джон шульман. «это требует больших инвестиций и накопления большого количества исследований и разработок, что создает барьеры для определенного уровня. степень. "

определение «рассуждения», данное джоном шульманом, таково:

«рассуждение означает, что требуются какие-то расчеты, или требуются какие-то умозаключения. из этого определения необходимо уметь производить расчеты и пошаговые расчеты при обработке задачи».

видно, что в его определении поведение рассуждений и вычислений тесно связано, и он надеется, что машинные рассуждения могут выполняться в реальном времени — так же, как и люди, они могут анализировать и интерпретировать информацию во время ее получения.

однако даже если человек плохо разбирается в математике, это не мешает ему мыслить логически и все равно может совершать различные виды рассуждений. почему математические способности машин так важны?

это можно понять так:математика – это не просто выполнение операций, это еще и способ выражения информации.

математика — это язык, который больше полагается на символическую форму и точность значения, где 1 — это 1, а 0 — это 0. использование вычислительных символов и уравнений для представления информации на самом деле имеет более низкую размерность, чем естественный язык.

другими словами, причина, по которой большие модели являются «грамотными», заключается в том, что они основаны на «расчетах» и преобразуют естественный язык в компьютерный.

эту точку зрения заложил еще в xix веке джордж буль, один из важнейших математиков в истории (тот самый буль, который создал булеву переменную).

джордж буль

буль был глубоко религиозным человеком, который даже хотел объяснить существование бога с помощью математических рассуждений.

независимо от его окончательного вывода, богатство, которое он в конечном итоге оставил миру, а именно книга «исследование законов мышления», объясняет его главную цель в начале: использовать символический язык исчисления для выражения концепции рассуждение 1. основные законы мыслительной деятельности.

это также объясняет, почему, когда дело доходит до производительности ии в математических операциях, ожидания людей немного более нервные:

как только вы прорветесь через математический язык, вы, возможно, действительно будете близки к прорыву через мыслительную деятельность.

ветераны технологий openai снова ушли в отставку

есть очень странный феномен. кажется, каждая большая новость об инсайдерах технологий openai всегда сопровождается кардинальными кадровыми изменениями.

по совпадению, несколько внутренних сотрудников openai сегодня также официально заявили о своей отставке.

например, алексис конно, бывший директор по исследованиям openai audio agi, объявил, что уходит, чтобы начать свой бизнес. в другой своей должности он является важным техническим членом исследовательской группы gpt-4o.

перед выпуском gpt-4o он с энтузиазмом предсказал, что это может открыть новую эру взаимодействия человека и компьютера.

он присоединился к openai в апреле 2023 года, имея обширный опыт работы в таких крупных компаниях, как google и meta. по его словам, основная задача - оснастить модель gpt "говорящим ртом".

прафулла дхаривал, руководитель исследовательской группы gpt-4o, однажды похвалил конно:

алексис конно придумал концепцию her раньше всех в openai и неустанно работал над ее воплощением в жизнь!

или арвинд нилакантан, проработавший в openai четыре с половиной года, сегодня тоже перешёл в исследовательскую группу «врага» meta ai.

он участвовал в разработке многих важных проектов openai, включая embeddings, gpt-3 и gpt-4, api и chatgpt и т. д.

нилакантан сказал, что работа в openai стала кульминацией его карьеры. в meta ai он сосредоточится на разработке модели llama следующего поколения.

в связи с этим бывший директор по связям с разработчиками openai логан килпатрик также подал благословение на отставку.

с начала этого года openai спровоцировала волну отставок, а команда ее основателей даже «распалась».

бывший главный научный сотрудник илья суцкевер только что объявил о выходе из openai, и ян лейке, один из изобретателей rlhf, также последовал по его стопам и ушел.

причины ухода в основном разные. если не считать последствий прошлогодней «дворцовой битвы», это может быть связано и с личным планированием карьеры.

кардинальные кадровые изменения в openai вряд ли окажут влияние на конкурентную среду в области ии в краткосрочной перспективе. в то же время, на фоне спада, незрелая индустрия ии больше не может терпеть окно в один год.

учитывая постоянные новости о моделях, мы с нетерпением ждем возможности снова увидеть великолепную эпоху навигации с использованием искусственного интеллекта во второй половине года.

как бы там ни было плохо, но это как минимум будет интереснее, чем надоевшие новые технологии ии в первой половине года.

можно предвидеть, что прогресс базовой модели технологии искусственного интеллекта может стать мощной движущей силой, стимулирующей взрыв всей стороны приложений, точно так же, как появление gpt-4 тогда, преподнося нам давно утерянные сюрпризы.

к тому времени мы, как пользователи, всегда будем крупнейшими бенефициарами.