новости

обновление модели deepseek ai запускает версию 2.5: объединение coder и chat, согласование человеческих предпочтений и т. д.

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

исходное название: обновление модели искусственного интеллекта deepseek запущено до версии 2.5: объединение coder и chat, согласование человеческих предпочтений, оптимизация письменных задач и выполнения инструкций и т. д.

6 сентября it house сообщила, что две модели deepseek coder v2 и deepseek v2 chat были объединены и обновлены, а обновленной новой моделью стала deepseek v2.5.

источник: скриншот пользователей форума linux.do.

вчера (5 сентября) компания deepseek официально обновила документацию по поддержке api и объявила о слиянии моделей deepseek coder v2 и deepseek v2 chat, обновлении и выпуске новой модели deepseek v2.5.

официально заявлена ​​совместимость с будущими версиями. пользователи api могут получить доступ к новой модели через deepseek-coder или deepseek-chat.

новая модель значительно превосходит две модели старой версии по общим возможностям и возможностям кодирования.

новая модель лучше учитывает человеческие предпочтения и оптимизирована во многих аспектах, таких как написание задач и выполнение инструкций:

процент побед в arenahard увеличен с 68,3% до 76,3%.

процент побед в alpacaeval 2.0 lc увеличен с 46,61% до 50,52%.

оценка mt-bench увеличена с 8,84 до 9,02.

оценка alignbench увеличена с 7,88 до 8,04.

новая модель дополнительно улучшает возможности генерации кода на основе исходной модели coder, оптимизирует общие сценарии приложений программирования и достигает следующих результатов на стандартном наборе тестов:

humaneval: 89%

livecodebench (январь-сентябрь): 41%

ит-дома примечание:модель deepseek ai была запущена компанией hangzhou deepseek artificial intelligence, основанной в 2023 году.

официальное введение выглядит следующим образом:

сосредоточьтесь на исследовании ведущих в мире моделей и технологий, лежащих в основе общего искусственного интеллекта, и решайте передовые проблемы в области искусственного интеллекта. основываясь на таких ресурсах, как самостоятельно разработанная система обучения, самостоятельно созданные интеллектуальные вычислительные кластеры и вычислительная мощность wanka, команда deepseek всего за полгода выпустила и открыла исходный код нескольких крупномасштабных моделей с десятками миллиардов параметров, таких как общая языковая модель deepseek-llm, большая модель кода deepseek-coder, а в январе 2024 года она взяла на себя инициативу по открытию первой в стране крупной модели moe (deepseek-moe). эффекты обобщения каждой основной модели превышают один и тот же уровень. в списках публичной оценки и реальных образцах. отличные характеристики модели.