новости

прямой взгляд на текущее состояние отечественных ии-чипов: производство крови графических процессоров, рейды тпу, чиплеты становятся тенденцией и узкие места в сети

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

автор |

6 сентября компания xinxi сообщила, что сегодня в пекине открылся ежегодный глобальный саммит по чипам искусственного интеллекта (gacs 2024). зал был переполнен, а количество зрителей облачной прямой трансляции достигло 1,2 миллиона человек.

▲ внутри и снаружи площадки собрались огромные толпы людей.

конференция спонсировалась компаниями core east west и intelligent orangutan компании zhiyi technology. на тему «совместное строительство основных дорог в эпоху интеллектуальных вычислений» на конференцию пригласили более 50 гостей из области чипов искусственного интеллекта, чиплетов, risc-v и интеллектуальных технологий. вычислительные кластеры, ai infra и другие области. гости поделятся полезной информацией на встрече.

это пятая годовщина основания отечественного единорога gpgpu biren technology. на конференции biren technology объявила, что добилась прорыва в технологии многоядерного ядра смешанного обучения и впервые создала решение для совместного обучения на гетерогенных графических процессорах hgct. в отрасли он может поддерживать 3 или более разнородных типов графических процессоров одной и той же большой модели.

▲biren technology запускает отечественное решение для совместного обучения гетерогенных графических процессоров hgct

гонг лунчан, соучредитель и генеральный директор zhiyi technology, выступил с речью в качестве организатора. в этом году global ai chip summit проводится в седьмой раз. саммит стал самой влиятельной отраслевой конференцией в этой области в китае и китае. это хорошее место, чтобы понять развитие чипов искусственного интеллекта в стране и за рубежом. динамические важные окна.

▲гун лунчан, соучредитель и генеральный директор zhiyi technology

глобальный саммит ai chip summit длится два дня. основная площадка включает церемонию открытия и три основные сессии (архитектура ai-чипов, ai-чипы для центров обработки данных, edge ai-чипы). в число дополнительных площадок входят форум по технологиям чиплетов и форум по технологиям интеллектуальных вычислительных кластеров. и форум инноваций risc-v.

на церемонии открытия инь шоуи, профессор университета цинхуа и заместитель декана школы интегральных схем, выступил с программной речью на тему «дискуссия о пути развития чипов высокой вычислительной мощности: от вычислительной архитектуры к интегрированной архитектуре», систематически рассматривая существующие технические проблемы и всесторонне проанализировать пять инновационных технологических направлений: чипы потока данных, интегрированные чипы хранения и вычислений, реконфигурируемые чипы, трехмерные интегрированные чипы и чипы уровня пластины.

сегодня в мероприятии примут участие 21 эксперт, предприниматель и руководитель из ведущих университетов, исследовательских институтов и компаний, производящих чипы искусственного интеллекта. среди них на высококлассную диалоговую сессию были приглашены представители трех стартапов по производству ии-чипов, а именно: biren technology, отечественного единорога по производству мощных чипов, aixin yuanzhi, единорога по производству ии-чипов на стороне устройства и на периферии, а также компании это только lingchuan technology, молодой стартап по производству чипов искусственного интеллекта, основанный полгода назад. они сосредоточились на обсуждении текущего состояния, новейших практик и передовых направлений индустрии ии-чипов.

1. решение проблем спроса и предложения, связанных с вычислительной мощностью крупномасштабных моделей, и инновационная архитектура для преодоления узких мест в производительности.

инь шоуи, профессор университета цинхуа и заместитель декана школы интегральных микросхем, объяснил трудности между спросом и предложением вычислительной мощности в эпоху больших моделей: дивиденды процесса неустойчивы; система сталкивается с уменьшением узкого места, недостаточной пропускной способностью связи, что приводит к потере производительности системы.

возможность решить эти две основные проблемы заключается в совместных инновациях вычислительной архитектуры вычислительных чипов и интегрированной архитектуры: инновации в вычислительной архитектуре позволяют полностью использовать каждый транзистор и проявлять более высокую вычислительную мощность; инновации в интегрированной архитектуре позволяют масштабам чипов прорваться вперед; пределы.

в настоящее время существует пять новых технологических путей разработки чипов высокой вычислительной мощности: чипы потока данных, реконфигурируемые чипы, интегрированные чипы хранения и вычислений, трёхмерные интегрированные чипы и чипы уровня пластины. ни один из этих путей полностью не опирается на самые передовые производственные процессы, которые помогут открыть новое пространство для отечественной индустрии микросхем для повышения вычислительной мощности.

▲инь шоуи, профессор университета цинхуа и заместитель декана факультета интегральных схем

amd создала комплексную линейку продуктов в области комплексной инфраструктуры искусственного интеллекта, охватывающую от серверов центров обработки данных, пк с искусственным интеллектом до интеллектуальных встраиваемых и периферийных устройств, а также предоставляет ведущее программное обеспечение для искусственного интеллекта с открытым исходным кодом и открытую экосистему. платформа процессоров amd, разработанная на основе передовой архитектуры zen4, и ускорители серии mi на основе архитектуры cdna3 для рассуждений и обучения ии были приняты на вооружение такими гигантами, как microsoft.

по словам ван хунцяна, старшего директора подразделения искусственного интеллекта amd, amd также продвигает высокопроизводительную сетевую инфраструктуру (ualink, ultra ethernet) в центрах обработки данных, что имеет решающее значение для сетевых структур искусственного интеллекта для поддержки быстрого переключения и чрезвычайно низкой задержки, а также для важно расширить производительность центра обработки данных ai.

amd собирается выпустить следующее поколение высокопроизводительных компьютеров с искусственным интеллектом. ее процессор ryzen ai npu на базе архитектуры xdna второго поколения может обеспечить вычислительную мощность 50tops и увеличить коэффициент энергоэффективности до 35 раз по сравнению с архитектурой общего назначения. благодаря стремлению ai pc к конфиденциальности, безопасности и автономности данных важные рабочие нагрузки ai начинают развертываться на пк. являясь одним из ведущих мировых поставщиков инфраструктуры искусственного интеллекта, amd готова работать с клиентами и разработчиками для построения преобразующего будущего.

▲ван хунцян, старший директор подразделения искусственного интеллекта amd

с 2015 года компания qualcomm постоянно совершенствует аппаратное обеспечение npu, учитывая изменения в сценариях использования приложений искусственного интеллекта. qualcomm ai engine, представленный snapdragon 8 третьего поколения, использует гетерогенную вычислительную архитектуру, объединяющую несколько процессоров, таких как cpu, gpu и npu. среди них qualcomm hexagon npu оптимизирует производительность и энергоэффективность за счет большого объема памяти, выделенного источника питания для ускорителей, обновления микроархитектуры и других разработок. искусственный интеллект имеет множество вариантов использования и различные требования к вычислительной мощности. поэтому спрос на интеграцию гетерогенных вычислений и процессоров будет существовать в течение длительного времени, что также приведет к ряду улучшений в пиковой производительности, энергоэффективности, стоимости и т. д.

линейка продуктов qualcomm охватывает широкий спектр сценариев периферийных приложений, таких как мобильные телефоны, пк, xr, автомобили и интернет вещей. она может помочь разработчикам использовать программные и аппаратные решения qualcomm для ускорения алгоритмов в различных формах продуктов, что приносит богатство. преимуществ для потребителей. опыт использования искусственного интеллекта на устройствах. наконец, ван вейсин, глава подразделения qualcomm ai product technology china, также объявил, что мобильная платформа snapdragon следующего поколения, оснащенная новейшим процессором qualcomm oryon, будет представлена ​​на саммите snapdragon, который пройдет с 21 по 23 октября этого года.

▲ван вейсин, руководитель отдела технологий искусственного интеллекта qualcomm в китае

ян юэ, соучредитель и генеральный директор pingxin technology, рассказал о процессе развития интегрированных технологий хранения и вычислений. появление и рост основных чипов в отрасли тесно связаны с характеристиками текущих вычислительных потребностей. примерно в 2015 году узкое место в вычислительной архитектуре переместилось со стороны процессора на сторону хранения данных, особенно с появлением нейронных сетей, что ускорилось. вычислительная эффективность чипов искусственного интеллекта. с темпами совершенствования технологии хранения и вычислений привлекают внимание.

ян юэ считает, что в эпоху больших моделей возможность интегрированных технологий хранения и вычислений заключается в добавлении вычислений везде, где есть хранилище данных. благодаря постоянному развитию программного обеспечения в этом году постепенно совершенствовались конечные чипы, основанные на хранилищах и вычислениях. в будущем решение проблем с пропускной способностью данных в облаке может стать следующим убийственным приложением для чипов хранения и вычислений.

▲ян юэ, соучредитель и генеральный директор pingxin technology

тан чжаньхун, технический директор arctic xiongxin, сказал, что в области высокопроизводительных вычислений существуют две разные парадигмы проектирования серверов: стандартная форма сервера и настраиваемая серверная архитектура. в виде стандартных серверов arctic xiongxin фокусируется на достижении более высокой экономической эффективности за счет соответствующих решений по разделению и упаковке чипов в стандартной ограниченной области. в виде нестандартных серверов он предоставляет возможности для интеграции на уровне пластин, уделяя особое внимание интеграции; проектирования чипов и систем, а также совместного проектирования серверов и чипов с целью достижения цели «сервер как чип».

в частности, тан чжаньхун подчеркнул, что разные конструкции чипов имеют разные требования к полосе пропускания. например, в процессах выше 7 нм в сочетании с оптимизацией связи при развертывании часто не требуется высокая плотность полосы пропускания межсоединений, поэтому расширенная упаковка на основе 2d-пакета не требуется. может удовлетворить требования к производительности и достичь экономически эффективного решения. ip-интерфейс pb-link компании arctic xiongxin, основанный на «стандарте интерфейса межсоединения основного чипа», официально реализовал межсоединение с низкой стоимостью упаковки и теперь начал авторизовать сторонние стороны.

▲арктический сюнсинь технический директор тан чжаньхун

2. диалог высокого класса: отечественные чипы искусственного интеллекта расширили кроветворные возможности, а на куайшоу запущена продукция самого молодого стартапа.

чжан гуорен, соучредитель и главный редактор zhiyi technology, и дин юньфан, вице-президент и главный архитектор программного обеспечения искусственного интеллекта biren technology, лю ли, соучредитель и вице-президент lingchuan technology, и лю цзяньвэй, соучредитель -основатель и вице-президент aixin yuanzhi начал дискуссию. диалог за круглым столом на тему «консенсус, совместное творчество и взаимовыгодность при внедрении отечественных чипов искусственного интеллекта».

чжан гуорен сказал в начале диалога за круглым столом, что шесть шестой саммит ai chip summit, инициированный чжидунси, корэдунси и чжанчжи, является самой продолжительной профессиональной конференцией в этой области в китае. в последние годы она стала свидетелем бума. разработка чипов искусственного интеллекта и крупных моделей также стала свидетелем появления ряда отечественных «новых сил», производящих ядра.

▲чжан гуорен, соучредитель и главный редактор zhiyi technology

дин юньфань сказал, что процессоры большой вычислительной мощности — это наукоемкая, трудоемкая и капиталоемкая отрасль. как чип-единорог с крупнейшим государственным финансированием на рынке, biren technology располагает выдающимися талантами. ее продукты первого поколения производятся серийно, а также запущено несколько отечественных кластеров графических процессоров, которые могут независимо генерировать кровь. однако общая ситуация в отечественной отрасли производства микросхем по-прежнему непростая, и все еще существует разрыв между экологическими аспектами и зарубежными странами.

многие отечественные чипы искусственного интеллекта начали внедряться в центрах обработки данных и интеллектуальных вычислительных центрах. по мнению дин юньфаня, отечественная продукция nvidia не очень эффективна с точки зрения затрат, пока отечественные чипы смогут обеспечить высокую производительность и экономичность, рынок будет существовать. в настоящее время появляется все больше новостей о запуске отечественного производства чипов и расширении кроветворных возможностей. разрыв с nvidia постепенно будет сокращаться.

▲дин юньфан, вице-президент biren technology и главный архитектор программного обеспечения для искусственного интеллекта

лю цзяньвэй считает, что низкая стоимость является очень важной частью, и компаниям в конечном итоге придется свести счеты, а их инвестиции в инфраструктуру должны быть возвращены. лю ли считает, что в будущем в сегментированных сферах, таких как встроенный интеллект и интеллектуальное видео, появление большего числа компаний принесет более высокую ценность, чем обычные продукты, что снизит доходы и прибыль nvidia.

lingchuan technology — один из самых молодых отечественных стартапов по производству чипов искусственного интеллекта. он был основан в марте этого года и завершил раунд финансирования. чипы для умной обработки видео, которые в настоящее время продаются, были запущены в продажу в куайшоу, что составляет 99% использования в куайшоу. ожидается, что чип вывода вычислительной мощности будет снят с производства в начале следующего года.

по мнению лю ли, окно рынка ии-чипов еще далеко от закрытия. столкнувшись с преимуществами гигантов в ресурсах, средствах и экологии, стартапам необходимо прилагать усилия в вертикальных и сегментированных областях. lingchuan technology сочетает в себе интеллектуальную обработку видео и вычислительную мощность искусственного интеллекта с целью снизить стоимость вывода на каждый токен до 10% по сравнению с nvidia h800.

▲лю ли, соучредитель и вице-президент lingchuan technology

компания aixin yuanzhi, ориентированная как на торцевую, так и на краевую сторону, добилась выдающихся результатов в увеличении доли рынка. лю цзяньвэй считает, что на этих двух месторождениях коммерческий замкнутый цикл будет реализован быстрее. он добавил, что производство чипов искусственного интеллекта в конечном итоге принесет прибыль, но на фактический график прибыли будут влиять такие факторы, как затраты на развертывание искусственного интеллекта, и компаниям следует как можно скорее достичь самогенерации и замкнутого цикла. в будущем айксин юаньчжи будет изучать сценарии реализации больших моделей на конечной и краевой стороне.

поставки продукции aixin yuanzhi в автомобильной сфере очень впечатляют. лю цзяньвэй сказал, что это связано с тем, что базовая технология чипов «умных городов» и автомобилей схожа. aixin yuanzhi накопила зрелые технологии в «умных городах», а затем приступила к массовому производству умных автомобилей. скоро достигнуто. в то же время ценовая война в автомобильной сфере будет способствовать промышленному разделению труда, что является периодом возможностей.

▲лю цзяньвэй, соучредитель и вице-президент aixin yuanzhi

что касается того, как отечественные чипы искусственного интеллекта могут быстро найти экологическую нишу, лю цзяньвэй в качестве примера привел сцену глубокого развития aixin yuanzhi. в умных городах практически нет иностранных компаний. в области интеллектуального вождения nvidia развивается от 0 до. 1 и от 1 до 100, этап, на котором больше внимания уделяется затратам, — это возможности для внутреннего бизнеса. дин юньфан упомянул четыре элемента: гарантия стабильных и надежных поставок, экономическая эффективность, эффективные услуги поддержки, основанные на потребностях клиентов, а также эффективность и простота использования. лю ли считает, что нам следует глубже погружаться в вертикальные области и создавать более эффективные и оптимизированные решения, чем чипы общего назначения.

заглядывая в будущее, лю цзяньвэй прогнозирует, что в ближайшие 4–5 лет откроются большие возможности для развития как в области устройств, так и в области облачных технологий. после того, как стоимость внедрения в отрасли снизится, данные смогут получить большую ценность. . лю ли считает, что по мере того, как приложения искусственного интеллекта вступят в бурный период, спрос на облачные технологии будет расти. дин юньфань сказал, что в китае по-прежнему не хватает высокопроизводительных вычислительных мощностей, но сотрудничество производственной цепочки может обеспечить устойчивое развитие.

3. строительство интеллектуальных вычислительных центров находится на подъеме: побеждают новые прорывы в области графических процессоров, отечественных тпу, чиплетов.

на сессии, посвященной чипам искусственного интеллекта для центров обработки данных, состоявшейся во второй половине дня, ю минъян, глава habana china, сказал, что за последние три года было построено около 50+ интеллектуальных вычислительных центров под руководством правительства, и более 60 находятся в стадии планирования и строительства. строительство интеллектуальных вычислительных центров постепенно происходит. от городов первого уровня к городам второго и третьего уровня, а также от управляемых государством к управляемым предприятиями, требования к снижению затрат и циклу возврата инвестиций также постепенно возрастают.

по его наблюдениям, разработка больших моделей становится все более зрелой, и спрос на логический вывод продолжает расти. темпы роста количества самостоятельно разрабатываемых ведущими csp чипов будут увеличиваться. в будущем могут вырасти несколько компаний, производящих гетерогенные чипы. сторона вывода.

спрос на обучение крупных моделей за рубежом по-прежнему будет высоким, а спрос на вычислительные мощности для обучения моделей внутри страны в основном насыщен, в основном за счет бизнеса по тонкой настройке. для поддержки будущего развития искусственного интеллекта ключевую роль будет играть интеграция чиплетов, высокоскоростной памяти большой емкости и частных/общих технологий высокоскоростного соединения.

▲ ю минъян, глава habana china

чтобы решить проблему разрозненных вычислительных мощностей для больших моделей, дин юньфан, вице-президент biren technology и главный архитектор программного обеспечения для искусственного интеллекта, объявил о запуске собственного оригинального решения biren для совместного обучения гетерогенных графических процессоров hgct. впервые в отрасли поддерживается три или более разнородных графических процессоров для совместного обучения одной и той же большой модели, то есть поддерживается смешанное обучение с графическими процессорами nvidia + biren + других марок. эффективность связи превышает 98%. а эффективность сквозного обучения достигает 90~95%.

би рен работает с клиентами и партнерами над совместным продвижением гетерогенной экосистемы совместного обучения графических процессоров, включая china telecom, zte, sensetime, государственный научно-исследовательский институт grid intelligence, shanghai intelligent computing technology co., ltd., шанхайскую лабораторию искусственного интеллекта, китайский институт информационные и коммуникационные технологии и т. д.

ее продукты были коммерчески развернуты в кластерах графических процессоров емкостью несколько килограммов карт. бирен разработал комплексное решение для крупной модели, которое объединяет программное и аппаратное обеспечение, полную оптимизацию, гетерогенное сотрудничество и открытый исходный код. впервые компания biren реализовала автоматическое эластичное расширение и сжатие параллельных задач крупных моделей 3d, поддерживая коэффициент использования кластера почти на 100%. компания добилась автоматического восстановления 100 миллиардов моделей параметров в кластерах из 1000 карт за 10 минут. , ни сбоев в течение 4 дней, ни перерывов в течение 15 дней.

▲дин юньфан, вице-президент biren technology и главный архитектор программного обеспечения для искусственного интеллекта

чжэн ханьсюнь, соучредитель и технический директор zhonghao xinying, сказал, что сегодняшние большие модели искусственного интеллекта намного превышают требования к вычислительной сложности и вычислительной мощности, которые когда-либо существовали в истории вычислений, и требуют специализированных чипов, которые лучше справляются с расчетами искусственного интеллекта. по сравнению с графическим процессором, который изначально был разработан для рендеринга и обработки изображений в реальном времени, tpu в основном предназначен для машинного обучения, моделей глубокого обучения и вычислений на основе нейронных сетей. пропускная способность архитектуры с одним систолическим массивом и. эффективность обработки была значительно улучшена по сравнению с графическим процессором.

чип snap, разработанный компанией zhonghao xinying, является первым в китае высокопроизводительным ai-чипом с архитектурой tpu. после всестороннего расчета вычислительной производительности, стоимости и энергопотребления стоимость единицы вычисления составляет всего 50% от стоимости ведущих зарубежных графических процессоров. . чжэн ханьсюнь считает, что на более поздних этапах разработки крупномасштабной модели решающее значение будет иметь наилучшее соотношение затрат и эффективности кластеров емкостью 10 000 тыс. килобайт. прямое высокоскоростное соединение между 1024 чипами в чипах setsana будет иметь решающее значение. решающий фактор при построении крупномасштабных вычислительных кластеров. производительность может значительно превосходить производительность традиционных графических процессоров в несколько раз.

▲чжэн ханьсюнь, соучредитель и технический директор zhonghao xinying

по словам стивена фенга, руководителя отдела открытых продуктов для ускоренных вычислений в inspur information, по мере увеличения масштаба параметров больших моделей разработка генеративного ии сталкивается с четырьмя основными проблемами: недостаточная масштабируемость кластера, высокое энергопотребление чипов, сложность развертывания кластера и низкая системность. надежность. большая проблема. inspur information всегда была ориентирована на приложения и системы, стимулируя жизнеспособность генеративных инноваций в области искусственного интеллекта через открытую систему kaiyuan.

что касается открытости аппаратного обеспечения, мы разработали спецификации oam (open acceleration module) для ускорения онлайн-развертывания передовых вычислительных мощностей и поддержки итеративного ускорения больших моделей и приложений искусственного интеллекта. что касается открытости программного обеспечения, с помощью платформы разработки крупных моделей «юаннао цичжи» epai мы создаем платформу поддержки полного процесса разработки приложений для предприятий. с помощью комплексных решений мы решаем проблемы иллюзий, существующие в области базовых технологий. большие модели и решать проблемы разработки приложений, такие как сложные процессы, высокие пороговые значения, сложность адаптации нескольких моделей и высокие затраты, ускорят инновации и внедрение корпоративных приложений для больших моделей.

▲стивен фэн, руководитель подразделения inspur information open accelerated computing products

компания qingcheng jizhi была основана в 2023 году с упором на ai infra. команда была создана на факультете компьютерных наук университета цинхуа и накопила более десяти лет опыта в оптимизации мощности интеллектуальных вычислений.

ши тяньхуэй, соучредитель qingcheng jizhi, поделился, что отечественные высокопроизводительные вычислительные системы сталкиваются с такими проблемами, как трудности с восстановлением после сбоев и низкая производительность. они требуют взаимодействия 10 основных базовых программных систем, и qingcheng jizhi уже входит в их число. более половины месторождений имеют продукты собственной разработки.

в настоящее время цинчэн цзичжи освоил накопление полностековых технологий от компилятора нижнего уровня до параллельной вычислительной системы верхнего уровня, достиг полного охвата больших моделей экологии отрасли и выполнил несколько высокопроизводительных оптимизаций вывода отечественные чипы и массовые крупномасштабные модели. модель быстро переносится и оптимизируется, а эффект вычислений значительно улучшается. среди них система обучения больших моделей «bagua furnace», разработанная для сверхкрупных отечественных кластеров вычислительной мощности, может быть расширена до масштаба 100 000 серверов и используется для обучения моделей со 174 триллионами параметров.

▲ши тяньхуэй, соучредитель цинчэн цзичжи

хуан сяобо, директор по технологическому маркетингу компании xinhe semiconductor, заявил, что спрос на вычислительную мощность увеличился в 60 000 раз за последние 20 лет и может достичь 100 000 раз в ближайшие 10 лет. пропускная способность систем хранения данных и межсетевых соединений стала основными узкими местами в развитии. интегрированные системы чиплетов стали важным направлением для прорывов в области ограничений передовых процессов и повышения производительности высокопроизводительных вычислений в эпоху после мура. они широко использовались в чипах большой вычислительной мощности ai и чипах сетевой коммутации кластеров вычислительной мощности ai.

в связи с этим xinhe semiconductor предоставляет универсальную платформу eda мультифизического моделирования для проектирования и разработки интегрированных систем chiplet. платформа поддерживает параметрическое моделирование структур взаимосвязей в основных проектах процессов. ее возможности моделирования в 10 раз быстрее, чем у других платформ. она также использует встроенный анализ протоколов hbm/ucie для повышения эффективности моделирования. он получил множество наград от отечественных и зарубежных лидеров. производители процессоров вычислительной мощности ai используют его для ускорения внедрения интегрированных системных продуктов большой вычислительной мощности.

▲хуан сяобо, директор по технологическому маркетингу xinhe semiconductor

при обучении больших моделей сетевая инфраструктура составляет 30% затрат, что подчеркивает важность производительности сети. по словам чжу цзюньдуна, соучредителя qimo и вице-президента по продуктам и решениям, сеть стала узким местом производительности интеллектуальных вычислений. для построения сети искусственного интеллекта требуется интеграция трех сетей, а именно межсетевого взаимодействия между кластерными сетями, межсетевого взаимодействия внутри шкафов и т. д. и взаимосвязь внутри чипов.

кластеры больших интеллектуальных вычислений требуют высокопроизводительного соединения, а модернизация rdma и чиплетов стали ключевыми технологиями. для оптимизации rdma серия ядра qimo для ускорения сети ndsa основана на программируемой многоядерной потоковой архитектуре и использует высокопроизводительный механизм обработки данных для достижения высокопроизводительного потока данных и гибкого ускорения данных. чиплет gpu link «ndsa-g2g», впервые разработанный ge, основан на инфраструктуре ethernet и благодаря высокопроизводительному механизму обработки данных и технологии интерфейса d2d может обеспечить высокую пропускную способность масштабируемой сети на терабайтном уровне, а его производительность сравнима с эталон глобальной технологии межсетевых соединений.

▲чжу цзюньдун, соучредитель qimo и вице-президент по продуктам и решениям

alphawave — компания, предоставляющая решения для проектирования ip, чиплетов и asic для высокопроизводительных вычислений, искусственного интеллекта и высокоскоростных сетевых приложений. го давэй, ее старший бизнес-директор в азиатско-тихоокеанском регионе, поделился, что в ответ на проблемы, возникающие при передаче данных, ip-продукты alphawave имеют коэффициент битовых ошибок, который на 2 порядка ниже, чем у конкурирующих продуктов. они также могут помочь в этом. интеграция и проверка и глубоко интегрированы с экосистемой arm. они также могут обеспечить поддержку полного жизненного цикла soc клиентов.

что касается чиплетов, alphawave помогает клиентам сократить цикл, снизить затраты, повысить производительность и скорость итераций. сейчас компания создала первый в отрасли чиплет с многопротокольным подключением ввода-вывода, который был снят с производства в этом году. что касается индивидуальных чипов, alphawave в основном фокусируется на процессах ниже 7 нм и может завершить весь процесс от спецификации до вывода на ленту в соответствии с потребностями клиентов. в настоящее время компания осуществила более 375 успешных операций по выводу на ленту с dppm менее чем. 25.

▲го давэй, старший бизнес-директор alphawave в азиатско-тихоокеанском регионе

вывод: интеллект в сфере вторичной переработки растет, и чипы искусственного интеллекта открывают исторические возможности.

на пути к основной теме общего искусственного интеллекта форма алгоритмов ии продолжает меняться, и чипы ии следуют этому примеру. когда древний гравий встречается с будущим машинным интеллектом, технологии и инженерная мудрость сливаются и сталкиваются. чипы искусственного интеллекта с изысканным дизайном проникают в вычислительные кластеры и проникают в тысячи домов, поддерживая эволюцию кремниевой жизни.

от интеллектуальных вычислительных центров и интеллектуального вождения до компьютеров с искусственным интеллектом, мобильных телефонов с искусственным интеллектом и нового аппаратного обеспечения искусственного интеллекта — тенденция развития нисходящего интеллекта принесла новую волну исторических возможностей для чипов искусственного интеллекта, закрепляющих различные сценарии. быстро развивающиеся алгоритмы и приложения генеративного ии продолжают решать новые проблемы вычислительной мощности. технологические инновации и рыночный спрос одновременно способствуют расширению рынка ии-чипов и диверсификации конкурентной среды ии-чипов.

7 сентября глобальный саммит ai chip summit 2024 продолжит предоставлять интенсивную информацию: на главной площадке пройдут специальная сессия, посвященная инновациям в архитектуре ai-чипов, и специальная сессия, посвященная периферийным/конечным ai-чипам, а также выставка «2024 china’s china’s 20 лучших компаний, занимающихся кластерными решениями для интеллектуальных вычислений» и «2024. на дополнительном мероприятии пройдут два списка «топ-10 новых китайских компаний по производству чипов для искусственного интеллекта»; .