моя контактная информация
почта[email protected]
2024-10-03
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
завершится ли «фестиваль графических процессоров» nvidia?
с момента выпуска chatgpt компанией open ai в сша 30 ноября 2022 года генеративный ии (искусственный интеллект) стал настоящим повальным увлечением, а графические процессоры nvidia стали популярными в качестве полупроводников для искусственного интеллекта. однако в производстве графических процессоров есть два узких места: процесс среднего уровня tsmc и память с высокой пропускной способностью (hbm), объединенная с dram, что приводит к глобальной нехватке графических процессоров. «является ли узким местом процесс среднего уровня между hbm и? тсмк?»
среди этих графических процессоров особенно высоким спросом пользовался h100: его цена взлетела до 40 000 долларов, что спровоцировало так называемый nvidia «фестиваль графических процессоров».
в этих обстоятельствах tsmc удвоила свои мощности по производству промежуточных модулей, а производители dram, такие как sk hynix, увеличили производство hbm, в результате чего время выполнения заказа «h100» сократилось с 52 недель до 20 недель.
итак, закончится ли «фестиваль графических процессоров» nvidia?
итак, в этой статье мы обсудим, подходит ли к концу «день графического процессора» nvidia. давайте сначала поговорим о выводах. ожидается, что даже к 2024 году будет поставлено только 3,9% высокопроизводительных серверов ии (определение будет объяснено позже), необходимых для разработки и эксплуатации ии на уровне chatgpt. таким образом, кажется, что потребности поставщиков облачных услуг (csp), таких как google, amazon и microsoft, вообще не могут быть удовлетворены. короче говоря, пока что «фестиваль графических процессоров» nvidia — это только начало, и грядет всеобъемлющий бум генеративного искусственного интеллекта.
далее давайте кратко рассмотрим два основных узких места графических процессоров nvidia.
два узких места графического процессора nvidia
при производстве графических процессоров nvidia за все передние, промежуточные и обратные процессы отвечает литейное производство tsmc. здесь под промежуточным процессом понимается процесс производства графического процессора, процессора, hbm и других чипов по отдельности и размещения их на квадратной подложке, вырезанной из 12-дюймовой кремниевой пластины. эта подложка называется кремниевым интерпозером (рис. 1).
рис. 1. промежуточные процессы, переходящие от 2,5d к 3d, например графический процессор nvidia (источник: тадаши камевада)
кроме того, пакет графических процессоров nvidia, разработанный tsmc, называется cowos (chip on wafer on substrate), но двумя узкими местами являются производительность кремниевого переходника и hbm (рис. 2). ситуация следующая.
рис. 2. структура cowos и два узких места графического процессора nvidia (источник: wikichip)
cowos был разработан в 2011 году, но с тех пор, по мере улучшения производительности графического процессора, размер чипов графического процессора продолжал увеличиваться, а также увеличивалось количество hbm, установленных в графическом процессоре (рис. 3).. в результате количество кремниевых интерпозеров с каждым годом становится все больше, а количество интерпозеров, доступных на одной пластине, уменьшается в обратной пропорции.
рисунок 3. площадь промежуточного устройства и количество hbm увеличиваются с каждым поколением (источник: kc yee (tsmc))
кроме того, увеличивается количество hbm, установленных в графическом процессоре, а также увеличивается количество микросхем dram, установленных внутри hbm. кроме того, каждые два года dram миниатюризируется, а стандарт hbm обновляется каждые два года для повышения производительности. поэтому передовой бмч в дефиците.
согласно этому сценарию, tsmc удвоит свои мощности по производству кремниевых переходников с 15 000 пластин в месяц летом 2023 года до более чем 30 000 пластин в месяц летом этого года. кроме того, samsung electronics и micron technology получили сертификацию nvidia и начали поставлять новейшие hbm, в которых ранее доминировала sk hynix.
в связи с вышеизложенным срок поставки nvidia h100, пользующегося наибольшим спросом, был значительно сокращен с 52 недель до 20 недель. итак, насколько в результате увеличились поставки серверов ии?
определение двух типов серверов ии
согласно «глобальным ежегодным поставкам серверов, 2023–2024 гг.» (база данных отчетов о серверах, 2024 г.), опубликованному digitimes research, существует два типа серверов ии:
системы, оснащенные двумя или более ускорителями ии, но не hbm, называются «универсальными серверами ии».
системы, оснащенные как минимум четырьмя ускорителями искусственного интеллекта на базе hbm, называются «высокопроизводительными серверами искусственного интеллекта».
под ускорителем искусственного интеллекта здесь понимается специальное оборудование, предназначенное для ускорения приложений искусственного интеллекта, особенно нейронных сетей и машинного обучения. типичным примером является графический процессор nvidia. кроме того, для разработки и эксплуатации генеративного ии на уровне chatgpt требуется большое количество высокопроизводительных ии-серверов, а не ии-серверов общего назначения.
итак, каковы объемы поставок ии-серверов общего назначения и ии-серверов высокого класса?
поставки ии-серверов общего назначения и высокопроизводительных ии-серверов
на рисунке 4 показаны поставки ии-серверов общего назначения и высокопроизводительных ии-серверов в период с 2022 по 2023 год. ожидается, что общие поставки серверов искусственного интеллекта составят 344 000 единиц в 2022 году, 470 000 единиц в 2023 году и 725 000 единиц в 2024 году.
рисунок 4. общие поставки серверов искусственного интеллекта и высокопроизводительных серверов искусственного интеллекта (2022–2024 гг.) (источник: digitimes research)
в то же время ожидается, что высокопроизводительные серверы ии, необходимые для разработки и эксплуатации генеративного ии на уровне chatgpt, будут поставлены в количестве 34 000 единиц в 2022 году, 200 000 единиц в 2023 году и 564 000 единиц в 2024 году.
итак, могут ли поставки высокопроизводительных серверов искусственного интеллекта удовлетворить потребности американских csp?
на рис. 5 показано количество поставок серверов, ии-серверов общего назначения и ии-серверов высокого класса. когда я нарисовал эту диаграмму и посмотрел на нее, я был ошеломлен и задался вопросом: «а столько высокопроизводительных ии-серверов поставляется?» это потому, что, если посмотреть на серверы в целом, являются ли они ии-серверами общего назначения? по-прежнему является высококлассным сервером искусственного интеллекта, и его поставки очень малы.
рисунок 5. поставки серверов, обычных ии-серверов и высокопроизводительных ии-серверов
источник: автор по данным mic и digitimes.
я был еще более разочарован, когда изучил, сколько высокопроизводительных серверов ии потребуется для разработки и запуска генеративного ии на уровне chatgpt.
требуется высокопроизводительный сервер искусственного интеллекта для создания искусственного интеллекта на уровне chatgpt.
сообщается, что для разработки и эксплуатации chatgpt требуется 30 000 высокопроизводительных ai-серверов nvidia dgx h100 (рис. 6). когда я увидел это число в тридцать тысяч единиц, у меня закружилась голова.
рис. 6. сколько высокопроизводительных серверов искусственного интеллекта необходимо для запуска chatgpt? (источник: веб-сайт hpc)
кстати, «nvidia dgx h100» оснащена восемью чипами «h100», причем цена каждого чипа взлетела до 40 000 долларов, в результате чего общая стоимость системы составила 460 000 долларов. другими словами, создание ии на уровне chatgpt требует инвестиций в размере 30 000 единиц x 460 000 долларов сша = 13,8 миллиардов долларов сша (приблизительно 2 триллиона иен из расчета 1 доллар сша = 145 иен!).
я думаю, что в мире полно генеративных систем ии, но сколько генеративных ии, подобных chatgpt, на самом деле было создано (или будет)? (рисунок 7)
рисунок 7. поставки серверов, поставки высокопроизводительных серверов искусственного интеллекта и количество систем искусственного интеллекта, созданных на уровне chatgpt (источник: mic и digitimes).
поскольку объем поставок высокопроизводительных ии-серверов в 2022 году составит 34 000 единиц, можно построить только одну ии-систему уровня chatgpt (это chatgpt). в следующем, 2023 году, поставки высокопроизводительных ии-серверов достигнут 200 000 единиц, что позволит построить от 6 до 7 ии-систем уровня chatgpt. поскольку в 2024 году ожидается поставка 564 000 высокопроизводительных серверов искусственного интеллекта, можно будет построить от 18 до 19 систем искусственного интеллекта уровня chatgpt.
однако приведенная выше оценка предполагает, что ии на уровне chatgpt может быть создан с использованием 30 000 высокопроизводительных ии-серверов «nvidia dgx h100».однако, поскольку поколение ии, вероятно, станет более сложным, в этом случае может потребоваться более 30 000 nvidia dgx h100. учитывая все обстоятельства, американские поставщики услуг связи вряд ли будут удовлетворены текущими поставками высококлассных серверов искусственного интеллекта.
теперь давайте посмотрим, сколько высокопроизводительных серверов искусственного интеллекта имеет каждый конечный пользователь (например, csp в сша).
количество высокопроизводительных серверов искусственного интеллекта для конечных пользователей
на рисунке 8 показано количество высокопроизводительных серверов искусственного интеллекта по конечным пользователям. в 2023 году microsoft, владеющая openai, будет иметь наибольшее количество высокопроизводительных ии-серверов — 63 000 единиц, но к 2024 году google превзойдет microsoft и будет иметь наибольшее количество высокопроизводительных ии-серверов.
рисунок 8. высокопроизводительные серверы искусственного интеллекта по конечным пользователям (2023–2024 гг.) (источник: digitimes research)
в пятерку лидеров в 2024 году вошли google, занявший первое место с 162 000 единиц (5 систем), второе место microsoft с 90 000 единиц (3 системы), третье место super micro с 68 000 единиц (2 системы) и четвертое место amazon (67 000 единиц). 2 системы), за которым следует meta на пятом месте с 46 000 единиц (1 система) (число в скобках — это количество систем, которые может построить ии поколения класса chatgpt). видно, что пять крупнейших компаний по производству солнечной тепловой энергии в сша монополизируют около 80% акций.
далее давайте посмотрим на поставки высокопроизводительных серверов искусственного интеллекта с ускорителями искусственного интеллекта (рис. 9). как и ожидалось, графические процессоры nvidia являются наиболее используемыми для ускорителей искусственного интеллекта, их количество в 2024 году достигнет 336 000 единиц. однако, как ни удивительно, второй по популярности компанией является не amd, а google.
рисунок 9. высокопроизводительные серверы искусственного интеллекта от ai accelerator (2023–2024 гг.) (источник: digitimes research)
google разработала собственный тензорный процессор (tpu) в качестве ускорителя искусственного интеллекта. к 2024 году количество высокопроизводительных ии-серверов, оснащенных этим tpu, достигнет 138 000. здесь, из рисунка 8, мы знаем, что к 2024 году у google будет 162 000 высокопроизводительных серверов искусственного интеллекта. таким образом, ожидается, что 138 000 единиц будут оснащены собственным tpu google, а остальные 24 000 единиц будут оснащены графическим процессором nvidia. другими словами, для nvidia google — одновременно клиент и грозный враг.
кроме того, если мы посмотрим на поставки в 2024 году, у amd, занимающей третье место, будет 45 000 единиц, за ней следует amazon, занимающая четвертое место, с 40 000 единиц. amazon также разрабатывает aws trainium как ускоритель искусственного интеллекта. если подождать еще, amd может быть превзойдена amazon.
подводя итог, можно сказать, что nvidia на данный момент имеет крупнейшие поставки ускорителей искусственного интеллекта, но ее сильными конкурентами становятся google и amazon. конкурентом nvidia является не производитель процессоров amd (и уж точно не находящаяся под угрозой исчезновения intel), а американские csp google и amazon.
грядет полномасштабный бум генеративного искусственного интеллекта
подведем итоги на данный момент. согласно отчету digitimes research, поставки высокопроизводительных серверов искусственного интеллекта, способных разрабатывать и использовать генеративный искусственный интеллект на уровне chatgpt, как ожидается, к 2024 году составят лишь 3,9% от всех серверов. считается, что такой объем поставок просто не сможет удовлетворить потребности операторов мобильной связи.
другими словами, «фестиваль графических процессоров» nvidia с 2023 по 2024 год — это только начало. в результате, скорее всего, наступит полномасштабный бум генеративного искусственного интеллекта. давайте покажем основы ниже.
на рисунке 10 показан рынок полупроводников по приложениям и его прогноз на будущее, опубликованный ассоциацией полупроводниковой промышленности (sia). по прогнозам sia, мировой рынок полупроводников в 2030 году превысит 1 триллион долларов сша.
рисунок 10. прогноз поставок полупроводников по приложениям (источник: блог sia)
к 2030 году крупнейшими рынками станут компьютеры и хранилища данных. сюда входят пк и серверы (и, конечно же, высококлассные серверы искусственного интеллекта), но поскольку поставки пк вряд ли значительно увеличатся, серверы, скорее всего, составят большую часть.
проводная связь относится к полупроводникам, используемым в центрах обработки данных. это означает, что к 2030 году компьютеры и хранилища данных (330 миллиардов долларов) + проводная связь (60 миллиардов долларов) = в общей сложности 390 миллиардов долларов станут полупроводниками для центров обработки данных (включая пк), став крупнейшим в мире рынком.
еще одна вещь, за которой стоит следить, — это рынок центров обработки данных и его перспективы.как показано на рисунке 11. ожидается, что после выпуска chatgpt в 2022 году рынок центров обработки данных будет стабильно расти. центры обработки данных состоят из трех элементов: сетевой инфраструктуры, серверов и хранилищ; ожидается, что количество серверов и хранилищ увеличится примерно вдвое с 2023 по 2029 год.
рисунок 11. перспективы рынка центров обработки данных (всеобъемлющий бум генеративного искусственного интеллекта еще не наступил) (источник: автор на основе данных statista market insights)
таким образом, серверные полупроводники (включая высокопроизводительные серверы искусственного интеллекта) займут наибольшую долю мирового рынка, а рынок центров обработки данных также будет расширяться.
повторите в последний раз.пока что «фестиваль графических процессоров» nvidia — это всего лишь предпраздничное мероприятие. грядет полноценный бум генеративного искусственного интеллекта.