новости

Amazon приобретает компанию по производству чипов

2024-08-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Amazon достигла соглашения о приобретении производителя чипов и компании по сжатию моделей искусственного интеллекта Perceive, дочерней компании публично торгуемой компании Xperi в Сан-Хосе, штат Калифорния, за 80 миллионов долларов наличными. Perceive — компания, разрабатывающая революционные решения для вывода на основе нейронных сетей, специализирующаяся на технологиях, позволяющих создавать крупномасштабные модели искусственного интеллекта на периферийных устройствах.

Amazon не раскрыла своих конкретных мыслей по поводу этой технологии. «Мы рады подписанию соглашения о приобретении Perceive и привлечении ее талантливой команды к участию в наших усилиях по переносу больших языковых моделей и мультимодального опыта на устройства, способные работать на периферии», — заявил представитель Amazon.

Xperi ищет покупателя для Perceive с начала этого года. Ожидается, что после закрытия сделки большинство из 44 сотрудников Perceive перейдут в Amazon. Amazon заявила, что не ожидает, что сделка потребует одобрения регулирующих органов, назвав ее обычным приобретением.

Представление чипа Perceive

Информация показывает, что Perceive возглавляют со-генеральные директора Мурали Дхаран и Стив Тейг. Компания имеет сотрудников по всему миру. Компания будет управлять лабораторией в Айдахо. Тейг руководил созданием Perceive во время своего пребывания на посту технического директора Xperi, где он курировал разработку технологий, включая основные инновации в области аудио и изображений, а также возглавлял команду машинного обучения компании. Дхаран, который ранее отвечал за стратегическое направление, управление и развитие лицензионного бизнеса Xperi, теперь отвечает за руководство бизнес-операциями Perceive, включая продажи, маркетинг, успех клиентов и операционную деятельность.

Perceive предлагает продукты, которые обслуживают большие модели искусственного интеллекта на периферийных устройствах. Ее флагманским продуктом является процессор Ergo AI, который может запускать нейронные сети уровня центра обработки данных в различных средах, даже когда мощность ограничена.

По имеющимся данным, это процессор искусственного интеллекта, который обеспечивает революционную производительность и энергоэффективность периферийным устройствам. Способен запускать большие нейронные сети с полной частотой кадров и поддерживать различные сетевые архитектуры и типы, включая стандартные CNN, RNN, LSTM и другие. Ergo является гибким и достаточно мощным для решения широкого спектра задач машинного обучения: от классификации и обнаружения объектов до сегментации и позы изображений, обработки аудиосигналов и языка. Вы даже можете настроить его на многозадачность, поскольку Ergo может управлять несколькими сетями одновременно.

Несмотря на вычислительную мощность Ergo, ему не требуется внешняя DRAM, а небольшой корпус размером 7 x 7 мм делает его идеальным для использования в компактных устройствах, таких как камеры, ноутбуки или очки AR/VR.

Perceive утверждает, что Ergo в 20–100 раз более энергоэффективен, чем другие продукты, и ему требуется всего 9 мВт вычислительной мощности для выполнения вывода видео со скоростью 30 кадров в секунду. Это означает, что ваше устройство может обеспечить беспрецедентное время автономной работы и выделять меньше тепла, что позволяет использовать меньший по размеру и более универсальный корпус.

В начале 2023 года Perceive выпустила новый процессор Ergo 2 AI. Согласно отчетам, чип может обеспечить производительность, необходимую для более сложных случаев использования, в том числе требующих моделей трансформаторов, более крупных нейронных сетей, нескольких сетей, работающих одновременно, и мультимодальных входов, сохраняя при этом лучшую в отрасли энергоэффективность.

Говоря о рыночных возможностях новейших чипов Ergo, основатель и генеральный директор Perceive Стив Тейг сказал: «С новыми процессорами Ergo 2 мы расширили возможности, которые мы предлагаем производителям устройств для создания своих лучших в своем классе чипов. до амбициозных продуктов, «включая модели трансформации для обработки речи или зрения, обработку видео с более высокой частотой кадров и даже объединение нескольких крупных нейронных сетей в одном приложении».

Ergo 2 работает в четыре раза быстрее, чем чип Ergo первого поколения Perceive, и обладает гораздо большей вычислительной мощностью, чем обычные чипы, разработанные для микро-ML. Разработчики продуктов теперь могут использовать передовые нейронные сети, такие как YOLOv5, RoBERTa, GAN и U-Nets, для быстрого получения точных результатов. Вся обработка Ergo 2 выполняется на кристалле и не требует внешней памяти, что повышает энергоэффективность, конфиденциальность и безопасность. Чип Ergo 2 позволяет:

1106 выводов в секунду при использовании MobileNet V2

979 выводов в секунду при запуске ResNet-50

Запуск YoloV5-S выполняет 115 выводов в секунду.

Чтобы обеспечить повышение производительности, необходимое для работы таких больших сетей, чип Ergo 2 использует конвейерную архитектуру и унифицированную конструкцию памяти, что повышает его гибкость и общую эффективность работы. В результате Ergo 2 может поддерживать датчики с более высоким разрешением и более широкий спектр приложений, включая:

Приложения языковой обработки, такие как преобразование речи в текст и завершение предложений.

Аудиоприложения, такие как акустическое эхоподавление и расширенное обнаружение аудиособытий.

Сложные задачи обработки видео, такие как сверхразрешение видео и обнаружение позы.

Процессор Ergo 2 имеет размеры 7 x 7 мм, производится компанией GlobalFoundries на платформе 22FDX и для работы не требует внешней DRAM. Низкое энергопотребление также означает, что он не требует охлаждения. Чип может одновременно работать в нескольких гетерогенных сетях, обеспечивая интеллектуальные возможности видео и аудио для таких устройств, как камеры корпоративного уровня, используемые для обеспечения безопасности, контроля доступа, тепловидения или видеоаналитики в розничной торговле, подходящие для промышленного использования, включая визуальный контроль или интегрирование в системы; потребительские товары, такие как ноутбуки, планшеты и современные носимые устройства.

История чипов собственной разработки AWS

AWS уже много лет занимается созданием собственной собственной микросхемы для рабочих нагрузок искусственного интеллекта и облачной оптимизации, во многом благодаря приобретению компанией Annapurna Labs более десяти лет назад. Это побудило AWS за последние несколько лет создать собственные процессоры Graviton, чипы Inferentia и процессоры машинного обучения Trainium для обучения моделей ИИ в облаке.

В этом году Amazon сделала важный шаг вперед в продвижении технологии искусственного интеллекта (ИИ).

На своей ежегодной конференции AWS re:Invent компания AWS анонсировала два новых специализированных чипа: AWS Trainium2 и Graviton4. Эти два чипа представляют собой смелую попытку Amazon Web Services (AWS) удовлетворить растущий спрос на возможности искусственного интеллекта, особенно в условиях острой нехватки высокопроизводительных графических процессоров (GPU), в основном производимых Nvidia.

Потребность в расширенной вычислительной мощности обусловлена ​​растущей популярностью генеративного искусственного интеллекта, который требует мощной инфраструктуры для обучения и развертывания моделей. Сообщается, что графические процессоры Nvidia распроданы до 2024 года, а источники в отрасли, включая генерального директора TSMC, прогнозируют, что этот кризис поставок может продлиться и в 2025 году. Имея это в виду, новые чипы Amazon призваны уменьшить зависимость от Nvidia, предоставляя альтернативу, специально предназначенную для рабочих нагрузок искусственного интеллекта.

Чип Trainium2 предназначен для обучения крупномасштабных моделей искусственного интеллекта, его производительность в четыре раза выше, чем у чипов предыдущего поколения, и в два раза выше энергоэффективность, чем у чипов предыдущего поколения. По данным Amazon, чип может обрабатывать 65 эксафлопс при использовании в облачном кластере численностью до 100 000 единиц. Эта возможность сокращает время обучения сложных моделей, например моделей с сотнями миллиардов параметров, с месяцев до недель. Эти достижения делают Trainium2 лидером в области инфраструктуры обучения искусственному интеллекту.

Признанный своим потенциалом, чип Trainium2 уже привлек интерес со стороны нескольких игроков отрасли, в том числе Anthropic, компании, специализирующейся на создании дружественных моделей искусственного интеллекта.Соучредитель Том Браун подчеркнул, что Trainium2 позволит им быстро масштабироваться и обрабатывать данные до четырех раз быстрее, чем предыдущая модель. Партнерские отношения между AWS и такими компаниями, как Anthropic, иллюстрируют растущую тенденцию использования собственных облачных технологий для оптимизации операций ИИ.

С другой стороны, чип Graviton4 — это самый мощный и эффективный процессор Amazon, предназначенный для различных облачных рабочих нагрузок. Ожидается, что по сравнению с Graviton3 предыдущего поколения этот чип четвертого поколения улучшит производительность на 30%, увеличит количество ядер на 50% и увеличит пропускную способность памяти на 75%. Эти улучшения позволяют пользователям снизить эксплуатационные расходы и увеличить скорость обработки данных, что делает его идеальным для предприятий, использующих высокопроизводительные базы данных и приложения для интенсивной аналитики.

Среди первых пользователей Graviton4 — такие компании, как Datadog, Epic Games и SAP. Например, Роман Висинтин, главный облачный инженер Epic, отметил, что чип хорошо работает при рабочих нагрузках, чувствительных к задержке, и особенно полезен для онлайн-игр. В высококонкурентной среде, где быстрый доступ к данным и их обработка имеют решающее значение для успеха, эта тенденция оптимизации облачных сервисов имеет решающее значение.

Заявление Amazon также подчеркивает более широкую тенденцию в технологической отрасли, в которой компании все активнее инвестируют в специализированные чиповые решения для удовлетворения конкретных вычислительных потребностей, особенно задач искусственного интеллекта и машинного обучения. Разрабатывая проприетарное оборудование, Amazon надеется выделиться на фоне других и снизить зависимость от таких известных производителей чипов, как Nvidia и AMD.

Поскольку технология искусственного интеллекта продолжает развиваться и становится все более распространенной в различных областях, от здравоохранения до развлечений, потребность в эффективных и высокопроизводительных чипах будет только расти. Технологические аналитики ожидают, что запуск этих новых чипов Amazon не только немедленно удовлетворит текущие потребности, но и заложит основу для будущего развития искусственного интеллекта.

Удивительно, но выпуск этих чипов приходится на стратегическое время, поскольку Microsoft также объявила о собственной разработке чипов для искусственного интеллекта и облачных сервисов. Это вызвало жесткую конкуренцию в области аппаратного обеспечения искусственного интеллекта, побуждая компании быстро внедрять инновации и расширять границы.

Ожидается, что чипы AWS Trainium2 и Graviton4 будут доступны клиентам в ближайшем будущем, при этом Trainium2 будет запущен где-то в следующем году, а Graviton4 уже находится в предварительной версии. Поскольку технологическая индустрия продолжает переходить к облачным вычислениям и решениям на основе искусственного интеллекта, Amazon готова сыграть важную роль в этой цифровой трансформации.

Чипы искусственного интеллекта имеют большой потенциал

AWS часто разрабатывает чипы. Помимо удовлетворения бизнес-потребностей компании, это также еще раз доказывает, что чипы искусственного интеллекта обладают огромным потенциалом, который отражается не только на облаке, но и на стороне устройств.

По данным Futurum Intelligence, к 2023 году на Nvidia будет приходиться 92% рынка AI-GPU и 75% всего рынка полупроводников AI-центров обработки данных. Это доминирование сохранится на и без того огромном рынке, который, как ожидается, вырастет почти вдвое к 2024 году.

По оценкам аналитической компании, общая рыночная стоимость процессоров и ускорителей для приложений искусственного интеллекта в центрах обработки данных достигнет $56,3 млрд, что на 49,3% больше годовой рыночной стоимости в $37,7 млрд в 2023 году. Аналитики рынка прогнозируют, что совокупный годовой темп роста рынка составит 29,7% в течение следующих пяти лет, в результате чего размер рынка достигнет 98,4 млрд долларов США в 2026 году и 138,3 млрд долларов США в 2028 году.

Futurum делит рынок процессоров для центров обработки данных с искусственным интеллектом на четыре категории: процессоры, графические процессоры, специализированные ускорители (называемые XPU) и собственные облачные ускорители, производимые такими компаниями, как Google, AWS и Microsoft.

В 2023 году на процессоры будет приходиться 20,5% рынка, на графические процессоры — 73,5% рынка, а на XPU и облачные продукты — по 3% каждый.

1. В 2023 году на процессоры будет приходиться 20% обработки ИИ в центрах обработки данных, и они продолжат играть важную роль. По оценкам Futurum, совокупный годовой темп роста за пять лет составит 28%: с $7,7 млрд в 2023 году до $26 млрд в 2028 году. По оценкам Futurum, в 2023 году доля рынка Nvidia составит 37%, за ней следует доля Intel с 23%.

2. К 2023 году графические процессоры будут составлять 74% чипсетов, используемых в приложениях искусственного интеллекта в центрах обработки данных, и совокупный годовой темп роста за пять лет составит 30%, увеличившись с 28 миллиардов долларов США в 2023 году до 102 миллиардов долларов США в 2028 году. По оценкам Futurum, Nvidia удерживает 92% рынка графических процессоров для искусственного интеллекта.

3. Среднегодовой темп роста XPU за пять лет составит 31%, увеличившись с 1 миллиарда долларов США в 2023 году до 3,7 миллиарда долларов США в 2028 году.

4. Ускорители искусственного интеллекта в общедоступных облаках будут испытывать пятилетний совокупный годовой темп роста на уровне 35%, увеличившись с 1,3 миллиарда долларов США в 2023 году до 6 миллиардов долларов США в 2028 году.

Futurum исключает из этого исследования процессоры и ускорители искусственного интеллекта, если они недоступны для публичного использования в центрах обработки данных, таким образом исключая наборы микросхем искусственного интеллекта, разработанные и используемые Meta, Tesla и Apple.

С географической точки зрения Северная Америка доминирует на рынке и к 2023 году будет занимать 55% доли рынка. Европа, Ближний Восток и Африка (EMEA) и Азиатско-Тихоокеанский регион (APAC) являются важными рынками, а Латинская Америка (LATAM) представляет собой развивающийся регион с огромным потенциалом роста.

Визуальная и аудиоаналитика станет крупнейшим вариантом использования в 2023 году. Futurum прогнозирует, что тремя основными вариантами использования в 2028 году будут визуальный и аудиоанализ, симуляция и моделирование, а также генерация, анализ и обобщение текста.

Новое исследование Omdia, касающееся периферийного ИИ, прогнозирует, что к 2028 году рынок периферийных ИИ-процессоров принесет доход в размере 60,2 млрд долларов США, а совокупный годовой темп роста составит 11%.

В последнем прогнозе по периферийным процессорам Omdia отмечается, что рост доходов будет обусловлен увеличением спроса на оборудование, поскольку различные отрасли и устройства внедряют искусственный интеллект. Одной из областей, способствующих росту рынка, является сегмент ПК, где растет предложение продуктов от таких крупных поставщиков, как Intel, AMD и Apple. Сообщается, что производители ПК пытаются рекламировать включение процессоров искусственного интеллекта в свои устройства как «уникальное преимущество».

Помимо сектора персональных компьютеров, в отчете также подчеркивается быстрое применение процессоров искусственного интеллекта в таких областях, как автомобили, дроны, камеры видеонаблюдения и роботы.

Отсюда мы можем понять намерения приобретения AWS.