nouvelles

Amazon acquiert une société de puces

2024-08-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Amazon a conclu un accord pour acquérir le fabricant de puces et la société de compression de modèles d'IA Perceive, une filiale basée à San Jose, en Californie, de Xperi, cotée en bourse, pour 80 millions de dollars en espèces. Perceive est une société qui développe des solutions révolutionnaires d'inférence de réseaux neuronaux, en se concentrant sur la technologie qui fournit des modèles d'intelligence artificielle à grande échelle sur les appareils de pointe.

Amazon n'a pas révélé ses réflexions spécifiques sur la technologie. "Nous sommes ravis d'avoir signé un accord pour acquérir Perceive et d'amener son équipe talentueuse à se joindre à nos efforts pour apporter de grands modèles linguistiques et des expériences multimodales à des appareils capables de fonctionner à la périphérie", a déclaré un porte-parole d'Amazon.

Xperi recherche un acheteur pour Perceive depuis le début de cette année. Une fois l'accord conclu, la plupart des 44 employés de Perceive devraient rejoindre Amazon. Amazon a déclaré qu'il ne s'attendait pas à ce que l'accord nécessite l'approbation des autorités réglementaires, le qualifiant d'acquisition de routine.

Présentation de la puce Perceive

Les informations montrent que Perceive est dirigé par les co-PDG Murali Dharan et Steve Teig. L'entreprise compte des employés dans le monde entier. L'entreprise exploitera un laboratoire dans l'Idaho. Teig a piloté la création de Perceive au cours de son mandat de directeur de la technologie chez Xperi, où il a supervisé le développement technologique, y compris les innovations de base en matière d'audio et d'imagerie, tout en dirigeant également l'équipe d'apprentissage automatique de l'entreprise. Dharan, qui était auparavant responsable de l'orientation stratégique, de la gestion et de la croissance de l'activité licences de Xperi, est désormais responsable de la direction des opérations commerciales de Perceive, notamment les ventes, le marketing, la réussite des clients et les opérations.

Perceive propose des produits qui servent de grands modèles d'IA sur des appareils de pointe. Son produit phare est le processeur Ergo AI, qui peut exécuter des réseaux neuronaux au niveau du centre de données dans une variété d'environnements, même lorsque la puissance est limitée.

Selon les rapports, il s’agit d’un processeur IA qui apporte des performances et une efficacité énergétique révolutionnaires aux appareils de pointe. Capable d'exécuter de grands réseaux neuronaux à pleine fréquence d'images et de prendre en charge une variété d'architectures et de types de réseaux, notamment les standards CNN, RNN, LSTM, etc. Ergo est suffisamment flexible et puissant pour gérer un large éventail de tâches d'apprentissage automatique, de la classification et de la détection d'objets à la segmentation et à la pose d'images, en passant par le traitement du signal audio et le langage. Vous pouvez même lui demander d'effectuer plusieurs tâches à la fois, car Ergo peut exécuter plusieurs réseaux à la fois.

Malgré la puissance de traitement d'Ergo, il ne nécessite aucune DRAM externe et son petit boîtier de 7 mm x 7 mm le rend idéal pour une utilisation dans des appareils compacts tels que des appareils photo, des ordinateurs portables ou des lunettes AR/VR.

Perceive a déclaré qu'Ergo est 20 à 100 fois plus économe en énergie que les autres produits, ne nécessitant que 9 mW de puissance de calcul pour effectuer une inférence sur une vidéo à 30 ips. Cela signifie que votre appareil peut offrir une autonomie de batterie inégalée et générer moins de chaleur, ce qui permet un ensemble plus petit et plus polyvalent.

Début 2023, Perceive a lancé le nouveau processeur Ergo 2 AI. Selon les rapports, la puce peut fournir les performances requises pour des cas d'utilisation plus complexes, notamment ceux nécessitant des modèles de transformateur, des réseaux neuronaux plus grands, plusieurs réseaux fonctionnant simultanément et des entrées multimodales, tout en conservant une efficacité énergétique de pointe.

Élaborant sur l'opportunité de marché pour les dernières puces Ergo, le fondateur et PDG de Perceive, Steve Teig, a déclaré : « Avec les nouveaux processeurs Ergo 2, nous avons étendu les capacités que nous offrons aux fabricants d'appareils pour construire leurs meilleures puces de leur catégorie. à des produits ambitieux, "y compris des modèles de transformation pour le traitement du langage ou de la vision, un traitement vidéo à fréquence d'images plus élevée et même la combinaison de plusieurs grands réseaux neuronaux dans une seule application".

Ergo 2 fonctionne quatre fois plus vite que la puce Ergo de première génération de Perceive et possède une puissance de traitement bien supérieure à celle des puces classiques conçues pour le micro-ML. Les développeurs de produits peuvent désormais exploiter des réseaux neuronaux avancés tels que YOLOv5, RoBERTa, GAN et U-Nets pour fournir rapidement des résultats précis. Tout le traitement Ergo 2 est effectué sur puce et ne nécessite aucune mémoire externe, améliorant ainsi l'efficacité énergétique, la confidentialité et la sécurité. La puce Ergo 2 permet :

1 106 inférences par seconde avec MobileNet V2

979 inférences par seconde lors de l'exécution de ResNet-50

L'exécution de YoloV5-S effectue 115 inférences par seconde

Pour fournir les améliorations de performances nécessaires au fonctionnement de ces grands réseaux, la puce Ergo 2 utilise une architecture pipeline et une conception de mémoire unifiée, ce qui augmente sa flexibilité et son efficacité opérationnelle globale. En conséquence, Ergo 2 peut prendre en charge des capteurs à plus haute résolution et une plus large gamme d'applications, notamment :

Applications de traitement du langage telles que la synthèse vocale et la complétion de phrases

Applications audio telles que l'annulation de l'écho acoustique et une détection d'événements audio plus riche

Tâches de traitement vidéo exigeantes telles que la super-résolution vidéo et la détection de pose.

Le processeur Ergo 2 mesure 7 mm x 7 mm, est fabriqué par GlobalFoundries en utilisant la plate-forme 22FDX et ne nécessite aucune DRAM externe pour fonctionner. Sa faible consommation d'énergie signifie également qu'il ne nécessite aucun refroidissement. La puce peut exécuter plusieurs réseaux hétérogènes simultanément, offrant des capacités vidéo et audio intelligentes à des appareils tels que des caméras d'entreprise utilisées pour la sécurité, le contrôle d'accès, l'imagerie thermique ou l'analyse vidéo de vente au détail, adaptées aux cas d'utilisation industrielle, notamment l'inspection visuelle ou l'intégration dans ; produits de consommation tels que les ordinateurs portables, les tablettes et les appareils portables avancés.

Historique des puces auto-développées par AWS

AWS construit depuis des années son propre silicium personnalisé en interne pour les charges de travail d'IA et l'optimisation du cloud, en grande partie grâce à l'acquisition d'Annapurna Labs par la société il y a plus de dix ans. Cela a conduit AWS à construire ses propres processeurs Graviton, puces Inferentia et processeurs d'apprentissage automatique Trainium au cours des dernières années pour former des modèles d'IA dans le cloud.

Cette année, Amazon a franchi une étape majeure dans l’avancement de la technologie de l’intelligence artificielle (IA).

Lors de sa conférence annuelle AWS re:Invent, AWS a annoncé deux nouvelles puces personnalisées : AWS Trainium2 et Graviton4. Les deux puces représentent un effort audacieux d'Amazon Web Services (AWS) pour répondre à la demande croissante de capacités d'IA, d'autant plus que le marché est confronté à une grave pénurie d'unités de traitement graphique (GPU) hautes performances, principalement produites par Nvidia.

Le besoin d’une puissance de calcul accrue découle de la popularité croissante de l’intelligence artificielle générative, qui nécessite une infrastructure puissante pour former et déployer des modèles. Nvidia serait en rupture de stock de GPU jusqu'en 2024, et des sources du secteur, dont le PDG de TSMC, prédisent que cette crise d'approvisionnement pourrait se poursuivre jusqu'en 2025. Dans cet esprit, les nouvelles puces d'Amazon visent à réduire la dépendance à l'égard de Nvidia en offrant une alternative spécifiquement adaptée aux charges de travail d'IA.

La puce Trainium2 est conçue pour entraîner des modèles d'IA à grande échelle, avec des performances quatre fois supérieures à celles de la génération précédente de puces et deux fois plus économes en énergie que la génération précédente de puces. Selon Amazon, la puce peut gérer 65 exaflops lorsqu'elle est utilisée dans un cluster cloud comprenant jusqu'à 100 000 unités. Cette capacité réduit le temps nécessaire à la formation de modèles complexes, tels que ceux comportant des centaines de milliards de paramètres, de plusieurs mois à quelques semaines. Ces avancées font de Trainium2 un leader en matière d’infrastructure de formation en IA.

Reconnue pour son potentiel, la puce Trainium2 a déjà suscité l'intérêt de plusieurs acteurs de l'industrie, dont Anthropic, une entreprise axée sur la construction de modèles d'IA conviviaux.Le co-fondateur Tom Brown a souligné que Trainium2 leur permettra d'évoluer rapidement et de traiter jusqu'à quatre fois plus vite que le modèle précédent. Les partenariats entre AWS et des sociétés telles qu'Anthropic illustrent la tendance croissante à tirer parti de la technologie cloud propriétaire pour rationaliser les opérations d'IA.

La puce Graviton4, quant à elle, est le processeur le plus puissant et le plus efficace d'Amazon, conçu pour une variété de charges de travail cloud. Par rapport à la génération précédente Graviton3, cette puce de quatrième génération devrait améliorer les performances de 30 %, augmenter le nombre de cœurs de 50 % et augmenter la bande passante mémoire de 75 %. Ces améliorations permettent aux utilisateurs de réduire les coûts d'exploitation et d'augmenter les vitesses de traitement des données, ce qui le rend idéal pour les entreprises exécutant des bases de données hautes performances et des applications d'analyse intensives.

Parmi les premiers utilisateurs de Graviton4 figurent des sociétés telles que Datadog, Epic Games et SAP. Par exemple, Roman Visintine, ingénieur cloud en chef chez Epic, a souligné que la puce fonctionne bien dans les charges de travail sensibles à la latence et est particulièrement bénéfique pour les expériences de jeu en ligne. Dans un environnement hautement compétitif où un accès et un traitement rapides des données sont essentiels au succès, cette tendance à l’optimisation des services cloud est cruciale.

L'annonce d'Amazon met également en évidence une tendance plus large dans le secteur technologique, dans lequel les entreprises investissent de plus en plus dans des solutions de puces personnalisées pour répondre à des besoins informatiques spécifiques, notamment en matière d'intelligence artificielle et de tâches d'apprentissage automatique. En développant du matériel propriétaire, Amazon espère se différencier et réduire sa dépendance à l'égard de fabricants de puces établis tels que Nvidia et AMD.

À mesure que la technologie de l’IA continue de croître et de devenir de plus en plus répandue dans divers domaines, des soins de santé au divertissement, le besoin de puces efficaces et performantes ne fera qu’augmenter. Les analystes technologiques s'attendent à ce que le lancement de ces nouvelles puces Amazon réponde non seulement immédiatement aux besoins actuels, mais jette également les bases du futur développement de l'intelligence artificielle.

Étonnamment, le lancement de ces puces intervient à un moment stratégique, puisque Microsoft a également annoncé son propre développement de puces pour l'intelligence artificielle et les services cloud. Cela a déclenché une concurrence féroce dans le domaine du matériel d’IA, incitant les entreprises à innover rapidement et à repousser les limites.

Les puces AWS Trainium2 et Graviton4 devraient être disponibles pour les clients dans un avenir proche, Trainium2 étant lancé l'année prochaine et Graviton4 déjà en avant-première. Alors que l’industrie technologique continue d’évoluer vers des solutions basées sur le cloud computing et l’intelligence artificielle, Amazon est sur le point de jouer un rôle majeur dans cette transformation numérique.

Les puces IA ont un grand potentiel

AWS développe fréquemment des puces. En plus de répondre aux besoins commerciaux de l'entreprise, cela prouve une fois de plus que les puces IA ont un grand potentiel, qui se reflète non seulement dans le cloud, mais aussi du côté des appareils.

Selon Futurum Intelligence, d'ici 2023, Nvidia représentera 92 % du marché des GPU IA et 75 % de l'ensemble du marché des semi-conducteurs IA pour centres de données. Cette domination se poursuivra sur un marché déjà énorme, qui devrait croître de près de moitié d’ici 2024.

Le cabinet d’analystes estime que la valeur marchande totale des processeurs et des accélérateurs pour les applications d’intelligence artificielle des centres de données atteindra 56,3 milliards de dollars, soit une augmentation de 49,3 % par rapport à la valeur marchande annuelle de 37,7 milliards de dollars en 2023. Les analystes du marché prévoient que le marché connaîtra une croissance annuelle composée de 29,7 % au cours des cinq prochaines années, ce qui portera la taille du marché à 98,4 milliards de dollars en 2026 et à 138,3 milliards de dollars en 2028.

Futurum divise le marché des processeurs de centres de données IA en quatre catégories : les processeurs, les GPU, les accélérateurs spécialisés (appelés XPU) et les accélérateurs cloud propriétaires produits par des sociétés telles que Google, AWS et Microsoft.

En 2023, les CPU représenteront 20,5 % du marché, les GPU 73,5 % du marché et les XPU et les produits spécifiques au cloud représenteront 3 % chacun.

1. En 2023, les processeurs représenteront 20 % du traitement de l’IA dans les centres de données et continueront de jouer un rôle important. Futurum estime qu'ils connaîtront un taux de croissance annuel composé de 28 % sur cinq ans, passant de 7,7 milliards de dollars en 2023 à 26 milliards de dollars en 2028. Futurum estime que Nvidia détiendra une part de marché de 37 % en 2023, suivi d'Intel à 23 %.

2. D’ici 2023, les GPU représenteront 74 % des chipsets utilisés dans les applications d’IA des centres de données et connaîtront un taux de croissance annuel composé de 30 % sur cinq ans, passant de 28 milliards de dollars en 2023 à 102 milliards de dollars en 2028. Futurum estime que Nvidia détient 92 % du marché des GPU AI.

3. XPU connaîtra un taux de croissance annuel composé de 31 % sur cinq ans, passant de 1 milliard de dollars américains en 2023 à 3,7 milliards de dollars américains en 2028.

4. Les accélérateurs d’IA du cloud public connaîtront un taux de croissance annuel composé de 35 % sur cinq ans, passant de 1,3 milliard de dollars en 2023 à 6 milliards de dollars en 2028.

Futurum exclut les processeurs et accélérateurs d'IA de cette étude s'ils ne sont pas disponibles pour un usage public dans les centres de données, excluant ainsi les chipsets d'IA conçus et utilisés par Meta, Tesla et Apple.

D'un point de vue géographique, l'Amérique du Nord domine le marché et représentera 55 % de la part de marché d'ici 2023. L’Europe, le Moyen-Orient et l’Afrique (EMEA) et l’Asie-Pacifique (APAC) suivent comme marchés importants, tandis que l’Amérique latine (LATAM) représente une région en développement dotée d’un énorme potentiel de croissance.

Les analyses visuelles et audio sont les cas d’utilisation les plus importants en 2023. Futurum prédit que les trois principaux cas d'utilisation en 2028 seront l'analyse visuelle et audio, la simulation et la modélisation, ainsi que la génération, l'analyse et la synthèse de texte.

Spécifique à l'IA de pointe, une nouvelle étude d'Omdia prédit que le marché des processeurs d'IA de pointe générera 60,2 milliards de dollars de revenus d'ici 2028, avec un taux de croissance annuel composé de 11 %.

Les dernières prévisions d'Omdia en matière de processeurs de pointe indiquent que la croissance des revenus sera tirée par une demande accrue de matériel à mesure que diverses industries et appareils adoptent l'intelligence artificielle. L'un des domaines qui stimulent la croissance du marché est le segment des PC, avec une offre croissante de produits de la part de grands fournisseurs tels qu'Intel, AMD et Apple. Les vendeurs de PC tenteraient de commercialiser l’inclusion de processeurs IA dans leurs appareils comme un « argument de vente unique ».

Outre le secteur des ordinateurs personnels, le rapport souligne également l'application rapide des processeurs d'intelligence artificielle dans des domaines tels que les automobiles, les drones, les caméras de sécurité et les robots.

De là, nous pouvons voir les intentions derrière l’acquisition d’AWS.