nouvelles

Dirigeant d'Intel : les modèles d'IA passeront progressivement du cloud vers la périphérie

2024-07-26

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

·Le temps de traitement du cloud est prolongé, les coûts de transmission des données sont élevés et la sécurité des données suscite des inquiétudes. Sachin Katti, vice-président senior d'Intel, a déclaré que l'IA pénétrait jusqu'à la périphérie et que les grands modèles pourraient progressivement passer du cloud à la périphérie.


Sachin Katti, vice-président senior et directeur général du groupe Networking and Edge chez Intel.

"Nous prévoyons que l'IA sera déployée et appliquée davantage à la périphérie pour traiter les données locales. Au fil du temps, les modèles d'IA pourraient progressivement passer du cloud à la périphérie, le 24 juillet, lors de l'Intel Network & Edge 2024, lors de la conférence de l'industrie informatique, Sachin." Katti, vice-président senior et directeur général de la division Réseau et Edge d'Intel, a déclaré que l'IA actuelle fonctionne principalement dans le cloud, étant donné que les appareils Edge génèrent de grandes quantités de données localement, le coût de transmission de toutes les données vers le cloud est assez élevé. l'informatique de pointe est la tendance générale.

La sécurité des données et le temps réel favorisent l'IA du cloud à la périphérie

Sachin Katti a déclaré que les êtres humains sont à l'ère de l'assistance de l'IA et que l'IA aide les humains à travailler plus efficacement. Après l'ère de l'assistance de l'IA, les humains entreront dans l'ère des assistants de l'IA : « Lorsqu'ils traversent un fast-food, les agents de l'IA peuvent le faire. fournir des services de commande. Les flux de travail des entreprises peuvent également être complétés par l'IA. Dans un avenir lointain, nous découvrirons peut-être que les agents peuvent interagir les uns avec les autres, tout comme les humains travaillent ensemble pour fournir des solutions au niveau du service.

Sachin Katti a déclaré qu'aujourd'hui, la croissance de l'IA est principalement concentrée dans le cloud, mais que l'évolution vers l'informatique de pointe est la tendance générale : « Dans le passé, l'IA dont nous avons parlé concernait essentiellement la vision industrielle ou la technologie d'automatisation basée sur des séries chronologiques. Mais maintenant, l'IA de pointe a progressivement progressé de la vision industrielle à la périphérie vers des applications telles que les grands modèles de langage et l'IA générative. Intel continuera de fournir des capacités pertinentes pour accélérer le déploiement de l'IA générative et des grands modèles de langage à la périphérie.

Outre les exigences de transmission des données de périphérie, la sécurité des données et les performances en temps réel sont des considérations importantes dans la promotion de l’IA du cloud vers la périphérie. Guo Wei, vice-président d'Intel Marketing Group et directeur général d'Intel China Network and Edge and Channel Data Center Division, a déclaré que d'une part, les entreprises ont des inquiétudes concernant le placement des données dans le cloud, et d'autre part, l'informatique de pointe aide à résoudre ; exigences en temps réel.

« En fait, cette année, plus de la moitié de nos clients explorent des solutions de mise en œuvre basées sur des modèles de grande périphérie. » Chen Wei, vice-président d'Intel et directeur général de la division Réseau et périphérie en Chine, a déclaré que du point de vue de la mise en œuvre de l'informatique de pointe, La taille du modèle n'est pas plus grande, mieux c'est, mais elle devrait répondre aux besoins réels des scénarios d'application du marché. « Le déploiement de l'informatique de pointe doit prendre en compte de nombreux facteurs, tels que la latence, la disponibilité, l'optimisation réglable des microdonnées et la sécurité des informations. , etc."

Le réglage Edge est limité par le volume de données

"La caractéristique de la périphérie est la fragmentation." Zhang Yu, directeur de la technologie de la division Réseau et périphérie d'Intel Chine et ingénieur en chef principal en IA d'Intel, a déclaré que différents utilisateurs ont des exigences différentes en matière de puissance et de performances de calcul. Un défi courant en matière de réglage de pointe est la limitation du volume de données. La quantité de données qu'une école ou une usine peut réellement utiliser pour la formation est très faible. Les données des différentes entreprises et écoles sont également différentes. Les usines de production de pièces automobiles et les usines d'usinage rencontrent des problèmes différents. Les défauts des produits ne peuvent pas être détectés avec un modèle unifié, et le modèle doit être formé avec des données spécifiques à l'entreprise.

Dans le même temps, Zhang Yu a déclaré : « La formation nécessite un étiquetage pour indiquer à la machine à quoi vous faites attention. Les personnes qui exploitent réellement l'équipement fonctionnel d'IA dans une usine sont souvent les ouvriers de la chaîne de production. ils ont l'énergie nécessaire pour étiqueter pendant le processus de production ?" Par conséquent, des méthodes d'annotation automatisées doivent être utilisées lors du réglage des bords pour compléter l'annotation lorsque la quantité de données est faible. « À la périphérie, les utilisateurs finaux recherchent un déploiement commercial, et non des solutions techniques. Les exigences des utilisateurs en matière de services sont la commodité, la facilité de déploiement et la facilité de gestion après le déploiement. Il s'agit souvent d'un problème pour les clients. »

Guo Wei a déclaré qu'il ne suffit pas de s'appuyer uniquement sur la formation de modèles pour résoudre les problèmes pratiques de l'industrie, et que la demande d'amélioration des capacités de raisonnement est particulièrement évidente cette année. La mise en œuvre de grands modèles passera inévitablement par une répartition équilibrée de la puissance de calcul de la fin vers la périphérie puis vers le cloud. « S'il ne s'agit que d'une application standard de grands modèles verticaux, les grands modèles seront principalement déployés dans le cloud. Cependant, en raison de la nécessité d'une mise en œuvre industrielle, la puissance de calcul de l'IA sera inévitablement poussée vers le cloud. " Distribution Edge et End-Side. "

Sachin Katti a déclaré que les principales charges de travail à la périphérie sont l'inférence et l'apprentissage continu. Parfois, après le déploiement en périphérie, on constate que l'effet n'est pas aussi bon que prévu, ou comme il fonctionne pendant un certain temps, le modèle d'origine doit être affiné.

Quelle puissance de calcul est nécessaire à la périphérie ? Sachin Katti a déclaré qu'il existe une corrélation positive entre la puissance de calcul et la consommation d'énergie. L'équipement déployé en périphérie consomme environ 200 watts d'énergie, le déploiement dans le cloud consomme 1 à 2 kilowatts et la consommation d'énergie d'un rack monocouche dans le centre de données peut atteindre 100 kilowatts. Si l'on additionne la consommation d'énergie de l'ensemble du centre de données, elle peut atteindre 50 à 100 gigawatts. Dans les cas où la puissance de calcul ou la consommation d'énergie est élevée, l'efficacité et la capacité de refroidissement sont des variables clés à prendre en compte. Étant donné que les données et la puissance de calcul à grande échelle généreront beaucoup de chaleur, « nous utilisons actuellement la technologie de refroidissement liquide pour refroidir efficacement la flotte. La technologie de refroidissement liquide existante a réussi à refroidir la flotte de 100 kilowatts et devrait sera étendu à 300 kilowatts à l’avenir. Par conséquent, les limites sont un autre facteur très important en matière de puissance de calcul : si vous avez suffisamment de capacité pour refroidir efficacement l’environnement global.