nouvelles

Apple l'admet : le modèle d'IA est formé à l'aide de la puce personnalisée de Google

2024-07-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Actualités le lundi 30 juillet, heure des États-Unis,pommeLa société a déclaré que sonIALe modèle de base du système est enGoogle Pré-formation complète sur le processeur conçu.C'est le signe que les grandes entreprises technologiques explorent des options allant au-delà de la formation à l'intelligence artificielle de pointe.NvidiaGPUalternatives.

Apple a admis dans son dernier document technique qu’il utilise les unités de traitement tensoriel (TPU) de Google pour entraîner ses modèles d’intelligence artificielle. Par ailleurs, Apple a lancé lundi une version préliminaire d'Apple Intelligence pour certains utilisateurs.

Depuis longtemps, les GPU hautes performances de NVIDIA dominent le marché de la formation de modèles d'intelligence artificielle haut de gamme. De nombreuses entreprises technologiques, notamment OpenAI, Microsoft et Anthropic, ont adopté leurs GPU pour accélérer la formation de modèles. Cependant, ces dernières années, les GPU Nvidia ont été rares. C'est pour cette raison que des sociétés telles que Google, Meta, Oracle et Tesla ont toutes développé leurs propres puces pour répondre aux besoins de leurs systèmes d'intelligence artificielle et de développement de produits respectifs. .

Le PDG de Meta, Mark Zuckerberg, et le PDG d'Alphabet, Sundar Pichai, ont tous deux offert la semaine dernière des idées faisant allusion à d'éventuelles avancées dans l'infrastructure de l'intelligence artificielle entre leurs entreprises et d'autres acteurs du secteur. implique des risques commerciaux extrêmement élevés. Zuckerberg a spécifiquement souligné que si nous prenons du retard à cet égard, nous risquons de perdre notre avantage concurrentiel dans des domaines technologiques clés au cours des 10 à 15 prochaines années.

Dans le document technique de 47 pages, bien qu'Apple ne mentionne pas directement Google ou NVIDIA, il indique clairement que son modèle Attentional Factorization Machines (AFM) et son serveur AFM sont formés dans un environnement de « cluster cloud TPU », ce qui indique indirectement que les ressources Apple fournis par les fournisseurs de services cloud sont utilisés pour effectuer des tâches informatiques.

Dans le document, Apple souligne : « L'application de ce système nous permet de former des modèles AFM de manière efficace et évolutive, allant de l'AFM côté appareil à l'AFM côté serveur, et même des modèles à plus grande échelle. »

Jusqu'à présent, les représentants officiels d'Apple et de Google n'ont pas répondu aux demandes de commentaires.

Par rapport à de nombreux pairs, Apple a dévoilé plus tard son plan stratégique en matière d'intelligence artificielle. Après qu'OpenAI ait lancé ChatGPT fin 2022, d'autres entreprises se sont rapidement lancées dans une recherche enthousiaste de la technologie d'intelligence artificielle générative. Lundi, Apple a officiellement lancé Apple Smart, qui a fait ses débuts avec une série de fonctionnalités innovantes, telles que la nouvelle conception de l'interface de Siri, des capacités de traitement du langage naturel considérablement améliorées et la synthèse automatique par intelligence artificielle dans les champs de texte.

Au cours de la prochaine année, Apple prévoit de lancer davantage de fonctionnalités basées sur l'intelligence artificielle générative, notamment la génération automatique d'images et d'expressions, ainsi qu'une version améliorée de Siri qui pourra utiliser les informations personnalisées des utilisateurs pour mieux fonctionner dans diverses applications complexes et complexes. tâches personnalisées.

Dans un document technique publié lundi, Apple a révélé les détails spécifiques de la formation du modèle AFM sur ses appareils, à savoir que le modèle est complété sur une « tranche » distincte contenant 2 048 des dernières puces TPU v5p. TPU v5p est actuellement l'unité de traitement tensoriel la plus avancée et a été lancée pour la première fois en décembre de l'année dernière. La formation du serveur AFM est encore plus importante : elle utilise 8192 puces TPU v4, soigneusement configurées en huit tranches et fonctionnant ensemble dans le centre de données via le réseau pour prendre en charge conjointement les puissants besoins informatiques du serveur.

Selon les informations officielles de Google, son dernier TPU coûte moins de 2 dollars de l’heure, mais les clients doivent le réserver trois ans à l’avance pour garantir son utilisation. Depuis son introduction en 2015, conçue spécifiquement pour les charges de travail internes et son ouverture au public par Google en 2017, le TPU est devenu l'une des puces personnalisées les plus matures et avancées en matière d'intelligence artificielle.

Il convient de noter que malgré le fait qu'il dispose d'un TPU auto-développé, Google conserve toujours son statut de principal client de Nvidia, utilisant les GPU de Nvidia et son propre TPU pour former des systèmes d'intelligence artificielle et donnant accès à la technologie Nvidia sur sa plate-forme cloud.

Apple a précédemment déclaré que le processus d'inférence (utilisant des modèles d'intelligence artificielle pré-entraînés pour la génération ou la prédiction de contenu) serait partiellement effectué sur des puces dans ses propres centres de données.

Il s'agit du deuxième document technique qu'Apple publie récemment sur son système d'intelligence artificielle, après une version plus générale publiée en juin, confirmant une fois de plus l'utilisation des TPU par l'entreprise dans son processus de développement. (petit)