nouvelles

Annonce officielle d'Apple : les modèles prenant en charge Apple Intelligence sont formés sur les puces personnalisées de Google

2024-07-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Auteur de cet article : Li Dan

Source : IA dure

Des documents publics montrent que le développement par Apple de son propre système d’intelligence artificielle (IA), Apple Intelligence, est indissociable de la prise en charge des puces personnalisées de Google.

Le lundi 29 juillet, heure de l'Est, le site officiel d'Apple a publié un document technique détaillant certains modèles de langage de base développés pour prendre en charge le système d'intelligence personnelle d'Apple, Apple Intelligence, y compris un modèle de langage d'environ 3 milliards utilisé pour fonctionner efficacement sur l'appareil - le modèle paramétrique. "Apple Basic Model" (AFM) côté client et un grand modèle de langage de serveur - serveur AFM conçu pour l'architecture cloud AI d'Apple "Private Cloud Compute".

Dans le document, Apple a présenté que l'AFM côté client et l'AFM serveur sont membres d'une famille de modèles génératifs développés par Apple. Ces modèles sont utilisés pour prendre en charge les utilisateurs et les développeurs. Dans le document, Apple a révélé que le modèle de formation utilise la puce AI ASIC TPUv4 de quatrième génération et la puce TPUv5 de nouvelle génération développée par Google. L'article se lit comme suit :

"Nous avons formé l'AFM du serveur à partir de zéro sur 8 192 puces TPUv4, en utilisant une longueur de séquence de 4 096 et une taille de lot de 4 096 séquences pour effectuer 6,3 billions de séquences de formation de jetons."
"L'AFM côté terminal est formé sur 2048 puces TPUv5p."

Dans le document de 47 pages, Apple n'a pas mentionné nommément Google ou Nvidia, mais a déclaré que ses services AFM et AFM sont formés sur des "clusters cloud TPU". Cela signifie qu'Apple loue des serveurs auprès de fournisseurs de services cloud pour effectuer des calculs.

En fait, lors de la Worldwide Developers Conference (WWDC) en juin de cette année, les médias ont découvert dans les détails des documents techniques publiés par Apple que Google était devenu un autre gagnant des efforts d'Apple dans le domaine de l'IA. Les ingénieurs Apple ont utilisé le logiciel-cadre développé par l'entreprise et une variété de matériel pour créer le modèle de base, y compris des unités de traitement tensoriel (TPU) qui ne sont disponibles que sur Google Cloud. Cependant, Apple n'a pas révélé dans quelle mesure Apple s'appuie sur les puces et les logiciels de Google par rapport à d'autres fournisseurs de matériel d'IA tels que Nvidia.

Par conséquent, un commentaire sur les réseaux sociaux X lundi a souligné qu'il y avait des nouvelles selon lesquelles Apple utilisait des puces Google en juin, et nous avons maintenant plus de détails sur la pile de formation.


Certains commentaires disaient qu'Apple ne détestait pas Nvidia, mais que le TPU était plus rapide. Il y a aussi des commentaires selon lesquels le TPU est plus rapide, il est donc logique qu'Apple l'utilise. Bien sûr, il peut aussi être moins cher que les puces de Nvidia.


Les commentaires des médias lundi ont indiqué que le TPU de Google avait été créé à l'origine pour les charges de travail internes et qu'il était désormais utilisé plus largement. La décision d'Apple d'utiliser les puces Google pour former des modèles suggère que certains géants de la technologie recherchent et ont trouvé des alternatives aux puces IA de Nvidia en matière de formation à l'IA.

Le Wall Street Journal a mentionné que la semaine dernière, le PDG de Meta, Zuckerberg, ainsi que le PDG d'Alphabet et de Google, Pichai, ont tous deux laissé entendre dans leurs discours que leurs entreprises et d'autres sociétés technologiques avaient peut-être surinvesti dans l'infrastructure de l'IA. Mais ils reconnaissent tous que les risques commerciaux s’ils ne le font pas sont trop élevés.

Zuckerberg a dit :

"La conséquence d'un retard est que vous serez désavantagés dans les technologies les plus importantes au cours des 10 à 15 prochaines années."

Pichai a dit :

L’IA coûte cher, mais le risque de sous-investissement est encore plus grand. Google a peut-être trop investi dans l’infrastructure d’IA, notamment en achetant des GPU Nvidia. Même si le boom de l’IA ralentit, les centres de données et les puces informatiques achetées par les entreprises peuvent être utilisées à d’autres fins. Pour nous, le risque de sous-investir est bien plus grand que le risque de surinvestir.