nouvelles

Comment est développée Apple Intelligence ?L'interprétation la plus complète est ici

2024-07-31

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Écrit par |

Siri s'est enfin transformé en "AI Siri", et la très attendue Apple Intelligence est là.

Avec le lancement d'Apple Intelligence pour iOS 18, iPadOS 18 et macOS Sequoia, Apple a également publié un rapport technique sur son propre grand modèle, annonçant un grand nombre de détails techniques, qui ont attiré une grande attention de la part de l'industrie.

Selon les rapports, Apple Intelligence contient plusieurs modèles génératifs hautes performances, rapides et efficaces, conçus pour les tâches quotidiennes des utilisateurs et pouvant s'adapter instantanément aux activités actuelles des utilisateurs. Les modèles fondamentaux intégrés à Apple Intelligence sont déjà optimisés pour les expériences utilisateur telles que la rédaction et le peaufinage de texte, la priorisation et la synthèse des notifications, la création d'images intéressantes pour les conversations avec la famille et les amis et la prise d'actions dans l'application pour rationaliser l'interaction entre les applications.

Dans le rapport technique, l'équipe Apple a détaillé comment deux des modèles – un modèle de langage AFM (Apple Foundation Model) avec environ 3 milliards de paramètres et un modèle de langage AFM-serveur plus grand, basé sur un serveur – ont été construits et adaptés pour fonctionner. tâches professionnelles de manière efficace et précise.

Figure | Présentation du modèle AFM

Ces deux modèles fondamentaux font partie d'une plus grande famille de modèles génératifs créés par Apple pour soutenir les utilisateurs et les développeurs ; cela comprend un modèle de programmation basé sur le modèle de langage AFM pour créer de l'intelligence dans Xcode, et un modèle de diffusion pour aider les utilisateurs à s'exprimer visuellement. comme dans les applications de messagerie.

Comment fonctionne l’AFM ?

L'AFM a fait l'objet d'une évaluation rigoureuse au cours du processus de développement, et les résultats de l'évaluation ont montré que le modèle fonctionnait bien lors de la pré-formation, de la post-formation et des tâches spécifiques, et qu'il était conforme aux valeurs fondamentales d'Apple et aux principes d'IA responsable.

1. Évaluation pré-formation

L'équipe Apple a utilisé des références d'évaluation publiques telles que HELM MMLU, HELMLite et OpenLLM pour évaluer les capacités de compréhension du langage et de raisonnement du modèle AFM. Les résultats montrent que le modèle AFM a obtenu d'excellents résultats sur plusieurs indicateurs d'évaluation, a démontré de solides capacités de compréhension du langage et de raisonnement, et a jeté les bases d'applications post-formation ultérieures et de tâches spécifiques.

2. Évaluation post-formation

L'équipe Apple a combiné des évaluations humaines et des évaluations automatisées pour évaluer les capacités générales et spécifiques du modèle AFM, telles que le suivi des instructions, l'utilisation des outils et l'écriture.Les résultats de l’évaluation sont les suivants :

  • Évaluation humaine :Le modèle AFM est comparable ou meilleur que d'autres modèles open source et commerciaux sur plusieurs tâches, démontrant que le modèle peut comprendre et suivre des instructions complexes et générer un texte de haute qualité.

Figure | En comparant le modèle AFM avec d’autres modèles open source et modèles commerciaux, les évaluateurs humains préfèrent le modèle AFM.

L'équipe de recherche a évalué MAIA sur le paradigme de description des neurones. L'étude a montré que MAIA obtenait d'excellents effets de description sur les modèles réels et les ensembles de données synthétiques sur les neurones, avec des capacités prédictives meilleures que les méthodes de base et comparables à celles des experts humains.

  • Évaluation de la conformité des instructions :Le modèle AFM a obtenu d'excellents résultats sur des tests de référence tels que IFEval et AlpacaEval 2.0 LC, démontrant que le modèle peut comprendre et suivre efficacement les instructions.

Figure | Comparaison des capacités de conformité aux instructions du modèle AFM et des modèles associés, mesurées à l'aide d'IFEval. Plus la valeur est élevée, meilleure est la capacité.

  • Évaluation de l'utilisation des outils :Le modèle AFM a obtenu la meilleure précision globale sur le benchmark Berkeley Function Calling Leaderboard, indiquant que le modèle peut utiliser efficacement l'outil.

Figure | Le serveur AFM atteint la meilleure précision globale, meilleure que Gemini-1.5-Pro-Preview-0514 et GPT-4.

  • Évaluation écrite :Le modèle AFM a obtenu de bons résultats lors des tests de synthèse et de rédaction internes, démontrant la capacité du modèle à générer un texte fluide et de haute qualité.

Figure | AFM comparé à certains des modèles les plus importants ainsi qu'à des modèles open source à plus petite échelle. Par rapport au Gemma-7B et au Mistral-7B, l'AFM sur appareil peut atteindre des performances équivalentes ou supérieures. Le serveur AFM surpasse considérablement la directive dbrx et est comparable à GPT-3.5 et GPT-4.

  • Évaluation mathématique :Le modèle AFM a obtenu d'excellents résultats sur des tests de référence tels que GSM8K et MATH, indiquant que le modèle peut résoudre efficacement des problèmes mathématiques.

Figure | L'équipe de recherche a comparé les performances de l'AFM sur des critères mathématiques après la formation, notamment GSM8K et mathématiques. Les performances de l'AFM sur appareil sont nettement meilleures que celles du Mistral-7B et du Gemma-7B.

De plus, l’équipe de recherche a mené des évaluations spécifiques à des tâches et des évaluations de sécurité du modèle. Ils ont utilisé une évaluation humaine et des critères d'évaluation spécifiques à des tâches pour évaluer les performances du modèle AFM sur des tâches spécifiques, telles que le résumé des e-mails, le résumé des messages et le résumé des notifications. Selon les résultats de l'évaluation, les performances du modèle AFM en matière de résumé des e-mails, de résumé des messages et de résumé des notifications sont meilleures que celles des autres modèles sur de nombreux aspects, tels que l'exactitude, l'exhaustivité et la lisibilité.

En termes de sécurité, l'équipe de recherche a utilisé des ensembles de données contradictoires et une évaluation humaine pour évaluer la résistance du modèle AFM aux contenus préjudiciables et aux sujets sensibles. Les résultats de l'évaluation montrent que le modèle AFM fait preuve d'une bonne résistance aux données contradictoires et aux sujets sensibles, évitant dans une certaine mesure les réponses nuisibles ou inappropriées.

Comment l’AFM est-elle « pratiquée » ?

Architecture

Comme la plupart des modèles traditionnels, le modèle AFM est basé sur Transformateur architecture, mais utilise également certains choix de conception spécifiques pour améliorer l'efficacité et les performances.Les principaux composants sont les suivants :

  • Module Transformateur : AFM utilise le module Transformateur standard, comprenant un mécanisme d'attention multi-têtes et une rétroactionLes réseaux de neurones

  • Matrice d’intégration d’entrées/sorties partagées : cette conception réduit le nombre de paramètres du modèle et améliore l’efficacité de la mémoire.

  • Prénormalisation et RMSNorm : ces techniques améliorent la stabilité de la formation et aident le modèle à apprendre des modèles plus complexes.

  • Normalisation des requêtes/clés : cette technique améliore encore la stabilité de la formation.

  • Grouped Query Attention (GQA) : le mécanisme GQA réduit l'utilisation de la mémoire et améliore l'efficacité des calculs.

  • Fonction d'activation SwiGLU : Cette fonction d'activation améliore l'efficacité du modèle.

  • Incorporation de position RoPE : le mécanisme RoPE prend en charge l'encodage de texte long et améliore la capacité du modèle à représenter le contexte.

Figure | AFM-on-device comporte 3 072 paramètres et peut être inféré sur l’appareil. Il utilise 26 couches Transformer, chaque couche contient 128 en-têtes, 8 en-têtes de requête/clé et 24 en-têtes de requête.

pré-formation

Le processus de pré-formation du modèle AFM est conçu pour former des modèles de langage puissants afin de prendre en charge diverses fonctions du système Apple Intelligence. Les modèles AFM sont entraînés sur des clusters Cloud TPU à l'aide du framework AXLearn, qui prend en charge l'entraînement de modèles et de longueurs de séquence à grande échelle, et fournit des performances d'entraînement et d'inférence efficaces.

L'ensemble de données de pré-formation AFM se compose de plusieurs types de données de haute qualité, notamment :

  • Contenu Web : informations accessibles au public explorées à l'aide d'Applebot et filtrées.

  • Ensembles de données sous licence : ensembles de données de haute qualité obtenus auprès d'éditeurs fournissant diverses données textuelles longues.

  • Code : données de code open source obtenues à partir de GitHub, couvrant plusieurs langages de programmation.

  • Mathématiques : données Web contenant du contenu mathématique tel que des questions mathématiques, des forums, des blogs, des didacticiels et des séminaires.

  • Ensemble de données public : un ensemble de données accessible au public qui a été évalué et examiné.

La pré-formation AFM se déroule en trois étapes :

  • Étape principale : utiliser le plus grand ensemble de données pour la formation. L'objectif principal est d'acquérir des connaissances et des modèles linguistiques de base.

  • Étape continue : sur la base de l'étape principale, du code et des données mathématiques sont ajoutés et le poids des données de la page Web est réduit pour élargir davantage la portée des connaissances du modèle.

  • Étape d'expansion du contexte : sur la base de l'étape continue, des séquences plus longues et des données de texte long synthétiques sont utilisées pour améliorer les capacités de traitement du modèle pour les textes longs.

après la formation

AFM acquiert de solides capacités de compréhension linguistique au cours de la phase de pré-formation, mais afin de l'appliquer à des tâches spécifiques, telles que le résumé des e-mails, le résumé des messages et le résumé des notifications, une post-formation est nécessaire.inclure:

  • Mise au point supervisée (SFT) :

    • Collecte de données : utilisez des données annotées par l'homme et des données synthétiques pour garantir que la qualité des données est diversifiée et couvre une variété de scénarios d'utilisation du langage naturel.

    • Mélange de données : sélectionnez et combinez soigneusement les données humaines et synthétiques pour former des mélanges de données de haute qualité.

    • Méthode de réglage fin : utilisez l'adaptateur LoRA pour affiner le modèle, ajustez uniquement les paramètres de l'adaptateur et conservez les connaissances générales du modèle.

  • Apprentissage par renforcement basé sur le feedback humain (RLHF) :

    • Modèle de récompense : entraînez un modèle de récompense à l'aide de données de préférences humaines et évaluez la qualité des réponses du modèle.

    • Comité d'enseignement itératif (iTeC) : améliore de manière itérative le modèle à l'aide de plusieurs algorithmes d'optimisation des préférences, notamment l'échantillonnage par rejet, l'optimisation des préférences directes et l'apprentissage par renforcement en ligne.

    • Algorithme RLHF en ligne (MDLOO) : utilisez l'optimisation de la politique Mirror Descent et l'estimateur d'avantage Leave-One-Out pour maximiser les récompenses et améliorer la qualité du modèle.

Avantages du post-formation :

  • Amélioration de la qualité du modèle : la post-formation améliore considérablement la qualité et les performances du modèle AFM, le rendant ainsi performant sur des tâches spécifiques.

  • Respecter les valeurs fondamentales d'Apple et les principes d'IA responsable : le processus post-formation prend pleinement en compte la qualité des données, la sécurité et le filtrage des contenus nuisibles pour garantir que le modèle est conforme aux valeurs fondamentales d'Apple et aux principes d'IA responsable.

  • Évolutivité : la méthode de post-formation est évolutive pour d'autres tâches, permettant au modèle AFM de prendre en charge davantage de fonctionnalités Apple Intelligence.

Optimisation de l'inférence

AFM doit non seulement disposer de solides capacités de compréhension du langage, mais doit également être capable de fonctionner efficacement sur des appareils tels que l'iPhone, l'iPad et le Mac, ainsi que sur le Private Cloud Compute sur les serveurs Apple Silicon. Pour atteindre cet objectif, Apple a développé une série de techniques d'optimisation pour garantir que les modèles AFM s'exécutent efficacement sur des tâches spécifiques tout en conservant la qualité globale du modèle.

Optimisation:

  • Quantification du modèle : utilisez la technologie de quantification 4 bits pour quantifier le modèle AFM, réduisant ainsi considérablement la taille du modèle et le coût d'inférence.

  • Adaptateur de récupération de précision : utilisez l'adaptateur LoRA pour restaurer la précision du modèle quantifié afin qu'il soit proche des performances du modèle non quantifié.

  • Quantification à précision mixte : quantifiez chaque couche du modèle à l'aide d'une précision de quantification de 4 bits et 2 bits pour réduire davantage l'utilisation de la mémoire tout en conservant la qualité du modèle.

  • Analyse de modèle interactive : utilisez l'outil Talaria pour analyser la latence et la consommation d'énergie du modèle, guider la sélection du débit binaire et optimiser les performances du modèle.

  • Adaptateurs remplaçables au moment de l'exécution : utilisez les adaptateurs LoRA pour affiner votre modèle afin qu'il puisse être adapté à des tâches spécifiques tout en conservant une connaissance générale du modèle.

Résumé de l'e-mail du cas d'optimisation :

  • Collecte de données : collectez des données d'entrée contenant des extraits d'e-mails, de messages et de notifications, et effectuez le nettoyage et la déduplication des données.

  • Génération de résumés synthétiques : utilisez le serveur AFM pour générer des résumés synthétiques qui répondent aux exigences du produit, et utilisez des règles et des modèles de filtrage afin de garantir la qualité des données.

  • Injection d'indices : ajoutez des résumés générés par le serveur AFM aux données de formation pour aider le modèle d'appareil AFM à mieux comprendre et générer des résumés.

De plus, Apple Intelligence suit une série de principes d’IA responsable, notamment l’autonomisation des utilisateurs, la représentation des utilisateurs, une conception soignée et la protection de la vie privée. Dans le rapport technique, Apple réfute les accusations selon lesquelles elle utilise des méthodes éthiquement douteuses pour entraîner certains modèles, réitérant qu'elle n'utilise pas les données privées des utilisateurs mais utilise plutôt une combinaison de données accessibles au public et sous licence à des fins d'Apple Intelligence. Ils ont souligné que les données de formation pour le modèle AFM ont été obtenues de manière « responsable ».