nouvelles

avant la conférence d’automne d’apple, tour d’horizon approfondi du panorama apple intelligence

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

guo xiaojing wu bin, auteur de la technologie tencent

planificateur vidéo wu bin

éditeur zheng kejun

avant la conférence de presse d'apple, nous avons fait le tri dans le panorama apple intelligence

lors de la wwdc24 (apple worldwide developers conference) en juin de cette année, le monde a entendu pour la première fois le terme « apple intelligence » apple a utilisé le radical homophonique de l'intelligence artificielle (ia) pour définir sa propre ia apple. auparavant, apple évitait d'utiliser le terme « ia » lorsqu'il évoquait ses fonctionnalités liées à l'apprentissage automatique.

à ce jour, dans la dernière lettre d'invitation à la conférence d'automne d'apple, bien qu'il n'y ait pas d'« ia », tout révèle diverses saveurs d'« ia ».

remarque : à gauche se trouve la lettre d'invitation pour la conférence de lancement des nouveaux produits d'apple à l'automne 2024, et à droite se trouve la lettre d'invitation pour la wwdc24.

par exemple, le thème de l'invitation est « highlight moment ». la couleur principale et le halo coloré autour du logo apple sont très cohérents avec la couleur principale de l'invitation wwdc24.

légende : nouvelle icône de siri, effet d'affichage de l'iphone après le réveil de siri

et la couleur de siri change également. vous pouvez voir que son nouveau logo et la palette de couleurs après le réveil de siri sont complètement différents de l'ancien siri.

légende : conférence d'automne apple 2023, lettre d'invitation à la wwdc23, ancien logo siri, vous pouvez voir des différences évidentes dans la palette de couleurs

j'ai même demandé à un produit d'ia de m'aider à analyser les éléments liés à l'ia dans la lettre d'invitation à la conférence d'automne, et il m'a dit :

en termes de conception graphique : le logo est composé de lignes entourant le contour classique d'apple, et le sens dynamique simule l'interaction intelligente de l'ia. cette conception graphique dynamique peut simuler l'expérience d'interaction intelligente et fluide apportée par la technologie de l'ia ;

tonalité de couleur : le logo d'invitation utilise des tons néon, tels que le bleu, le violet, l'orange et le rose. la combinaison de couleurs riches est très similaire à l'art génératif de l'ia. ces couleurs elles-mêmes peuvent être liées aux fonctionnalités ou aux scénarios d'application de l'ia ; -fonctions liées aux produits apple il existe une corrélation ;

association visuelle : l'association visuelle entre l'invitation et siri peut impliquer la position centrale de la technologie d'ia dans les produits apple, et que siri pourrait être encore mis à niveau et optimisé à l'avenir pour mieux s'intégrer à d'autres fonctions d'ia afin de fournir aux utilisateurs des services plus intelligents et plus pratiques. ;

qu'il s'agisse de ne pas mentionner ai ou même du nom ayant un homophone de "ai", même la couleur de l'invitation doit être cohérente avec "ai". de toute évidence, ces conceptions ne sont pas une coïncidence. apple laisse entendre qu'apple intelligence sera toujours un point fort de la version de cet automne.

alors, quelle est la force d’apple intelligence ? dans cet article, nous vous parlerons en détail des problématiques suivantes :

brève introduction : à quoi ressemble la situation générale d’apple intelligence sur la base des informations disponibles ?

bilan des progrès : comment apple intelligence progresse-t-elle de juin à août ?

devinez : quel type d’apple intelligence verrons-nous bientôt ?

réflexion approfondie : avec « l’ia » apple, comment le futur écosystème va-t-il évoluer ?

fiche d'information : totalement privé et sécurisé

lors de la wwdc24, ce discours de cook est très important :

"nous sommes heureux de lancerun nouveau chapitre dans l'innovation apple.renseignements applechangera la façon dont les utilisateurs utilisent nos produits——et ce que nos produits peuvent faire pour les utilisateurs,notre approche uniquecombine l'ia générative avec les besoins des utilisateurs pour fournir de véritablesrenseignements utiles. ça peutmanière totalement privée et sécuriséeaccédez à ces informations pour aider les utilisateurs à faire ce qui compte le plus pour eux. c'estune ia que seul apple peut offrir, nous avons hâte que les utilisateurs découvrent ce qu'il peut faire. "

il y a trois points clés dans ce passage (notez les mots-clés surlignés en bleu) :

1. combinez l'ia générative et les besoins des utilisateurs pour fournirutileintelligent

2. ouiuniqueméthode, c'est une ia que seul apple peut fournir

3、complètement privé et sécuriséchemin

si vous voulez faire cela, vous devez résoudrequatre problèmes fondamentaux auxquels sont confrontées toutes les ia côté appareil :

tout d’abord, utile : s’adapter parfaitement aux besoins des utilisateurs, et non aux besoins de la fabrication, et réfléchir également à la manière d’interagir.

deuxièmement, la sécurité : le modèle doit être exécuté localement

troisièmement, la fluidité : pour les problèmes qui ne peuvent pas être résolus par le matériel local, un modèle plus grand dans le cloud est utilisé pour y faire face.

quatrièmement, la sécurité et la confidentialité totale : une fois le modèle cloud utilisé, une grande quantité d'informations personnelles sur le téléphone mobile risque d'être divulguée.

de toute évidence, la sécurité et la confidentialité, mentionnées à plusieurs reprises, sont les principales conditions préalables à tout service qu'apple souhaite fournir aux utilisateurs.

on peut dire qu’avant apple, aucun constructeur n’avait proposé de solution très complète.

alors, qu’en pense apple ? jetons un coup d’œil au panorama apple intelligence et obtenons peut-être un aperçu de la logique globale d’apple en matière d’ia.

légende : panorama apple intelligence, traduit par tencent technology

la couche du système d’intelligence personnelle connecte la couche d’application la plus élevée familière aux utilisateurs et la couche de puce développée par apple.

la couche du système d'intelligence personnelle peut être considérée comme la structure centrale d'apple intelligence. nous pouvons la considérer comme plusieurs parties.

la première partie est l'afm-on-device (apple fondation model end-side model).il s’agit d’un modèle à 3 milliards de paramètres, qui constitue la partie la plus importante de l’ia finale. en raison des exigences élevées en matière de confidentialité et de sécurité, l'exécution locale du modèle côté client revêt la plus haute priorité. seules les choses qu'il ne peut pas faire peuvent être envoyées vers le cloud.

cependant, le modèle côté appareil présente un triangle impossible : performances, volume des paramètres, mémoire et consommation d'énergie, qui est également le problème le plus gênant pour divers fabricants.

d'excellentes performances nécessitent un grand nombre de paramètres ; un grand nombre de paramètres signifie qu'une utilisation importante de la mémoire et une consommation d'énergie élevée peuvent affecter les performances ; alors, comment équilibrer ces trois éléments ?

le plan d’apple est le suivant :

palettisation low-bit : cette technologie allège le modèle, tout comme la compression de photos haute définition, et ne prend pas beaucoup de place sur le téléphone mobile.

adaptateurs lora : ces gadgets permettent aux modèles d'acquérir rapidement de nouvelles compétences selon leurs besoins, à l'instar des briques lego qui peuvent être assemblées sous différentes formes.

outil talaria : cet outil permet de surveiller et de réguler la consommation d'énergie du modèle pour s'assurer qu'il ne consomme pas trop d'énergie.

attention aux requêtes groupées : permet au modèle de se concentrer rapidement sur des informations importantes, tout comme l'utilisation de balises pour trouver rapidement des livres.

vocabulaire partagé : en partageant du vocabulaire, l'utilisation de la mémoire est réduite, tout comme l'utilisation d'un dictionnaire pour que tout le monde puisse rechercher des mots, économisant ainsi de l'espace.

en termes simples, ces technologies d'optimisation permettent à l'afm-on-device derestez intelligent tout en économisant de l'énergie et en répondant rapidement

le plus gros point fort est l'adaptateur lora (low-rank adaptation adapter), qui est un outil technique utilisé pour optimiser les modèles d'apprentissage automatique, en particulier les grands modèles de langage et les modèles génératifs. c'est comme ajouter un " widgets spéciaux comme " message de résumé " ou ". répondre à l'e-mail" permet aux modèles de mieux accomplir ces tâches spécifiques.

vidéo : schéma de fonctionnement de l'adaptateur lora

de cette manière, il est possible, en utilisant 3 milliards de paramètres, d'atteindre des performances équivalentes à d'autres modèles grand public avec une échelle de plus de 7 milliards (résultats d'évaluation fournis par le responsable apple).

l'outil talaria est combiné avec d'autres techniques (telles que l'attention aux requêtes groupées, le vocabulaire d'entrée et de sortie partagé, la quantification low-bit, la stratégie de configuration hybride, la quantification d'activation et la quantification d'intégration, etc.) peuvent atteindre une vitesse d'environ 0,6 milliseconde. sur l'iphone 15 pro et un taux de génération de 30 jetons par seconde, et tout en répondant aux exigences de performances, il peut également réduire la puissance du téléphone mobile et la pression de la mémoire.

mais même ainsi, selon les responsables d’apple, l’exécution d’apple intelligence nécessite toujours une configuration minimale de l’iphone 15 pro. de plus, selon tencent technology, au moins 8 go de mémoire sont nécessaires pour prendre en charge l’exécution d’apple intelligence.

par conséquent, à ce stade, la capacité du modèle côté appareil avec 3 milliards de paramètres constitue la limite supérieure des problèmes que le cerveau local de l’ia de l’iphone et du mac peut résoudre.

par conséquent, les calculs complexes doivent toujours être envoyés vers le cloud et traités via des modèles avec des paramètres plus larges.

il s'agit du deuxième composant important d'apple intelligence, le modèle cloud (afm server).

il faut ajouter ici que le rôle de la couche d'orchestration est de déterminer si les besoins des utilisateurs doivent être résolus côté client ou téléchargés vers le cloud, à la manière d'un commandant. apple n'effectue aucune intervention manuelle ici et s'appuie entièrement sur son propre algorithme pour juger que les utilisateurs ne peuvent pas décider si leurs données sont uniquement placées sur l'appareil.

apple n'a pas divulgué les paramètres spécifiques du modèle cloud. contrairement au modèle côté client, qui est distillé à partir d'un modèle plus vaste, il est formé à partir de zéro. parallèlement, certaines méthodes de formation avancées communes au modèle final sont utilisées.

la caractéristique la plus importante de ce modèle cloud est de réaliser ce que cook a mentionné dans« totalement privé et sécurisé », qui offre une protection via private cloud compute (pcc).

comment est-ce si secret exactement ? il existe ici de nombreuses techniques professionnelles. reproduisons simplement l’ensemble du processus :

l'utilisateur lance une demande : par exemple, vous demandez à siri sur votre téléphone portable : « à quelle heure dois-je récupérer mes enfants à l'école et quand même me rendre à la réunion d'entreprise ?

encapsulation sécurisée : votre téléphone crypte immédiatement la demande dans un « package secret » que seul pcc peut déchiffrer.

secret envoyé : ce « colis secret » est envoyé au pcc via un canal secret sécurisé. ce passage est comme un tunnel avec un verrou par mot de passe, et seuls ceux qui connaissent le mot de passe peuvent le traverser.

pcc décrypte et traite : après réception du colis, pcc utilise son propre super cerveau (puissant modèle d'ia) pour comprendre votre demande et trouver la réponse. au cours de ce processus, pcc utilisera diverses technologies pour garantir que vos données ne seront pas divulguées ou utilisées de manière abusive.

les données sont supprimées dès qu'elles sont épuisées : une fois que pcc a trouvé la réponse, il supprimera immédiatement toutes vos données temporairement enregistrées, tout comme effacer les mots sur un tableau noir avec de l'eau, sans laisser de trace.

résultat renvoyé : pcc recrypte ensuite la réponse et la renvoie à votre téléphone via un canal sécurisé. vous déverrouillez le téléphone et vous pouvez arriver à la conclusion.

en bref, pcc crypte vos besoins pour vous, les transmet à l'ia pour traitement dans un canal secret et les supprime après traitement. alors, quelles technologies pcc utilise-t-il pour garantir que les données des utilisateurs ne seront pas divulguées ou utilisées à mauvais escient ?

pour utiliser une métaphore vivante mais pas tout à fait rigoureuse pour comprendre : pcc est comme un coffre-fort spécialement conçu. même si vous pouvez entrer dans le coffre-fort, il est difficile de trouver où sont placés des objets de valeur spécifiques car ils sont stockés au hasard. connue sous le nom de technique de « prolifération de cibles ».

de plus, les portes et les serrures du coffre-fort sont très solides et ne peuvent être ouvertes que par des employés vérifiés (c'est-à-dire des nœuds pcc), et chaque fois que la porte est ouverte, une clé spéciale (technologie de cryptage) est requise. utilisation unique. elle devient invalide après utilisation, donc même si quelqu'un vole la clé, la porte ne peut pas être ouverte.

le plus important est que même si vous pouvez entrer dans le coffre-fort, une fois vos objets de valeur retirés et examinés, ils seront rapidement remis et verrouillés sans laisser de traces. ainsi, même si quelqu'un le souhaite, il est impossible de retrouver son emplacement précédent. .

seul apple dispose actuellement des conditions nécessaires pour mettre en œuvre ce plan de sécurité couche par couche.

il convient de mentionner la troisième partie importante d'apple intelligence, la couche de puce auto-développée.ces serveurs sécurisés utilisent la puce m2 ultra développée par apple.

ces puces offrent de puissantes capacités de cryptage et sont capables d'exécuter des algorithmes de cryptage complexes pour garantir la sécurité des données pendant la transmission et le traitement. il intègre également une variété de fonctionnalités de sécurité matérielle, telles que secure enclave, qui est une zone matérielle isolée dédiée à la gestion sécurisée des clés de chiffrement et des opérations sensibles, garantissant la protection des données des utilisateurs même au niveau du serveur.

de plus, les puces prennent en charge la technologie secure boot, qui garantit que les serveurs ne peuvent exécuter que des logiciels signés apple, empêchant ainsi le chargement de logiciels malveillants au démarrage du système.

qu’il s’agisse des puces de la série a de l’iphone ou des puces de la série m du mac, elles sont entièrement développées par apple. cela signifie que ces puces sont intégrées au système apple dès leur naissance et supportent parfaitement apple intelligence en termes de performances, de consommation électrique, de sécurité, etc. c'est un avantage que les autres fabricants n'ont pas du tout.

ces trois caractéristiques constituent le cœur de l'intelligence d'apple : le modèle côté client exécuté localement et une série de modèles de base avec des fonctions spécifiques, le modèle cloud fourni via des services de cloud computing privés et la puissante couche de puce auto-développée.

à ce stade, vous vous demandez peut-être où est openai ? n'y a-t-il pas eu des rumeurs selon lesquelles le modèle de base d'apple intelligence utilise openai ?

apple n'a pas annoncé beaucoup de détails sur sa coopération avec openai. à en juger par les résultats actuels, chatgpt n'est pas préinstallé dans le système sous la forme d'une application indépendante. apple fournit uniquement à openai une interface de programme d'application pour intégrer chatgpt dans le système. , tout comme la coopération entre apple et google search, openai n'obtiendra pas d'autorisations plus élevées.

dans ce processus, les utilisateurs ont le droit de choisir activement d’utiliser ou non les services d’openai. une fois les données transmises à openai, apple ne sera pas responsable de la sécurité ultérieure des données.

de plus, openai ne sera pas le seul partenaire. selon les médias étrangers, apple discute également d'une grande coopération en matière de modèles avec google. par conséquent, openai devrait être l’un des partenaires de l’écosystème apple intelligence.

remarque : schéma officiel d'apple pour l'intégration de gpt dans l'iphone

inventaire des progrès : de juin à août,

comment va apple intelligence ?

avec un tel support de base, les utilisateurs peuvent pleinement profiter des fonctions du produit.

passons d’abord en revue les fonctions spécifiques d’apple intelligence annoncées lors de la wwdc24 en juin, qui peuvent être réparties dans les catégories suivantes :

les outils de rédaction peuvent vous aider à relire, réécrire le contenu selon le style, résumer le contenu du texte, etc. ;

la génération d'images (terrain de jeu d'images) génère des images intéressantes et amusantes basées sur des mots d'invite

genmoji génère des émoticônes personnalisées intéressantes

avec un siri plus avancé, l'interaction est plus naturelle, plus personnalisée et plus profondément intégrée au système.

en août dernier, les développeurs d'amérique du nordvous avez déjà commencé à utiliser des appareils apple éligibles pour découvrir certaines des fonctions d'apple intelligence.

les fonctions existantes sont plus détaillées que lors de leur annonce à la wwdc24, mais les fonctions globales sont essentiellement l'assistance textuelle (rédaction, résumé, réponse par email, etc.), la génération d'images (traitement de photos, genmoji), l'enregistrement et l'organisation téléphoniques, etc. voici une liste de fonctions basée sur des statistiques incomplètes de tencent technology basées sur des informations publiques :

nous pouvons constater que les progrès les plus rapides concernent les fonctions liées au traitement de texte.

en termes de traitement multimodal, il semble que les parties purement finales soient désormais en ligne, comme la recherche de photos, l'enregistrement d'appels, etc. ; il semble que les fonctions multimodales nécessitant la mobilisation des capacités du cloud ne soient pas encore prêtes.

les fonctions simplement intégrées au système, telles que les modes de mise au point et les notifications importantes prioritaires, devraient toutes être traitées uniquement en fin de compte et ont déjà été lancées. des fonctionnalités simples telles que les nouveaux effets spéciaux de l'interface utilisateur de siri ont été lancées.

cependant, la très attendue mise à niveau de siri, profondément intégrée au système, qui peut être transférée entre différentes applications via des commandes vocales, et l'intégration du grand modèle tiers openai gpt, n'ont pas encore été lancées. selon le site officiel d'apple, les mises à jour d'autres langues (autres que l'anglais), des capacités de la plate-forme logicielle, etc. seront achevées au cours de l'année prochaine.

si vous regardez la barre de progression, on estime que seulement 30 % environ de la promesse faite par apple lors de la wwdc24 a été tenue.

mais si les utilisateurs souhaitent l'utiliser, il y a des prérequis très stricts : l'appareil utilisé doit être le modèle successeur de l'iphone 15 pro, de l'iphone 15 pro max, ou de l'ipad et du mac après la puce m1. de plus, la langue de siri et de l'appareil doit être définie sur l'anglais (états-unis).

remarque : le site web officiel d'apple annonce les conditions matérielles et système nécessaires pour utiliser les appareils intelligents d'apple.

la conférence de lancement de nouveaux produits d'automne de cette année,

qu’attendez-vous le plus avec impatience ?

le prototype d'apple intelligence a été formé, mais il faudra encore beaucoup de temps avant que tous les utilisateurs apple puissent l'utiliser.

si votre produit répond aux exigences matérielles, linguistiques et régionales mentionnées par apple, vous pourrez rencontrer apple intelligence pour la première fois à l'automne.bien entendu, il ne s’agira peut-être pas du lancement du nouveau produit en septembre. selon les médias étrangers, cela devrait avoir lieu en octobre.

en plus d'apple intelligence, nous pouvons également nous attendre à la puce a18 installée sur l'iphone 16 lors du lancement du nouveau produit cet automne.

selon les informations actuellement exposées,apple utilisera le même processus tsmc n3e que m4 pour la puce a18par rapport au processus n3b utilisé sur l’a17 pro de l’année dernière, le n3e présente de plus grands avantages en termes d’amélioration de l’efficacité énergétique.

qu’est-ce que le processus n3e ?

cela équivaut à une mise à niveau interne de la puce du téléphone portable. bien que la taille de la maison (unité de base) n'ait pas changé, les routes (circuit) et les installations (transistors) ont été repensées pour faire fonctionner davantage l'ensemble de la zone (puce). efficacement. cela revient à rendre la circulation urbaine plus fluide et à réduire la consommation d’électricité des habitants. par conséquent, la puce a18 utilisant ce processus peut permettre aux utilisateurs de sentir que le téléphone mobile répond plus rapidement, que la batterie dure plus longtemps et qu'elle peut gérer plusieurs tâches plus facilement en même temps.

selon la rumeur, le npu du soc a18 sera considérablement amélioré et la puissance de calcul globale sera supérieure aux 38tops du m4.

cela signifie que la puissance de calcul npu du prochain iphone 16 est déjà comparable à celle des meilleurs systèmes de bureau d’apple. afin de faire face au seuil de mémoire d'apple intelligence, l'iphone 16 augmentera également pour la première fois la mémoire courante du corps à 8 go.

de la mémoire à la consommation électrique en passant par la puissance de calcul, il semble être conçu pour apple intelligence.

la puissance de calcul npu de l'a17 pro lancé par apple l'année dernière était de 35 tops, et l'a18 ne sera que supérieure

de toute évidence, à partir de septembre de cette année, tous les futurs produits matériels lancés par apple adopteront activement apple intelligence.

non seulement limité à l'iphone, au mac et à l'ipad, mais même des produits tels que apple watch, homepod et vision pro pourraient faire partie de la stratégie d'ia d'apple à l'avenir.

lors de la wwdc24, craig, vice-président senior d'apple, a présenté un scénario d'utilisation rapide et pertinent de l'ia d'apple : une notification temporaire de changement d'heure de réunion a été reçue et il a été demandé à siri s'il pouvait encore suivre les activités pour enfants auxquelles il souhaitait initialement assister.

il a continué à parler à siri et l'application mobile a basculé en douceur entre plusieurs applications telles que la messagerie électronique, le calendrier et les cartes. finalement, sans lever le petit doigt, son téléphone lui fit une suggestion raisonnable.

c’est peut-être l’état idéal des appareils d’ia à l’avenir : avec une seule commande, ils peuvent automatiquement appeler l’application requise et effectuer la tâche souhaitée.

dans cette scène de démonstration, nous voyons que les applications appelées par siri sont toutes des applications apple officielles. en d'autres termes, elle mobilise ses « membres de la famille » pour qu'ils coopèrent pour faire quelque chose. dans ce cas, le système, l’architecture, l’interface, tout n’est pas un problème et cela n’implique aucune question telle que la répartition des bénéfices.

pour être plus fantaisiste, peut-être qu'à l'avenir, siri n'aura plus besoin de mots de commande, il attendra toujours les conversations en arrière-plan et pourra même intervenir lorsque les gens communiquent, tout comme un véritable ami.

renseignements apple

pouvons-nous continuer à être le roi de l’écologie ?

apple a utilisé la méthode de la moindre résistance pour démontrer la future méthode idéale d'interaction avec les téléphones mobiles par l'ia. mais s’il ne s’agit pas de votre propre application, pouvez-vous quand même mobiliser librement les données au sein de l’application ?

il y a cette phrase sur la page d'introduction officielle d'apple intelligence : "si vous utilisez des frameworks d'interface utilisateur, des api et des kits de développement standard, vous pouvez facilement faire en sorte que les applications que vous développez disposent également de ces fonctions d'ia."

les développeurs peuvent même constater lors de l'atelier wwdc24 qu'ils peuvent intégrer des fonctions d'ia dans leurs applications avec seulement trois ou quatre lignes de code.

il y a deux informations ici : les applications tierces sont les bienvenues pour rejoindre l'ia, et apple préparera tous les kits et outils pour permettre aux développeurs d'utiliser apple intelligence de la manière la plus simple. c'est en effet un délicieux "apéritif".

mais si vous souhaitez accéder à apple intelligence, les applications doivent transmettre leurs « données » et devenir un petit membre de l'écosystème apple. est-ce vraiment aussi simple ?

pour apple, les avancées techniques au début de l'article sont les problèmes les plus simples, tandis que les difficultés écologiques sont la grande montagne devant apple.

si l'interaction sur le téléphone mobile est vraiment comme l'a démontré craig, apple deviendra le "roi" avec la seule entrée, et siri deviendra la seule personne "très puissante" autour du roi, chargée de décider quelle application sera le "roi". veut accéder à l'utilisateur. ne voulez-vous pas simplement rencontrer « votre propre famille » ?

dans ce cas, apple deviendra le monde de toutes sortes de super applications.

qui décidera de la répartition des bénéfices ? les modèles économiques autrefois établis par les super applications seront-ils prêts à être anéantis du jour au lendemain par l’ia ? ces questions attendent encore que nous y réfléchissions.

écris à la fin

siri porte le rêve romantique de jobs. en décrivant son contact avec jobs, dag kittlaus, l'un des fondateurs de la société siri, a déclaré un jour que lui et jobs avaient « discuté pendant 3 heures » à la maison. jobs était plein de visions sur l'avenir de l'intelligence artificielle. il a convaincu les membres fondateurs de siri que "siri finira par laisser sa marque dans l'univers".

légende : dag kittlaus, l'un des fondateurs de siri

cependant, le lendemain de la sortie de siri, steve jobs est décédé, laissant derrière lui ce rêve d'ia et siri, qui "errait depuis de nombreuses années".

aujourd'hui, cook utilise apple intelligence pour remettre siri sous les projecteurs, mais le rêve est peut-être différent.

l'apple d'aujourd'hui est pleine de réalisme : maintenir son leadership technologique, une défense efficace, empêcher le cours de l'action d'être sous pression et attendre que les super applications de l'ère de l'ia prennent forme avant d'envisager d'agir.

cependant, alors que tout le monde attend avec impatience les téléphones ia et les aipc, il pourrait y avoir des produits matériels natifs ia plus surprenants qui réécriraient complètement l’histoire.

références :

présentation des modèles de base sur appareil et sur serveur d'apple - apple machine learning research

apple intelligence - développeur apple

présentation d'apple intelligence pour iphone, ipad et mac - apple

blog - cloud compute privé : une nouvelle frontière pour la confidentialité de l'ia dans le cloud - apple security research

https://mrmad.com.tw/ios-18-new-function