nouvelles

rachat d'intel par qualcomm, quel est le taux de réussite ?

2024-09-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

journaliste : wu yifan

editeur : wu yangyang

points clés

tout ce que qualcomm veut, c'est l'activité de conception de puces d'intel, pas la fabrication de puces ;

l’accord pourrait devenir le plus important de l’histoire technologique mondiale, mais il pourrait également échouer en raison du déclenchement d’une surveillance antitrust ;

depuis les années 2010, les revenus issus des cpu, cœur de métier d'intel, ont quasiment cessé de croître, notamment la partie utilisée dans les ordinateurs personnels (pc) ;

l'activité de fonderie d'intel ne semble pas non plus aussi saine que le pensaient les étrangers, et intel semble avoir utilisé des moyens financiers pour cacher cela à ses investisseurs dans le passé ;

l'ancien pdg d'amd a déclaré qu'au cours des 30 dernières années, intel s'est concentré sur la suppression d'amd, ce qui l'a amené à ignorer les tendances importantes de la mobilité et de la faible consommation d'énergie.

le 21 septembre, des informations ont révélé que qualcomm avait finalement pris la décision de contacter intel pour discuter d'une offre d'acquisition de ce dernier. si l’acquisition réussit, elle deviendra la plus grande transaction de l’histoire technologique mondiale, dépassant l’acquisition d’activision blizzard par microsoft pour 75 milliards de dollars en 2023. le dernier jour de bourse précédant l'annonce de cette nouvelle, la capitalisation boursière d'intel s'élevait à 93 milliards de dollars.

qualcomm discute depuis plusieurs mois d'acquisitions connexes au sein de l'entreprise et a annoncé le 5 septembre son intention d'acquérir l'activité de conception de puces d'intel, à l'exclusion de la fabrication de puces. à cette époque, intel avait répondu aux rumeurs en insistant sur le fait que la société était « fermement engagée dans le secteur des ordinateurs personnels (pc) ». après tout, les processeurs pour pc constituent le cœur d'intel depuis les années 1980 et constituent l'activité de la société qui contribue le plus aux revenus. et les bénéfices à ce jour. à cette époque, qualcomm n’avait pas encore contacté intel au sujet d’une éventuelle acquisition.

la nouvelle du 21 septembre a rendu l'acquisition plus réaliste. à l'heure actuelle, la valeur marchande d'intel n'est pas élevée, inférieure à la moitié de celle de qualcomm et à moins de 1/30 de celle de nvidia. de plus, le capital d'intel est assez dispersé. son principal actionnaire, pioneer, ne détient que 9,2 % des actions, et les dix principaux actionnaires ne détiennent que plus de 30 % des actions combinées. surtout, ces actionnaires sont la quasi-totalité des sociétés de gestion de patrimoine et la totalité des investisseurs financiers.

en raison de facteurs antitrust, il existe encore une forte probabilité que cet accord ne soit finalement pas conclu. en octobre 2016, qualcomm a tenté d'acquérir nxp semiconductors, le plus grand fournisseur mondial de puces automobiles, pour environ 38 milliards de dollars. cependant, la transaction n'a été approuvée par les autorités réglementaires chinoises qu'à la date limite. si l’acquisition d’intel réussit, qualcomm bénéficiera d’un avantage concurrentiel tant dans le domaine des smartphones que des ordinateurs personnels.

qualcomm tente déjà d'entrer dans le domaine des ordinateurs personnels avec l'aide de l'intelligence artificielle générative. lors de la conférence computex qui s'est tenue à taipei, en chine, en juin de cette année, qualcomm a lancé la puce aipc snapdragon série x basée sur l'architecture arm. le 4 septembre, elle a lancé une nouvelle puce aipc « snapdragon x plus 8-core », ciblant le marché en déclin des pc dont le prix se situe entre 700 et 900 dollars. couplé aux segments de marché « snapdragon x elite » et « snapdragon » déjà lancés. selon le plan, qualcomm augmentera également ses investissements dans le domaine des puces pc dans le but de tripler le volume des expéditions de son activité pc par rapport à l'année dernière.

il existe encore beaucoup d'incertitudes concernant l'accord qualcomm-intel, mais les difficultés auxquelles intel est confronté sont certaines.

le 7 août, moins d'une semaine après la publication du rapport financier du deuxième trimestre d'intel, les actionnaires ont déposé collectivement une plainte devant la cour fédérale de san francisco, aux états-unis, car « les investisseurs ne savaient pas que l'activité de fonderie d'intel était en difficulté ». et les pertes ont été plus importantes que ce que les investisseurs pensaient : « des milliards de dollars de plus ».

l'affaire découle d'un ajustement des règles de reporting financier effectué par intel en avril de cette année. à cette époque, intel représentait pour la première fois de manière indépendante toutes les activités de fonderie, y compris la fonderie interne et la fonderie externe, dans son rapport financier. auparavant, l'activité de fonderie dans le rapport financier d'intel n'avait jamais reflété le niveau de revenus lorsqu'elle fabriquait pour des commandes internes. . pour faire simple, avant l'ajustement, le rapport financier montrait que l'activité de fonderie d'intel avait subi une légère perte, ne perdant que 482 millions de dollars en 2023, mais après l'ajustement, la perte atteignait 4,229 milliards de dollars au premier semestre 2023 ; seul. cela dit, les activités de fonderie d'intel ne semblent pas aussi saines que le pensaient les étrangers, et intel semble avoir utilisé des moyens financiers pour cacher cela à ses investisseurs dans le passé, ce qui a provoqué la colère des investisseurs.

l'ajustement des règles financières constitue très probablement une préparation financière d'intel à la scission de son activité de fonderie. en juin 2023, intel a annoncé qu'elle diviserait ses activités de fonderie et séparerait complètement la conception et la fabrication pour éviter la concurrence avec les clients fondeurs.

avant cela, l'activité de fonderie d'intel n'était pas à grande échelle et ne pouvait être comparée à celle de tsmc. selon les anciennes normes financières, au cours de l'exercice 2023, le chiffre d'affaires de l'activité de fonderie d'intel s'élevait à 952 millions de dollars, soit le chiffre d'affaires de 69,298 milliards de dollars de tsmc. /72.

après la révision des règles d'information financière, le chiffre d'affaires annuel de la fonderie intel pourrait atteindre environ 18 milliards de dollars, soit environ 1/4 du chiffre d'affaires de tsmc. cependant, la perte grimpera rapidement jusqu'à 8 milliards de dollars américains, ce qui signifie que lorsqu'il s'agit d'une fonderie pour une entreprise de conception en amont de taille similaire, l'activité de fonderie d'intel est une activité énorme qui dépasse les gains et les pertes.

bien entendu, les modifications apportées par intel aux règles de divulgation des rapports financiers peuvent être interprétées comme un simple moyen financier. son activité de fonderie n'est peut-être pas si mauvaise. le véritable objectif d'intel est peut-être de continuer à dissimuler son activité principale : les puces (quelle qu'en soit la raison). en sacrifiant le compte de résultat de l'activité de fonderie. s'agit-il de cpu ou de gpu ? les ventes elles-mêmes sont lentes.

la vague mobile manque

depuis le début des années 2010, les revenus des processeurs, le cœur de métier d'intel, ont quasiment cessé de croître, notamment la part des processeurs utilisés dans les ordinateurs personnels (pc). en 2015, la division client computing d'intel avait un chiffre d'affaires de 32,2 milliards de dollars. en 2021, ce chiffre d'affaires n'avait augmenté que de 40,5 milliards de dollars, avec un taux de croissance annuel moyen inférieur à 10 %. certaines années, il n'a augmenté que de 0,3 %. en 2022 et 2023, la baisse continuera pendant deux ans. en 2023, les revenus d'intel provenant de la vente de processeurs sur le marché des pc ne s'élèveront qu'à 29,3 milliards de dollars, soit 11 % de moins qu'en 2015.

cette situation est intuitive, car depuis 2010, les appareils électroniques grand public que de plus en plus de consommateurs achètent plus fréquemment ne sont plus des ordinateurs personnels, mais des smartphones - le premier est une position pour intel de se développer et d'occuper l'hégémonie, mais le second ne l'est pas.

quant à savoir pourquoi intel a raté la vague de l'internet mobile, une opinion largement répandue est qu'en 2006, paul otellini, alors pdg d'intel, avait rejeté une commande d'apple. à l'époque, le fondateur d'apple, steve jobs, est venu chez otellini et a présenté une commande exigeante dans son style de négociation habituel : il voulait qu'intel développe une nouvelle puce pour le prochain iphone, mais le prix était bien inférieur au coût estimé par intel pour produire la puce. .

intel n'a pas accepté l'ordre donné par jobs. en 2007, apple a lancé l'iphone de première génération, fabriqué par samsung. en 2009, la valeur marchande de samsung a atteint 110,2 milliards de dollars en une journée de février, soit 860 millions de dollars de plus qu'intel, ce qui en fait le fabricant de semi-conducteurs le plus précieux au monde. en novembre 2012, otellini a soudainement annoncé qu'il démissionnerait de son poste de pdg en mai 2013 alors que le nouveau candidat au poste de pdg n'avait pas encore été confirmé. il a été supposé que cela était lié à sa mauvaise appréciation de la vague de l'internet mobile.

otellini lui-même regrette profondément sa condamnation injustifiée cette année-là. "dans ma carrière, je prends souvent des décisions basées sur mon intuition. je dois suivre mon intuition. mon intuition me dit de dire oui à l'iphone. mais nous aimons tous laisser parler les données", a déclaré otellini en 2013 dans the atlantic monthly. un entretien. ce que disent les chiffres d'otellini et d'intel, c'est que le processeur développé par intel pour les ordinateurs personnels peut être vendu pour 100 dollars, tandis que le processeur pour téléphones mobiles peut coûter seulement 10 dollars, et selon les estimations, le coût indiqué par jobs ne peut pas être couvert par les coûts de production d'intel. ne peut pas être équilibré même si le volume de la commande est plus important. des faits ultérieurs ont montré qu'intel avait à la fois surestimé le coût et largement sous-estimé l'ampleur des équipements sur le marché mobile.

si otellini avait pris la commande de l'iphone, intel d'aujourd'hui serait peut-être très différent, mais cela ne changerait pas nécessairement le destin d'intel à l'ère de l'internet mobile, car ce qui a réellement fait qu'intel a manqué le marché mobile, ce sont plusieurs autres choses : l'architecture x86, amd et marge bénéficiaire.

x86 est une architecture de puce inventée au début de la création d'intel. elle présente les caractéristiques de hautes performances et de consommation d'énergie élevée. côté pc, la consommation électrique élevée n’est pas un problème, la clé est la performance. mais pour les appareils mobiles de taille et de capacité de batterie plus petites, l'importance de la consommation d'énergie et des performances est inversée par rapport au côté pc. au milieu des années 2000, les fabricants d'appareils mobiles ont commencé à adopter collectivement une norme appelée arm. les performances de la puce de cette architecture sont bien inférieures à celles de l'architecture x86 d'intel, mais la consommation d'énergie est bien inférieure.

intel n'ignore pas les tendances technologiques dès les années 1990, lorsque grove était pdg, les appareils mobiles étaient un sujet fréquemment discuté au sein d'intel. lors d'une réunion au siège au début des années 1990, un dirigeant d'intel a brandi son ordinateur de poche et déclaré que « ces appareils vont grandir et remplacer les ordinateurs personnels ». en 1997, lorsque dec a déclaré faillite, intel a activement acquis son équipe strongarm. comme le nom de l'équipe l'indique, la puce strongarm qu'elle a développée était également basée sur l'architecture arm basse consommation et ses performances étaient supérieures à celles de la version publique de l'architecture arm. . vers 2000, intel a commencé à lancer un processeur xscale basé sur stongarm.

mais en 2006, la même année où otellini a rejeté la commande de puces pour iphone, intel a vendu xscale à la société de puces de communication marvell technology pour 600 millions de dollars, car intel était plus urgent que les appareils mobiles qui ne savaient pas quand ils éclateraient. pour faire face à la concurrence d'amd.

au début des années 2000, en tant que principal fournisseur de produits cpu côté pc, la part de marché d'intel était supérieure à celle d'amd, mais l'écart n'était pas grand. les parts de marché des deux sociétés tournaient autour de 50 %. en 2003, amd a pris les devants en entrant sur le marché des processeurs 64 bits avec un processeur 64 bits. à l'époque, les processeurs intel n'étaient qu'en 32 bits, et les utilisateurs pouvaient savoir lequel était le plus avancé simplement en regardant les chiffres. comme les smartphones, le marché des cpu met également à jour les produits chaque année conformément à la loi de moore (le nombre de transistors intégrés sur une puce de même surface double tous les 18 mois), et les avantages ou les erreurs d'une génération de produits peuvent inverser la structure du marché. .

avec le lancement du processeur 64 bits avec une longueur d'avance, amd a presque égalé intel sur le marché des processeurs pour ordinateurs de bureau en 2004. au premier trimestre 2006, amd a même un temps dépassé l'entreprise. au cours du trimestre en cours, les ventes d'intel n'ont pas répondu aux attentes de wall street pendant deux trimestres consécutifs. le bénéfice d'exploitation en 2006 n'a augmenté que de 5 % par rapport à 2000. le conseil d'administration a demandé à otellini d'expliquer pourquoi les performances de l'entreprise avaient si fortement diminué, et a accusé l'entreprise d'être trop gonflée. otellini a rapidement écarté xscale, et il a fallu encore deux ans, jusqu'en 2008, pour réellement détruire l'élan d'amd et permettre à intel de retrouver sa position de leader dans le domaine des pc.

après avoir vendu xscale et mis fin à sa brève confrontation avec amd, intel n'a pas totalement renoncé à son déploiement dans le domaine mobile. en avril 2008, intel a lancé la série de puces atom pour appareils mobiles, un projet qu'intel avait prévu dès 2004. contrairement aux puces xscale basées sur l'architecture arm, la série de puces atom est basée sur l'architecture x86 traditionnelle d'intel - la vente de xscale est considérée comme un choix entre intel et x86.

les instructions reçues par l'équipe r&d d'atom étaient claires et fermes : faible consommation d'énergie, basée sur x86, et capable d'être compatible avec les produits intel existants. l'équipe r&d a développé atom conformément aux instructions, mais cette gamme de produits n'a jamais reçu de ressources suffisantes avant le lancement de l'iphone 4. lors de son lancement en 2008, atom ne prenait en charge que les ordinateurs de bureau internet (nettops) et les netbooks (netbooks). le lancement officiel des versions de puces pour smartphones et tablettes a eu lieu en 2012.

le marché des smartphones a changé à jamais en 2011. en 2009, les livraisons d'apple représentaient moins d'un tiers de celles de nokia, qui était la marque de téléphones mobiles détenant la plus grande part de marché cette année-là. en 2010, apple a lancé l'iphone 4 et en 2011, il a dépassé nokia. en 2013, nokia avait quasiment disparu du marché de la téléphonie mobile. intel a été contraint d'annoncer en 2016 qu'il cesserait de développer la série de processeurs atom, se retirerait du domaine des téléphones mobiles et des tablettes et réorienterait l'entreprise vers les centres de données et la fonderie.

les raisons pour lesquelles intel a rejeté les commandes de processeurs pour iphone, vendu xscale et échoué sur atom sont toutes différentes, mais une chose est similaire : la résistance interne basée sur les marges bénéficiaires.

selon certaines informations, certains dirigeants d'intel se rendent compte de l'importance de la technologie mobile pour le développement à long terme de l'entreprise et souhaitent promouvoir vigoureusement atom, mais ils ont été gênés parce que d'autres craignent que le processeur atom et les appareils à faible coût qu'il prend en charge n'aient un impact négatif sur l'entreprise. cela a un impact sur ses activités traditionnelles, de sorte qu'elle n'est pas disposée à transférer les ressources de production et de conception des divisions pc et puces de serveur - cela ressemble aux mêmes considérations lors du rejet des commandes d'iphone et de la vente de xscale.

les obstacles proviennent également du processus de fabrication. les usines, les stratégies de fabrication et les ressources d'intel sont toutes orientées vers les gros processeurs de bureau coûteux, et non vers les puces mobiles à faible coût. si atom est la priorité, intel doit réorganiser au moins certaines de ses usines et réduire les coûts. coût afin de concurrencer les processeurs arm produits par samsung et tsmc. en outre, s'il investit pleinement dans le marché des puces mobiles, les utilisateurs pourraient acheter des puces mobiles bon marché pour les installer dans des ordinateurs portables, ce qui affaiblirait la demande de puces de bureau plus rentables, ce qui affecterait les revenus d'intel.

l'histoire se répète toujours

la question de savoir si intel, qui n'a pas réussi à gagner sa place dans l'ère de l'internet mobile, peut rattraper la vague de l'ia et réussir à percer est devenue une question à laquelle ce géant vétéran des puces devra ensuite faire face. cependant, intel a perdu sa voix sur le marché des gpu, qui symbolise l'ère de l'intelligence artificielle. en 2023, nvidia et amd représenteront 95 % du marché des gpu pour centres de données, et les gpu d'intel seront introuvables.

les facteurs qui ont poussé intel à rater cette opportunité à l’ère de l’intelligence artificielle ne sortent toujours pas de ce champ : sous-estimation des marchés émergents, stratégies répétées et peu claires et insistance paranoïaque sur l’architecture x86.

intel a toujours eu peur d'être laissé pour compte par la tendance d'un monde de plus en plus visuel. dès 1998, le géant des processeurs a lancé conjointement un gpu avec le fabricant de gpu real3d pour améliorer les effets visuels des jeux 3d et des dvd sur les ordinateurs personnels. en 2005, la deuxième année après le lancement du projet de puce mobile atom, un projet gpu appelé larrabee a également été créé. cependant, comme atom, larrabee a encore une fois choisi l'architecture x86, et il ne s'agit pas d'une carte graphique indépendante qui se concentre sur la recherche des meilleurs effets informatiques graphiques comme le gpu de nvidia, mais d'une puce hybride combinée avec le processeur existant d'intel. cette approche vise à améliorer les capacités de l'ancienne activité d'intel, le cpu lui-même, plutôt qu'à gagner des parts de marché sur le marché indépendant des gpu.

en 2005, le gpu ne semblait pas avoir de scénarios d'utilisation plus importants en dehors du calcul graphique. mais à cette époque, nvidia avait réalisé que le calcul parallèle à grande vitesse du gpu pouvait non seulement être utilisé pour restituer des graphiques, mais également dans d'autres domaines informatiques, comme l'intelligence artificielle. ainsi, en 2006, nvidia a commencé à investir massivement dans un ensemble de logiciels appelé computing unified device architecture (cuda), permettant aux programmeurs, et pas seulement aux experts en graphisme, d'utiliser les puces nvidia. larrabee a été rapidement éliminé par intel après l'échec de sa première tentative de calcul graphique. pat gelsinger, alors cto et responsable du projet larrabee, a quitté l'entreprise en colère en 2009.

au cours des sept ou huit années qui ont suivi le retrait d'intel du marché des gpu, le domaine de l'intelligence artificielle a connu une vague informatique dominée par alphago et la reconnaissance d'images. face à la demande de gpu qui ne pouvait plus être ignorée, intel a annoncé en 2018 son retour sur le marché des gpu et a créé le département de calcul et de graphisme accélérés (axg) pour la première fois au premier trimestre de cette année. il recrute raja koduri, qui était en charge du département graphique chez amd. nous avons également invité le père de larrabee, tom forsyth, à revenir. on dirait qu'il se prépare à quelque chose de grand - mais ce n'est qu'un aperçu.

en 2021, intel a lancé une marque indépendante de cartes graphiques appelée arc. elle prévoit de livrer plus de 4 millions de gpu indépendants en 2022 et s'attend à ce que cette activité génère plus de 10 milliards de dollars de revenus d'ici 2026. cependant, le manque de performances des produits arc a empêché cette série de plans d'atteindre leurs objectifs : son architecture peut assez bien accomplir des tâches légères, mais elle n'est pas adaptée aux tâches hautes performances telles que les centres de données. en mai 2022, le sort du processeur d'ia gaudi 2 publié par l'équipe habana labs acquise par intel était similaire à celui d'arc. gaudi 2 serait adapté à la fois à la formation et à l'inférence, mais il n'est pas aussi rapide que le populaire de nvidia. gpu h100.

cette série de résultats n’est pas surprenante. par rapport à nvidia et amd, le temps de recherche et développement d’intel investi dans le gpu est trop court. l'investissement en ressources est également insuffisant. rien que pour le logiciel cuda, l'investissement de nvidia dépasse 10 milliards de dollars américains. en comparaison, l'investissement total d'intel dans le développement de gpu n'est que d'environ 3,5 milliards de dollars américains.

fin 2022, intel dissoudra axg, fondée il y a moins de deux ans. l'équipe graphique rejoindra le client computing group (ccg) et fusionnera avec l'activité principale traditionnelle d'intel, et l'équipe de calcul accéléré sera fusionnée. la division data centers et intelligence artificielle (dcai). cette division signifie qu'intel se rend compte que les gpu pour appareils grand public et les gpu pour centres de données ne sont pas le même produit. les premiers peuvent résoudre les tâches légères d'exécution de petits modèles en bout de ligne, tandis que les seconds doivent gérer diverses tâches de formation. pour les modèles à grande échelle.

cet ajustement structurel était correct mais pas assez opportun. au quatrième trimestre 2022, la part de marché d'intel sur l'ensemble des centres de données (y compris cpu et gpu) était encore de 46,4 %. au troisième trimestre 2023, elle est tombée à 19,1 %. durant la même période, la part de marché de nvidia est passée de 36,5 % à 72,8 %. en conséquence, la série de puces gpu de nvidia dédiées aux centres de données a généré un chiffre d'affaires de 18,4 milliards de dollars en 2023, soit une augmentation d'une année sur l'autre de plus de 400 %. les revenus des centres de données d'intel ont chuté de plus de 40 % par rapport à leur point culminant.

les nouvelles technologies changent complètement le paysage du marché en un an, une situation qu'intel a déjà connue une fois à l'ère des smartphones. par coïncidence, même la terrible expérience de refuser un ticket pour une nouvelle ère a été vécue à nouveau par intel après 10 ans. selon certaines informations, au cours des mois de 2017 et 2018, les dirigeants d'intel et d'openai ont discuté de diverses options, notamment l'acquisition par intel d'une participation de 15 % dans openai pour 1 milliard de dollars en espèces, si intel le pouvait. en fournissant des puces à openai au prix coûtant, intel peut acquérir une participation supplémentaire de 15 % dans openai. à l’époque, openai souhaitait obtenir un investissement d’intel car cela réduirait sa dépendance aux puces nvidia. mais intel a finalement abandonné, en partie parce que le pdg de l'époque, bob swan, pensait que « l'ia générative n'entrerait pas sur le marché dans un avenir proche. une autre raison possible est que la division des centres de données d'intel ne voulait pas rivaliser à un coût de production élevé ». un prix raisonnable. ces deux phrases vous semblent familières ? je me demande si swann exprimera ses regrets de la même manière qu'otellini lorsqu'il aura un jour l'occasion de rappeler publiquement ses mauvaises décisions.

aujourd'hui, la valorisation d'openai dépasse les 80 milliards de dollars, et nvidia, qui fournit des puces pour l'entraînement de grands modèles, avait autrefois une valeur marchande de plus de 3 000 milliards de dollars, ce qui en fait l'entreprise la plus valorisée au monde.

un détail qui mérite d'être ajouté est que lorsque les négociations avec openai ont commencé en 2017, le vieil ennemi d'intel, amd, est soudainement redevenu plus fort et a lancé cette année-là des processeurs ryzen (ruilong) qui ont pris les noms de « zen » (renaissance) et « risen » (espoir). ), ce qui signifie qu'il possède 8 cœurs et 16 threads, alors que le meilleur processeur intel core i7-6700k à l'époque n'avait que 4 cœurs et 8 threads. également en 2017, tsmc et samsung ont successivement réalisé une production de masse de puces de 10 nm, dépassant pour la première fois intel en termes de technologie de puce. perdant simultanément deux forteresses majeures, intel n'a une fois de plus pas eu le temps de prendre en compte l'ère de l'intelligence artificielle qui ne savait pas quand elle arriverait, jusqu'à ce que le marché change du jour au lendemain.

en 2021, intel, qui ne veut plus manquer aucune opportunité, a invité kissinger de l'extérieur en tant que pdg. il s'agit du premier pdg avec une formation de cto dans l'histoire d'intel, les deux pdg otellini et swann qui avaient respectivement rejeté iphone et openai. les majors sont l’économie.

survivre séparément

kissinger, qui a repris intel, a une série de nouvelles politiques pour ce gros navire qui sont presque difficiles à renverser. le cœur est une stratégie appelée « idm 2.0 ». le nom complet d’idm est integrated device manufacture (modèle d’intégration verticale), ce qui signifie l’intégration de la conception et de la fabrication des puces. intel a adopté ce modèle lors de sa création dans les années 1970, en concevant et en produisant ses propres puces. cependant, les modèles fabless et foundry, qui séparent la conception et la fabrication des puces, sont populaires dans l'industrie depuis les années 1980. nvidia, qualcomm, mediatek, etc. appartiennent tous à des sociétés fabless, tandis que tsmc est une société de fonderie typique. en fait, la raison pour laquelle nvidia, qualcomm et mediatek ont ​​réussi à entrer sur le marché en utilisant peu d’actifs était précisément l’existence de fonderies comme tsmc.

intel est presque la dernière entreprise du secteur à adhérer au modèle idm. même son vieil ennemi, amd, a abandonné son activité de fabrication début 2009 et est devenue une entreprise sans actifs.

l'insistance sur le modèle idm est considérée comme un frein pour intel à plusieurs niveaux. le premier concerne la technologie des puces. en tant que promoteur de la loi de moore, intel a commencé à prouver cette loi par des actions dans les années 1970 jusqu'en 2014 - cette année-là, il a pris la tête du lancement de puces 14 nm. à cette époque, le processus le plus avancé de tsmc était encore bloqué au stade 20 nm. mais intel a soudainement calé. les puces de 10 nm initialement prévues pour une production de masse en 2016 n'ont pas été réalisées car le problème de rendement ne peut être résolu. samsung et tsmc, qui étaient initialement à la traîne, ont pris les devants en 2017 pour surmonter le problème du rendement du 10 nm et ont réalisé une production de masse. le problème de rendement des puces intel 10 nm a été reporté au second semestre 2019. jusqu'à présent, la technologie des puces d'intel a encore trois générations de retard sur tsmc. les puces 2 nm de tsmc ont commencé leur production d'essai en juillet de cette année. le processus de puce le plus avancé d'intel reste jusqu'à présent à 7 nm, séparés par 5 nm et 3 nm.

le problème de rendement semble être un problème technique et, dans une large mesure, un problème commercial. le rattrapage de tsmc par rapport à intel illustre ce point.

historiquement, tsmc a rattrapé intel pour la première fois dans les processus de fabrication en 1999. à cette époque, la technologie des puces de l’ensemble de l’industrie était encore au niveau du micron et n’était pas encore entrée dans l’ère du nanomètre. tsmc, spécialisé dans les activités de fonderie, a reçu des commandes de nvidia, qui espère utiliser les lignes de production de tsmc pour produire des processeurs portant le nom de code « geforce 256 ». il s'agit du premier véritable processeur graphique au monde (graphics processing unit, gpu). c'est précisément grâce à cette commande que tsmc a franchi pour la première fois le processus 0,18 um et a rattrapé le tout nouveau processeur pentium iii 500e d'intel en termes de performances. technologie. la deuxième fois que tsmc a rattrapé, voire dépassé intel, c'était le processus 10 nm en 2017. à cette époque, tsmc a reçu une commande pour la puce a11 bionic d'apple, qui était prête à être installée sur l'iphone 8.

hu zhengming, ancien directeur de la technologie de tsmc, estime que c'est là que le modèle de fonderie est supérieur au modèle idm. en fabriquant des puces pour suffisamment de clients, tsmc a plus de possibilités d'affiner son processus. « lorsque vous avez un grand nombre de clients fondeurs, les cycles de produits de ces clients ne sont pas tous synchronisés. presque chaque fois que vous avez une nouvelle technologie, il y en aura. il y aura des clients prêts à payer pour cela. »

selon gelsinger dans une interview avec les médias lors de sa première prise de fonction, l'une des raisons pour lesquelles intel est resté si longtemps bloqué sur le processus 10 nm était qu'il a retardé l'adoption des machines de lithographie euv dans le but d'utiliser plusieurs expositions pour réussir. dans des processus moins avancés. atteindre 10 nm sur duv. d'ici 2020, la moitié de toutes les machines de lithographie euv produites seront installées chez tsmc. en revanche, intel vient tout juste de commencer à utiliser l’euv dans ses processus de fabrication.

le nouveau plan proposé par kissinger s'appelle nominalement idm 2.0. en substance, il sépare la conception et la fabrication de puces, ce qui est un soulagement pour les deux équipes. après avoir divisé l'activité de fonderie et créé un département de service de fonderie indépendant (ifs), cette partie de l'activité pourra concurrencer directement tsmc et samsung ; les propres ennemis d'intel seront également plus célibataires, elle n'aura désormais qu'à traiter avec amd. et qualcomm, nvidia et d'autres fabricants de conception de puces, et n'ont pas besoin de détourner leur énergie de leurs relations avec tsmc et samsung. si nécessaire, afin de garantir le lancement des produits dans les délais, intel peut même choisir de confier les puces à des fonderies externes. depuis cette année, intel a remis deux puces, nommées arrow lake et lunar lake, à tsmc pour la fonderie, en utilisant un processus 3 nm qu'intel ne possède pas.

kissinger exige que l'activité ifs relève directement de lui et il a lui-même de grandes attentes à l'égard de l'activité fonderie. selon la feuille de route 2025 annoncée en juillet 2021, intel prévoit de passer de 10 nm à 2 nm au cours de ces quatre années et de retrouver sa position de leader en matière de processus d'ici 2025. kissinger lui-même a prédit qu'ifs atteindrait le seuil de rentabilité d'ici la fin 2030 et deviendrait cette année-là la deuxième plus grande fonderie au monde. selon les données de l'agence de conseil internationale counterpoint, au quatrième trimestre 2023, parmi les dix plus grandes fonderies de plaquettes au monde, tsmc se classait toujours au premier rang, représentant 61 % du marché, suivi de samsung, qui représentait 14 % ; pour les dix premiers, mais la part de marché est inférieure à 1 %.

depuis 2021, intel a annoncé des projets de construction d'usines de fabrication en arizona, dans l'ohio, en allemagne, en italie, en irlande et ailleurs, avec un investissement total de plus de 100 milliards de dollars. cependant, deux ans plus tard, seule l'usine de fabrication de plaquettes allemande a donné une heure de démarrage et un plan de construction clairs. les usines en irlande et en pologne sont toujours en phase de négociation de subventions, et des projets en italie et en france ont été directement bloqués. les dernières nouvelles concernant l'activité de fonderie d'intel sont que le 16 septembre, intel a annoncé son intention de convertir son unité commerciale de fonderie de puces en une filiale indépendante et de lui permettre d'obtenir un financement externe.

le problème auquel kissinger est confronté n’est pas seulement l’écart entre les ambitions d’ifs et la réalité. du côté des produits, il doit également mieux trier et promouvoir la disposition des puces ia d’intel dans plusieurs scénarios. le marché des centres de données semble difficile à récupérer, mais intel a encore des voitures, des pc ou des terminaux robotisés sur lesquels travailler à l'avenir.

le pc est un champ de bataille qu'intel ne peut pas perdre. en 2023, intel a pris les devants en proposant le concept aipc et a publié un processeur nommé meteor lake à la fin de cette année. intel a déclaré que cette puce intègre ce qu'on appelle un processeur de réseau neuronal (npu), qui peut fournir aux utilisateurs des ordinateurs. sur pc. apportant « une accélération de l’ia économe en énergie et une expérience de raisonnement local ».

mais jusqu'à présent, l'aipc n'est qu'un concept utilisé par les grandes entreprises pour promouvoir des produits. selon des normes relativement souples, les macbooks d'apple utilisant des puces de la série m sont déjà des aipc, car ces ordinateurs personnels seraient capables d'exécuter des langages petits et grands. modèle, même si apple n’a jusqu’à présent publié aucun modèle de langage à grande échelle et n’a pas non plus procédé à des transformations basées sur des modèles à grande échelle pour ses puces informatiques.

de même, selon des normes relativement souples, il existe déjà de nombreux fournisseurs de puces dans le domaine des aipc, parmi lesquels non seulement les anciens rivaux d'intel comme amd, mais aussi de nouveaux acteurs comme qualcomm et nvidia. lors de la conférence computex qui s'est tenue à taipei, en chine, en juin de cette année, qualcomm a lancé la puce aipc snapdragon x basée sur l'architecture arm, tandis que nvidia a lancé une puce aipc appelée geforce rtx et a déclaré qu'asus et msi computers étaient devenus ses clients.

il est devenu de plus en plus difficile pour intel de s'accrocher au marché des pc, et les puces automobiles sont un autre domaine dans lequel intel est déployé depuis longtemps mais pourrait être privé d'opportunités. en 2017, intel a dépensé 15,3 milliards de dollars pour acquérir mobileye, l'ancien leader des systèmes avancés d'aide à la conduite (adas), en se concentrant sur le nouveau scénario informatique de la conduite autonome. avant 2020, les puces de conduite intelligente étaient quasiment monopolisées par cette entreprise. mais peu de temps après la finalisation de l'acquisition, mobileye a commencé à perdre un grand nombre de clients, d'abord au profit de tesla, puis de weilai et ideal, et enfin des constructeurs automobiles traditionnels tels que bmw et audi.

la raison pour laquelle ces clients ont quitté mobileye est simple. comme sa société mère intel, elle adhère à un modèle d'intégration verticale : depuis sa création, mobileye a fourni aux constructeurs automobiles des solutions packagées de puces et des systèmes de conduite autonome qui souhaitent utiliser sa conduite autonome. la solution de conduite ne peut acheter que ses puces et ses algorithmes en même temps, et ne peut pas itérer indépendamment le système de conduite autonome en fonction de besoins spécifiques. au lieu de cela, nvidia propose aux constructeurs automobiles une solution plus flexible. son système de conduite autonome et ses puces sont vendus séparément. cette solution répond à la nouvelle tendance des constructeurs automobiles qui souhaitent creuser l'écart avec leurs concurrents dans le domaine des systèmes de conduite autonome. ils veulent uniquement les puces de nvidia. quant au système de conduite autonome fonctionnant sur la puce, ils souhaitent le développer de manière indépendante. selon les données de gaogong intelligent automobile, au premier semestre 2024, horizon company a dépassé mobileye et s'est classée première dans le classement des parts de marché des solutions informatiques de conduite intelligente pour les voitures particulières de marque indépendante chinoise.

il semble que la guerre entre intel et amd touche à sa fin et qu'il y aura d'autres batailles à mener ensuite, mais la question du choix des adversaires et de l'allocation des ressources ne sera jamais dépassée.

"au cours des 30 dernières années, la société (en référence à intel) s'est concentrée sur la suppression d'amd, ce qui l'a amenée à ignorer les tendances importantes en matière de mobilité et de faible consommation d'énergie." hector rui, qui a été pdg d'amd de 2002 à 2008, hector ruiz. a déclaré : « ils devraient se concentrer davantage sur leurs clients et l'avenir, plutôt que d'essayer de surpasser amd. » copier les paroles de ruiz pour la prochaine ère de l'intelligence artificielle est également applicable.

-fin-