nouvelles

intel ne peut pas être pris en charge, la séparation est la seule chance

2024-09-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

note de l'éditeur : intel a un passé glorieux. aucune entreprise n'est plus importante qu'intel, et aucune entreprise n'a défini la silicon valley dans tous ses aspects comme intel. mais récemment, malgré le fort soutien des états-unis, cette entreprise technologique bien établie, qui a raté la vague technologique de la dernière décennie, se comporte toujours comme un adou qui ne peut être soutenu. cet article suggère que la dissolution d’intel pourrait être la seule chance de sauver le géant des puces. l'article est compilé à partir de.

c'est bien une vallée :

avec les montagnes de santa cruz à l'ouest et les montagnes de diablo à l'est, en plein milieu de la vallée de santa clara se trouve la ville autrefois endormie de mountain view. en 1955, lorsque william shockley, l'un des inventeurs du transistor des bell labs, retourna dans la ville voisine de palo alto pour soigner sa mère malade, le site de mountain view était encore le moffett field de la marine américaine.

shockley croyait fermement que le silicium était un matériau supérieur pour fabriquer des transistors (les bell labs se concentraient sur le germanium). cependant, en raison de l'éloignement du new jersey et de son style de gestion brutal, shockley n'a pas pu embaucher de nombreux collègues des bell labs, donc en 1956. en 2000, il crée le shockley semiconductor laboratory à mountain view avec un groupe de jeunes scientifiques. un an plus tard, huit scientifiques, dirigés par robert noyce et gordon moore, quittèrent shockley (qui était vraiment terrible en tant que manager) et fondèrent fairchild semiconductor dans la ville voisine de sunnyvale, une nouvelle division de la children's camera and instrument company.

c'est fairchild semiconductor qui a donné au berceau de l'industrie technologique l'autre moitié de son nom : silicon valley, bien sûr, nous parlons de « the valley », mais au moins en ce qui concerne la technologie,nous parlons de la silicon valley.extrait de techcrunch 2014 :

au fur et à mesure que fairchild grandissait, les employés ont commencé à quitter l'entreprise pour lancer de nouvelles spin-offs. beaucoup de ces entreprises se sont développées tout aussi rapidement, inspirant d'autres employés qui travaillaient encore dans ces entreprises... la croissance de ces nouvelles entreprises a commencé à remodeler la région. en seulement 12 ans, les cofondateurs et anciens employés de fairchild ont créé plus de 30 entreprises dérivées et ont apporté un soutien financier à bien d'autres encore. en 1970, les entreprises de puces électroniques de la région de san francisco employaient 12 000 personnes...

les réalisations de ces entreprises ont finalement retenu l'attention de tous. en 1971, un journaliste nommé don hoefler a écrit un article sur le succès des sociétés de puces informatiques dans la bay area. les entreprises qu'il a présentées fabriquent toutes des puces à partir de silicium et sont toutes situées dans une vallée au sud de san francisco. hoffler a donc combiné ces deux points et a créé un nouveau nom pour la région : silicon valley.

hoffler est devenu célèbre pour ses articles et le nom qu’il a inventé, mais il y a un aspect clé de son analyse qui est souvent négligé : presque toutes les sociétés de puces de silicium qu’il a présentées remontent en fin de compte à fairchild et à ses cofondateurs.

pourtant, malgré le succès de fairchild semiconductor, aucune entreprise n'a été plus importante qu'intel, et aucune entreprise n'a défini la silicon valley dans tous les sens. arthur rock, qui a aidé les soi-disant « rebel eight » à fonder fairchild camera and instrument company, a financé intel et, ce faisant, a établi la structure de rémunération qui allait définir la silicon valley. gordon moore a développé une feuille de route pour intel (communément connue sous le nom de loi de moore) - elle « prédit » que le nombre de transistors doublera à un certain rythme, ce qui augmentera à la fois la vitesse de calcul et réduira les prix de calcul. la raison de la citation ; ce qui est important, c'est que la loi de moore n'est pas une loi de la physique, mais une loi économique, qui est le résultat inévitable de l'amélioration continue d'intel. au sens large,cela signifie qu'intel donne le ton de l'innovation dans toutes les technologies, qu'il s'agisse de la fabrication de processeurs pour pc ou de la vague sous-estimée de perturbations du cloud computing au tournant du siècle, et définit les attentes de chaque ingénieur logiciel du monde entier.

le long déclin d'intel

malheureusement, la nécessité de prendre en charge intel a toujours été évidente :en mai 2013, j'ai écrit qu'intel avait besoin de créer une entreprise de fonderie parce que son activité mobile était en faillite et que l'économie de son activité idm (modèle de fabricant d'appareils intégrés) était confrontée à des défis à long terme.

malheureusement, intel non seulement n'a pas écouté, mais les affaires de l'entreprise se sont également détériorées : à la fin des années 2010, intel a eu du mal à passer au 10 nm, en partie parce qu'il n'était pas disposé à adopter le processus de lithographie euv, beaucoup plus coûteux, cédant ainsi la couronne de performances à tsmc. dans le même temps, l'équipe de conception de puces d'intel est devenue de plus en plus pléthorique et paresseuse, et a commencé à être à la traîne d'amd car elle était capable de tirer parti des processus intel autrefois leaders dans l'industrie. aujourd'hui, amd a non seulement de meilleures conceptions, mais aussi parce qu'elle se tourne vers ; tsmc pour fabriquer ses puces, donc avoir un meilleur savoir-faire. dans le même temps, la montée des hyperscalers signifie que certaines entités ont à la fois la taille nécessaire pour prouver qu'elles peuvent effacer l'avantage logiciel d'intel et les ressources pour le faire ; le résultat est qu'amd réduit la part des centres de données depuis des années, et environ dépasser 50 % :

[remarque : ces deux paragraphes sont techniquement incorrects car les revenus des centres de données d'amd incluent les puces ia ; la tendance est toujours d'actualité, mais l'auteur regrette l'erreur]

ce graphique sous-estime en fait le problème car il n'inclut que les processeurs x86 ; en fait, les mêmes capacités qui permettent aux hyperscalers de profiter du coût total de possession de plus en plus supérieur d'amd sont également utilisées pour développer des puces de serveur basées sur arm. amazon en particulier a investi massivement dans sa gamme de puces graviton, profitant de l'efficacité théoriquement plus élevée d'arm et des frais de licence inférieurs (par rapport aux marges bénéficiaires d'intel).

au-delà de cela, ce qui est particulièrement problématique (et pourquoi les revenus des centres de données d'intel sont en baisse d'année en année), c'est que de plus en plus de dépenses dans les centres de données sont consacrées à l'ia, et intel manque une autre vague.

en ce qui concerne le secteur de la téléphonie mobile, intel (ou du moins ses dirigeants précédents) veut vous faire croire qu'ils ont bêtement laissé passer l'opportunité de fournir l'iphone d'apple, sans se rendre compte que le produit se vendrait suffisamment pour compenser la perte de bénéfices. en fait, tony fadell m'a dit un jour que même si steve jobs voulait utiliser intel (apple venait à l'époque de passer aux puces intel pour ses ordinateurs mac), les puces intel n'étaient pas compétitives :

il me semble qu'au milieu des années 2000, la pensée d'intel était :"nous pouvons reconditionner ce qui se trouve sur le bureau et l'utiliser sur un ordinateur portable, puis le reconditionner et l'utiliser sur un périphérique intégré."cela me rappelle le dicton de windows : « je vais faire windows, puis je vais faire windows mobile, puis je vais faire windows embedded en utilisant le même noyau et le même noyau, simplement rationalisés. » .

le mode de réflexion d'intel n'a jamais été « lequel voulons-nous être ? » lors du conflit sur la route cisc-risc, ils ont choisi cisc. c'était correct à l'époque. si vous avancez rapidement, vous constaterez qu'ils l'ont fait. la même chose. une autre décision a été d’abandonner l’architecture et de se tourner vers davantage de fabrication. l'idée à l'époque était : « ne vous inquiétez pas du fait que toutes ces différentes gammes de produits répondent à tous ces besoins architecturaux.laissez simplement la loi de moore prendre le dessus », donc dans une certaine mesure, la ville de zhuanghe vous enferme dans une voie, c'est pourquoi intel, non pas à l'ère pat, mais avant l'ère pat, s'appuyait sur des capacités de fabrication et sur des considérations juridiques.intel n'est pas motivé par des décisions architecturales, mais par "nous avons ces choses maintenant, nous allons les diffuser et nous allons continuer à les réutiliser".

en fait, cela remonte à l’ère pat, lorsque le pdg pat gelsinger gannan a débuté son mandat chez intel. c'est lui qui a fait pression pour que cisc remplace risc, arguant que les avantages logiciels cisc d'intel, combinés aux capacités de fabrication supérieures de l'entreprise, garantiraient la domination de l'entreprise dans le domaine des microprocesseurs. et, comme le souligne fadell, cela fonctionne, du moins dans le monde des pc et des serveurs.

intel n'a pas réussi dans le domaine mobile : intel ne peut pas utiliser ses capacités de fabrication pour rivaliser avec arm en x86, d'autant plus que ce dernier a un avantage dans le domaine logiciel ; intel n'a pas non plus réussi dans le domaine des gpu, et intel a passé plusieurs années à essayer de le faire. pour construire des puces de jeu basées sur x86, ces puces s'appuyaient à l'origine sur les capacités de fabrication d'intel. bien entendu, le gpu est à la base de la vague actuelle d’engouement pour l’intelligence artificielle.bien qu'intel ait acquis gaudi pour fournir des puces d'intelligence artificielle, ils n'ont réalisé aucun progrès sur le marché.- au fait, les puces gaudi sont fabriquées par tsmc.

idm 2.0

rien dans cette histoire n'est nouveau ; j'ai raconté cette histoire dans mon article de 2021 « le problème d'intel ». ma solution à l’époque – et c’était peu après le retour de gelsinger chez intel, 15 ans après avoir été évincé de son poste de pdg – était que l’entreprise devait être démantelée.

l'intégration de la conception et de la fabrication est la mission d'intel depuis des décennies, mais cette intégration est devenue une mainmise sur les deux entreprises. les conceptions d'intel ont été entravées par les capacités de fabrication de l'entreprise, qui manquaient de puissance.

la clé pour comprendre l’industrie des puces est de savoir que la conception de puces est bien plus rentable. par exemple, la marge bénéficiaire brute de nvidia se situe entre 60 % et 65 %, tandis que la marge bénéficiaire brute de tsmc, qui fabrique des puces pour nvidia, est proche de 50 %. comme mentionné ci-dessus, en raison de sa base de conception et de fabrication, les marges bénéficiaires d'intel ont toujours été proches de celles de nvidia, c'est pourquoi les propres puces d'intel seront toujours une priorité pour son propre département de fabrication. cela signifierait que les clients potentiels seraient moins bien servis, qu’ils seraient moins disposés à modifier leurs pratiques de fabrication pour les adapter à leurs besoins et qu’ils seraient moins disposés à absorber les meilleurs fournisseurs (ce qui réduirait encore davantage les bénéfices). il y a aussi une question de confiance : les entreprises concurrentes d'intel sont-elles disposées à partager leurs conceptions avec leurs concurrents ? surtout si l’on considère que ce concurrent est incité à donner la priorité à sa propre entreprise.

la seule façon de résoudre ce problème d'incitation est de scinder les opérations de fabrication d'intel.oui, il faut un certain temps pour développer les composants de service client nécessaires à la coopération avec des tiers, sans parler de l'énorme bibliothèque de modules de développement ip, qui facilitera (relativement) la coopération avec des entreprises comme tsmc. mais les entreprises manufacturières indépendantes auront l’une des motivations les plus puissantes pour opérer cette transition : la nécessité de survivre.

deux mois plus tard, kissinger annonçait son plan de relance : idm 2.0. intel va scinder ses activités de fabrication en une unité distincte qui fournira des services à des tiers, mais l'unité restera sous l'égide d'intel. gelsinger m'a dit dans une interview que c'était la seule façon pour intel de rester compétitif dans le domaine des puces tout en continuant à investir dans la technologie de pointe ; après tout, la scission de globalfoundries par amd a laissé globalfoundries dans une situation désespérée et a ensuite dû rompre l'accord d'achat avec globalfoundries ne s'est sorti du pétrin qu'en passant à tsmc, et globalfoundries a abandonné son avance.

gelsinger est convaincant et optimiste, et j'ai confiance en lui depuis trois ans. cependant, du coup, l’idée d’un spin-off a été remise sur la table ;

intel travaille avec des banquiers d'investissement pour l'aider à traverser la période la plus difficile de ses 56 ans d'histoire, selon des sources proches du dossier.l'entreprise discute d'options, notamment la scission de ses activités de conception et de fabrication de produits et des projets d'usine qui pourraient être abandonnés, ont déclaré les sources, qui ont demandé à rester anonymes car les discussions sont privées...

intel pourrait scinder ou vendre son unité de fonderie. cela représente un changement radical pour le pdg pat gelsinger, étant donné que l'unité est conçue pour fabriquer des puces pour des clients externes. gelsinger considère cette activité comme essentielle pour restaurer la position d'intel en tant que fabricant de puces et espère qu'elle finira par rivaliser avec tsmc, un pionnier du secteur de la fonderie.

comme le souligne l'article, intel envisagera probablement d'abord des mesures moins drastiques ; reuters rapporte que ces idées incluent la vente d'activités telles que l'activité de puces programmables d'altera et la réduction des dépenses d'investissement, y compris l'annulation d'une usine de fonderies proposée en allemagne. l'entreprise a également fini par supprimer son dividende et licencier 15 000 personnes, ce qui, honnêtement, n'était pas suffisant, comme je l'ai noté dans la mise à jour de la semaine dernière :

intel comptait 124 800 employés l'année dernière ; à titre de comparaison, tsmc en comptait 76 478 et amd 26 000. en d'autres termes, les deux sociétés ont moins d'employés qu'intel mais produisent de meilleures puces x86 et des gpu vraiment compétitifs. toutes les entreprises du monde, y compris apple nvidia. les 15 000 licenciements sont à la fois trop peu et trop tard.

ce passage résume le problème fondamental auquel l’entreprise est confrontée :

intel n'a pas les meilleures capacités de fabrication

intel ne conçoit pas les meilleures puces

intel fait faillite dans le domaine de l'intelligence artificielle

de plus, l'avenir ne s'annonce pas brillant ; la récente publication des résultats d'intel a posé trois problèmes :

techniquement parlant, intel est sur la bonne voie pour atteindre les cinq nœuds promis par gelsinger d'ici quatre ans (deux d'entre eux sont en fait des itérations), mais aucun d'entre eux n'a été mis à l'échelle. la première tentative était intel 3, et les bénéfices n'ont pas été plus probants ; . ce n'est pas une surprise : il est difficile de sauter ces étapes, non seulement en raison des progrès technologiques, mais aussi parce qu'il faut réellement apprendre à mettre en œuvre les nouvelles technologies à grande échelle et à en tirer des avantages durables. revenons à l'échec d'intel en 10 nm : la société était techniquement capable de fabriquer des puces en 10 nm, mais elle n'a pas pu le faire économiquement ; les problèmes liés à intel 3 n'ont pas encore été résolus, sans parler du 18a promis l'année prochaine.

intel s'efforce d'améliorer son architecture lunar lake, car c'est la seule conception de l'entreprise qui peut rivaliser avec l'architecture arm de qualcomm, sur laquelle s'appuie le plan pc copilot+ de microsoft ;le problème est que l'architecture de lunar lake (y compris son cpu) est entièrement réalisée par tsmc, ce qui est à la fois embarrassant et a un impact important sur les marges bénéficiaires.

le troisième problème est que l'objectif pour lequel gelsinger a travaillé dur pour atteindre est le 18a susmentionné, mais intel n'a pas encore lancé de partenaire véritablement à grande échelle. oui, l'entreprise négocie toujours avec de nombreuses entreprises et prétend avoir conclu des accords secrets, mais la stratégie actuelle de fonderie nécessite malheureusement des preuves réelles, même si intel a perdu le contrôle des coûts, elle-même augmente son tsmc et elle est inclinée ; il vous sera difficile de convaincre un tiers de laisser son sort à intel.

cela dit, ma première réaction face à la baisse des bénéfices d'intel a été de défendre gelsinger ; la situation actuelle d'intel était le résultat d'erreurs commises au cours des années précédant le retour de gelsinger dans l'entreprise. c’est toujours vrai, mais kissinger a un défaut fatal : il croit toujours en intel, mais je n’y crois plus.

réalité du marché

voici le problème fondamental auquel est confronté intel, et par extension le rêve américain de contrôler la capacité de production avancée : les fonderies intel n’ont aucune raison d’exister. apple, nvidia, amd et d’autres grands fabricants de puces sans usine s’appuient tous sur tsmc. pourquoi intel ne se tourne-t-il pas vers tsmc ? tsmc a investi dans euv, dépassant intel, et dépense des dizaines de milliards de dollars chaque année pour continuer à faire progresser les processus de précision 2 nm et plus. oui, le prix 3 nm de tsmc est trop bas, mais même si l'entreprise augmente les futurs prix des nœuds de processus comme je le prédis, son coût relatif est bien moins important que l'excellent service client et la fiabilité de tsmc.

le fait est que la décision la plus judicieuse pour la division puces d’intel (comme elle l’a fait avec lunar lake) est de confier la fabrication à tsmc. intel a toujours un avantage dans le domaine des ordinateurs personnels et domine toujours les centres de données locaux et gouvernementaux, mais la meilleure façon de capitaliser sur ces points forts restants est de demander à tsmc de construire les puces pour eux.

c'est pourquoi gelsinger a tout intérêt à maintenir l'entreprise intacte ; les fonderies d'intel ont besoin de volume, et le moyen le plus simple d'y parvenir est de s'appuyer sur intel lui-même. cependant, par définition, cette décision n'est pas motivée par ce qui est le mieux pour l'activité théorique sans usine d'intel, mais par la restauration des capacités de fabrication d'intel, même si ces capacités de fabrication visent en grande partie à satisfaire les besoins du secteur des puces d'intel au détriment des clients externes.

l’atout de kissinger est la situation géographique de tsmc.en fait, kissinger a été très clair sur ce point, extrait de cna english news en 2021 :

le pdg d'intel, pat gelsinger, a déclaré mercredi lors du brainstorm technology summit de fortune en californie que le gouvernement américain devrait soutenir la construction d'une chaîne d'approvisionnement durable en semi-conducteurs aux états-unis, en partie parce que « cet endroit est instable »… …

gelsinger a également fait valoir le même point dans cette interview lorsqu'il a expliqué pourquoi intel ne pouvait pas être démantelé :

il me semble que nous devons examiner la question dans une perspective presque mondiale, car je suis convaincu que l'occident a besoin d'un fournisseur de technologie de classe mondiale et je ne pense pas que diviser intel en deux survivrait pendant de nombreuses années, intel aurait probablement du mal à tenir suffisamment longtemps pour devenir un fournisseur technologique de classe mondiale. n'oubliez pas que je m'engage à résoudre ce problème et je pense que nous sommes sur la bonne voie pour résoudre ce problème, en termes de flux de trésorerie, de flux de r&d et de produits qui nous permettent d'y parvenir. ainsi, pour ces trois raisons différentes, nous avons choisi la voie de l'idm 2.0, mais pas parce que nous n'avons pas envisagé d'alternatives, en partie parce que nous l'avons fait.

c’est à ce stade que tous ceux qui investissent dans le secteur manufacturier américain doivent s’exprimer.si le gouvernement américain et les entreprises technologiques américaines ne veulent pas compter sur tsmc, ils devront en payer le prix directement.oui, la loi chip a été adoptée, mais même si intel a reçu beaucoup d’argent, il lui en fallait beaucoup plus – et cet argent s’est fait au prix d’une structure d’incitation plus intelligente qui permettrait à intel de se démarquer.

ce que j’ai suggéré en 2021 était un engagement de précommande plutôt qu’une subvention, et maintenant je pense que c’est la seule voie viable.

c’est pourquoi le programme de subventions fédéral est censé fonctionner comme une garantie d’achat : les états-unis achèteront une quantité de processeurs 5 nm produits aux états-unis au prix b ; ils achèteront une quantité c de processeurs 3 nm produits aux états-unis au prix d ; de processeurs 3 nm produits aux états-unis au prix f. processeur 2 nm et ainsi de suite. non seulement cela donnerait aux nouvelles entreprises dérivées de la fabrication d'intel un objectif à atteindre, mais cela inciterait également d'autres entreprises à investir ; peut-être que globalfoundries reviendra dans le jeu, ou que tsmc construira davantage d'usines aux états-unis et, dans un monde de presque capital libre, peut-être y aura-t-il enfin une startup prête à franchir cette étape.

le monde du capital gratuit n’existe plus, et il n’est peut-être pas réaliste pour une startup de comprendre comment construire le dispositif le plus complexe jamais créé par l’humanité ; la meilleure idée à l’heure actuelle est de créer une nouvelle entreprise dotée de l’expertise et du point de départ d’une entreprise. fonderie intel. mais surtout, il ne devrait pas être redevable aux puces x86, compter des centaines de milliers d'employés ou avoir la domination culturelle qui dirigeait autrefois le monde informatique. le mieux que nous puissions faire est d’acheter les garanties – qui coûteront des centaines de milliards de dollars au cours de la prochaine décennie – et de prier pour que quelqu’un laisse une telle entité se débrouiller seule.

dans l'ensemble, il n'y a aucune raison commerciale pour qu'intel fonctionne comme une fonderie ; il ne s'agit pas d'une défaillance du marché au sens purement économique, mais dans la mesure où l'agence de sécurité nationale américaine estime que l'incapacité d'intel à fonctionner comme une fonderie est préjudiciable. à la sécurité nationale, alors les états-unis doivent payer un prix correspondant pour permettre que cela se produise.et si les états-unis sont prêts à en payer le prix, cela signifie donner à la fonderie les meilleures chances de devenir autonome à long terme. cela signifie prendre des commandes auprès d'apple, de nvidia, d'amd et d'intel sans usine. des milliers de voiles sont passées et le monde de la technologie ne compte plus sur intel ; la seule chance pour les états-unis de devenir leader en matière de fabrication de pointe est de faire de même.

traducteur : boxi.