nouvelles

musk poursuit des milliards dans openai

2024-09-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

openai est très fort. si vous voulez chiffrer cette force, ce chiffre pourrait être de 150 milliards de dollars américains.

le 11 septembre, heure locale, bloomberg a rapporté qu'openai finançait pour une valeur de 150 milliards de dollars, levant 6,5 milliards de dollars auprès d'investisseurs, et négociait également pour emprunter 5 milliards de dollars auprès des banques sous la forme d'un prêt renouvelable.

la nouvelle selon laquelle openai allait lever des fonds a commencé à se répandre fin août, à cette époque, les médias ont révélé qu'elle était « évaluée à plus de 100 milliards de dollars américains et qu'elle permettrait de lever plusieurs milliards de dollars américains ». monde. après tout, openai était valorisé à 86 milliards de dollars à la fin de l’année dernière lorsque les employés ont vendu leurs actions existantes.

selon des informations précédentes, outre microsoft, les géants participant au cycle de financement actuel d’openai incluent apple et nvidia. la flambée des valorisations et les paris faits par les géants montrent l’attrait d’openai.

l’autre côté de l’histoire est le taux étonnant de combustion d’argent d’openai et sa situation de problèmes internes et externes.

le dernier financement important d'openai a eu lieu en janvier 2023, lorsque microsoft a investi environ 10 milliards de dollars. en d’autres termes, openai a dépensé des dizaines de milliards de dollars en moins de deux ans. the information avait déjà rapporté que les pertes d’openai cette année pourraient atteindre 5 milliards de dollars. à l’époque, les médias prédisaient qu’openai aurait bientôt besoin de financement, ce qui était malheureusement vrai.

en raison de soucis internes, openai a non seulement ralenti ses mises à jour, mais a également connu de fréquents départs de dirigeants.

en 2023, openai lancera la boutique gpt et publiera gpt-4, et ce sera très chargé. plus de la moitié de cette année s'est écoulée et les nouveaux produits d'openai sont pour la plupart chauds mais pas tangibles. sora a été officiellement annoncé au début de cette année, mais il n'a même pas encore été testé à grande échelle ; "strawberry" est encore plus mystérieux.

dans le même temps, seuls 2 des 11 co-fondateurs travaillent encore chez openai. récemment, alexis conneau, figure clé derrière gpt-4o et gpt-5, a annoncé son départ d'openai.

en raison de l’agression étrangère, des géants tels que google et microsoft ont acquis des concurrents déguisés d’openai, et d’autres startups vedettes de l’ia de la silicon valley, notamment inflection ai et character ai, ont déjà de facto des « propriétaires ».

ce qui est encore plus gênant, c’est que le vieil ennemi elon musk est passé d’une dispute verbale avec openai à un combat rapproché avec de vraies armes.

xai, fondée par musk, n'existe que depuis 15 mois et est devenue l'un des rivaux les plus puissants d'openai. le financement de série b a pris fin en mai de cette année. non seulement xai a reçu un financement unique de 6 milliards de dollars, juste derrière openai, mais sa valorisation a également atteint 24 milliards de dollars, ce qui en fait la deuxième startup d'ia la plus valorisée après openai.

en termes de produits, le modèle grok de xai a connu de nombreuses itérations et les performances actuelles de grok 2 ont suivi de près gpt-4.

alors que la guerre apparente était dans l'impasse, elon musk a annoncé le 3 septembre que colossus, un cluster de calcul intensif contenant 100 000 nvidia h100, avait été officiellement lancé, se classant au premier rang mondial en termes d'échelle.

l'expansion de la puissance de calcul sert des objectifs ambitieux. grok 3 est déjà en route et musk a menacé de développer l'intelligence artificielle la plus puissante du monde d'ici la fin de cette année.

openai, qui lutte depuis longtemps avec la puissance de calcul, a lancé plusieurs nouveaux projets de centres de données avec microsoft, soit en agrandissant les superordinateurs microsoft existants, soit en construisant de nouvelles installations. il a même été révélé que le « projet stargate » contenait des millions de puces nvidia.

cependant, la différence entre préparation et « lancement officiel » est évidente. dans la compétition d’ia où le temps presse, le temps n’attend personne. selon the information, altman a fait part de ses inquiétudes aux dirigeants de microsoft quant au fait que la puissance de calcul de xai dépasse celle d’openai.

la guerre du pouvoir de calcul entre musk et ultraman a commencé.

l'un d'eux est musk, qui déclare : « je n'épouserai pas une famille riche, je suis moi-même une famille riche » et fait de grands progrès avec xai. l’un d’eux est openai, qui est soutenu par des géants et reste toujours la référence dans l’industrie de l’ia. la bataille pour la puissance de calcul a commencé, et le défi n’est pas seulement de savoir si vous avez de l’argent ou non.

musk et altman sont tous deux co-fondateurs d'openai. les deux hommes se sont entendus lorsque google utilisait deepmind pour dominer le domaine de l’intelligence artificielle, mais ils se sont séparés juste avant que l’organisation à but non lucratif openai ne s’oriente vers une commercialisation limitée.

chatgpt est devenu un succès instantané il y a deux ans. musk a lancé une attaque féroce contre openai et même contre ultraman lui-même, affirmant qu'openai « avait violé son intention initiale » et était devenu un vassal de microsoft. ce dernier est le plus grand financier d’openai, investissant des dizaines de milliards de dollars.

les performances d'ultraman sont la plupart du temps médiocres. mais d’après les quelques mots d’altman, il n’est pas difficile de voir ses émotions contradictoires de dégoût et d’incapacité à mépriser musk. altman a dit un jour que musk "est un imbécile". six mois plus tard, altman a dit quelque chose de positif à propos de musk : "elon est définitivement un aimant à talents et au centre de l'attention, et il possède de véritables super pouvoirs."

à l’heure actuelle, la xai de musk a été créée et altman est bien conscient des capacités de ce fou de la silicon valley.

lors de son annonce officielle en juillet 2023, xai était considéré comme ciblant openai. musk n’hésite pas non plus à le faire.

mais à cette époque, le monde extérieur était plutôt attentiste à l’égard de xai. après tout, cela a commencé tard et à petite échelle. outre openai et microsoft, il existe également des géants comme google et des start-up stars comme anthropic. non seulement xai ne compte que 11 membres initiaux, mais sa philosophie exclut aussi naturellement les gros investissements des géants de la technologie. certains médias bien connus, dont "wired", ont satirisé le défi lancé par xai à openai en le qualifiant davantage d'une "illusion" de musk.

cependant, la vitesse de développement de xai dépasse l’imagination de chacun.c’est exactement ce qu’altman a dit à propos de musk : les superpuissances.

il n'est pas difficile de découvrir en triant le calendrier que les versions et itérations des produits xai sont très rapides. fondée il y a 13 mois, elle a lancé le premier grand modèle grok, le grok 1.5 itératif, le grok 1.5v multimodal, le grok 2 et le petit modèle grok 2mini.

musk, qui connaît bien le marketing, a donné à grok une personnalité distincte. lorsque les utilisateurs parlent à grok, ils découvriront que ce robot est désinvolte, sarcastique, adore faire des blagues et défie le « politiquement correct ».

cependant, sous le vernis des plaisanteries, le modèle grok a toujours eu une emprise ferme sur openai.

prenons l'exemple de la dernière situation de combat. xai a publié deux modèles, grok 2 et grok 2 mini, en août. les performances en termes de codage, de mathématiques et de raisonnement ont été grandement améliorées par rapport à la génération précédente, et la fonction de diagramme de vincent a été ajoutée. à cette époque, dans la liste globale de lmsys, la première version de grok 2, sus-column-r, se classait troisième. elle pouvait rivaliser avec gpt-4o en tête et dépassait directement claude 3.5 sonnet d'anthropic en bas. dans une utilisation spécifique, grok 2 conserve le style de peinture « irrégulier ». la fonction de génération d'images nouvellement lancée permet à l'ia de « dessiner » des images d'autres grands modèles bien connus se promenant, tels que musk tenant une arme à feu, le meurtre d'un personnage animé de disney. des scènes, etc., ont autrefois enflammé l'enthousiasme des internautes pour la vie.

ce qui est encore plus inattendu, c'est que xai a finalisé un financement de série b en mai de cette année, pour un montant total de financement de 6 milliards de dollars.dans le domaine des grands modèles, il s'agit du financement unique juste derrière openai. le montant total du financement d’openai s’élève à 14 milliards de dollars, le plus important ayant eu lieu en janvier 2023, avec un investissement massif de 10 milliards de dollars de la part de microsoft.

à titre de comparaison, avant le financement de xai, la taille de financement unique derrière openai était anthropic, qui a reçu 4 milliards de dollars de financement en septembre 2023, et 2 milliards de dollars de financement en octobre, suivi par inflection ai et son montant de financement unique en en juin 2023, il a atteint 1,3 milliard de dollars.

parmi eux, xai a démarré le dernier, un an après sa création, mais il a non seulement proposé un grand modèle qui saisit fermement la force du produit openai, mais a également suivi de près en termes d'échelle de financement.

aujourd’hui, xai est devenu un concurrent qu’openai ne peut ignorer, voire l’un de ses concurrents les plus puissants.

qu'il s'agisse d'une concurrence en termes de produit ou d'échelle de financement, c'est une bataille ouverte entre les deux. sous l'eau, la bataille cachée pour la puissance de calcul entre xai et openai se poursuit également avec acharnement.

le 3 septembre seulement, musk a annoncé sur x que colossus (giant) avait été officiellement lancé.

colossus est le cluster de formation super ia de xai, situé dans la région de memphis, tennessee et alimenté par 100 000 gpu nvidia h100.

en outre, musk a également promis qu'au cours des prochains mois, colossus continuerait d'augmenter ses investissements, de doubler le nombre de gpu et d'augmenter le nombre de gpu dans l'ensemble du cluster à 200 000, dont 50 000 nvidia h200.

quel est le concept d'un cluster composé de 100 000 nvidia h100 ?

pour faire simple, il est actuellement n°1 mondial. pour expliquer davantage, étant donné que les grandes entreprises accumulent des gpu, il est difficile de connaître les chiffres publics sur le nombre réel de gpu actifs. cependant, en juin de l'année dernière, inflection ai, qui a levé 1,3 milliard de dollars, a fait une déclaration audacieuse selon laquelle elle construirait le « plus grand supercalculateur du monde » et serait composé de (seulement) 22 000 nvidia h100. en mars de cette année, meta a annoncé deux nouveaux clusters de centres de données, chacun contenant 24 000 puces h100. plusieurs entreprises envisagent de construire un superordinateur contenant 100 000 puces nvidia ou plus, mais seul musk s'est avancé et a déclaré qu'il avait été construit.

ce qui est surprenant dans le lancement officiel de colossus n'est pas seulement son ampleur, mais aussi le temps qu'il a fallu pour le mettre en œuvre. selon les mots de musk, il n'a fallu à l'équipe que 122 jours, soit 4 mois, pour construire colossus. d’une manière générale, il faudrait un an pour construire un pôle de formation en ia de cette taille.

musk a révélé pour la première fois que xai construisait une « super-usine de puissance de calcul » en mai de cette année. en juillet, musk a annoncé que certaines sociétés, dont xai, x et nvidia, avaient commencé des essais. à cette époque, le cluster s'appelait « memphis supercluster ».

"jouez pour gagner, ou ne jouez pas du tout."un message x de musk en juin est la meilleure explication de ses ambitions, et son plan plus spécifique est de former « l'intelligence artificielle la plus puissante du monde selon tous les paramètres » d'ici décembre de cette année.

selon musk lui-même, 20 000 puces nvidia h100 sont nécessaires pour entraîner grok 2, tandis que l'entraînement de grok 3 peut nécessiter 100 000 puces h100.

il faut savoir que les capacités de grok 2 sont proches de gpt-4. il n'est pas difficile de voir que musk veut travailler dur cette fois pour réaliser des miracles. il va de soi également qui est la cible clé pour surpasser l’ia « la plus puissante ».

de telles nouvelles constituent naturellement une sorte de pression pour openai.

selon un rapport de the information, des personnes proches du dossier ont révélé qu'altman avait fait part de ses inquiétudes aux dirigeants de microsoft, craignant que la puissance de calcul de xai ne dépasse bientôt celle d'openai.

ultraman avait de nombreuses raisons de s'inquiéter.

actuellement, les grandes itérations de modèles d’openai sont limitées à la série « 4 ». selon le classement mondial mis à jour par lmsys le 4 septembre, la dernière version d'openai chatgpt-4o a été mise à jour le 8 août de cette année et se classe actuellement au premier rang, mais en termes de score global, elle n'est pas aussi bonne que gemini-1.5-pro. , grok-2 ouvre une grande brèche. gpt-4o, mis à jour le 13 mai de cette année, se classe cinquième.

on peut dire que les gens attendent gpt-5 depuis qu'openai a publié gpt-4 en mars de l'année dernière. le consensus initial était que gpt-5 serait lancé d’ici la fin 2023 ou l’été 2024, mais il y a quelques mois, mira murati, directrice de la technologie d’openai, avait déclaré publiquement que la sortie de gpt-5 pourrait être retardée. fin 2025 ou début 2026.

la raison du retard du gpt-5 est probablement due à « deux déficiences », une puissance de calcul insuffisante et des données insuffisantes. mulati a révélé que les paramètres du gpt-5 atteindront 52 000 milliards, une augmentation significative par rapport aux 2 000 milliards du gpt-4.

non seulement le développement de la prochaine génération de gpt nécessite une puissance de calcul suffisante. en mars de cette année, l'organisme d'études de marché facrorial funds a publié un rapport analysant les ressources matérielles requises par openai pour déployer sora, estimant que sora devrait avoir besoin de 720 000 puces nvidia h100 pour répondre à ses besoins informatiques pendant la période de pointe. ce rapport peut également expliquer pourquoi sora n'a pas été rendu public.

la puissance de calcul actuelle d'openai provient principalement de microsoft, ou bénéficie de l'investissement de microsoft. en 2020, microsoft a construit un supercalculateur contenant 10 000 cartes graphiques pour prendre en charge le travail d'openai. c'était à l'époque l'un des cinq supercalculateurs les plus rapides au monde.

en mars de l'année dernière, microsoft a annoncé de nouveaux progrès dans sa coopération avec l'infrastructure openai. le supercalculateur original de 10 000 processeurs a été mis à niveau pour inclure des dizaines de milliers de puces a100, et le coût du système « pourrait dépasser » plusieurs centaines de millions de dollars.

la puissance de calcul est le principal point de friction dont parle le plus ultraman.dès mai 2023, altman a siégé dans la salle d’audience du congrès américain et a exprimé ses inquiétudes concernant les goulots d’étranglement de la puissance de calcul.

cette année, la déclaration d'altman à propos de la puissance de calcul était plus grandiose et plus ferme. il pensait que les deux « monnaies » du futur seraient la puissance de calcul et l'énergie : « cette (puissance de calcul) est peut-être le bien le plus précieux au monde. nous devrions investir beaucoup pour faire davantage de calculs. »

en mars, ultraman a également envoyé un message x se plaignant du manque de gpu nvidia pour prendre en charge le développement de l'ia. il est rapporté qu'après cela, openai a obtenu davantage de droits d'utilisation de serveur auprès de microsoft d'ici la mi-2025, oracle et microsoft fourniront à openai l'un des clusters de serveurs nvidia les plus puissants au monde, avec un loyer annuel d'environ 2,5 milliards de dollars. .

selon un rapport de the information, microsoft prévoit davantage de mises à niveau et prévoit de construire plusieurs infrastructures d'ia d'ici 2030.

le plan de puissance de calcul de microsoft et d’openai peut être divisé en cinq étapes.les deux parties en sont actuellement à la troisième phase du plan. la quatrième phase concerne le supercalculateur que microsoft construit pour openai, dont la mise en service est prévue vers 2026. l'autorité de développement économique du wisconsin a déclaré que microsoft avait commencé la construction d'un centre de données d'un milliard de dollars, et des personnes proches du dossier ont révélé que le coût final du centre de données pourrait atteindre 10 milliards de dollars.

la cinquième phase est le projet sensationnel "stargate". le projet a été dévoilé par les médias en mars de cette année : microsoft et openai envisagent de construire un supercalculateur doté de « millions » de puces, et le coût du projet pourrait atteindre 100 milliards de dollars américains.

en plus d'essayer d'obtenir plus de ressources informatiques du monde extérieur, ultraman s'est également personnellement lancé dans la bataille pour tenter de faire avancer ses ambitions en matière de puces.ultraman est impatient de disposer de puces auto-développées pour réduire les coûts de base. actuellement, les puces d'ia haut de gamme de nvidia sont non seulement coûteuses, mais elles manquent également de ressources.

au début de cette année, la nouvelle est sortie qu'ultraman voulait construire un empire de 7 000 milliards de puces, mais c'était trop ambitieux et tiré par les cheveux. selon divers rapports, ultraman a été très actif sur les problèmes de puces au cours de l'année écoulée et négocie activement avec toutes les parties.

d’une part, il s’agit de recherche et développement de puces. en juillet, il a été rapporté qu'openai était en train de créer une équipe interne de puces, dirigée par richard ho, ancien président senior de l'ingénierie tpu chez google. broadcom, qui a collaboré avec google pour produire du tpu, a déjà communiqué avec l'équipe des puces openai. en outre, les concurrents de broadcom font également la promotion de leurs services auprès d’openai.

d’un autre côté, la production de chips. altman serait en train de négocier avec les dirigeants des principaux fabricants et fournisseurs de puces, dont tsmc, pour augmenter la capacité de production et produire davantage de puces nvidia, voire de nouvelles puces openai. de plus, ultraman aurait pu être en contact avec les fabricants de puces mémoire samsung et sk hynix plus tôt cette année.

et le premier pas d'ultraman semble arriver bientôt. récemment, le taiwan economic daily a rapporté qu'openai avait commandé l'utilisation de la puce a16 de tsmc dans sora.la puce a16 est le nœud de processus le plus avancé révélé par tsmc jusqu'à présent. c'est également la première étape pour que tsmc entre dans le système angstrom. elle devrait être produite en série au cours du second semestre 2026. outre openai, apple est également l'un des premiers clients de l'a16.

la concurrence en matière de puissance de calcul entre musk et ultraman bat déjà son plein, mais l'expansion de la puissance de calcul nécessite plus que de l'argent. ils ont chacun leur propre « malédiction de l'avantage ».

musk a entre ses mains de nombreuses entreprises qui constituent son avantage, parmi lesquelles celles liées à xai sont principalement x et tesla. x peut fournir des données et des utilisateurs à xai, tandis que tesla est plus « utile ». il envoie non seulement au moins 11 membres à xai, mais peut également fournir directement des gpu pour xai. en outre, musk a déclaré que la grande quantité de données visuelles collectées par tesla pouvait être utilisée par xai pour entraîner de grands modèles. en juillet de cette année, musk a même publié un sondage sur x, demandant aux fans s'ils approuvaient que tesla investisse 5 milliards de dollars dans xai.

mais « main gauche et main droite » apporte du confort à musk, mais apporte aussi des problèmes.

tesla n'est pas à son apogée. au contraire, les ventes de véhicules électriques de tesla sont faibles et son nouveau modèle phare de berline a été retardé. les investisseurs de tesla ont vivement réagi à la « transfusion sanguine » de tesla pour xai, avec une opposition continue et déclenchant même de multiples poursuites.

la controverse a forcé musk, qui a toujours été un dur à cuire, à se manifester pour apaiser les actionnaires de tesla. après l'annonce selon laquelle musk avait donné la priorité à nvidia dans l'expédition de puces à xai, il a expliqué que tesla n'avait aucun endroit où démarrer les puces et a souligné que le projet d'expansion de tesla dans le sud de gigatexas serait achevé. il a également révélé que tesla dépenserait 3 milliards pour cela. 4 milliards de dollars par an pour acheter des puces nvidia.

d’un autre côté, un autre avantage majeur que musk a permis à xai de prospérer est « l’indépendance ». ne pas « collaborer » avec les géants de la technologie est la façon dont musk et xai occupent les hauteurs de l'opinion publique. cela l'aide également à attirer les investissements et à devenir une force pour contrôler et équilibrer les géants.

mais cela signifie également que musk n’aura pas de « bailleurs de fonds » dans des start-ups telles qu’openai, anthropic et inflection, qui ont toutes reçu de grosses sommes d’argent en même temps par des géants. la route vers l’expansion de la puissance de calcul est pavée d’or, et le coût de seulement 100 000 nvidia h100 s’élève à environ 2,5 milliards de dollars (à moins que nvidia n’offre des remises sur volume).

l'un des avantages d'openai est qu'il est soutenu par microsoft, qui a été son plus important bailleur de fonds au cours des deux années écoulées depuis que l'entreprise est devenue célèbre avec chatgpt.

mais il existe un subtil embarras dans la relation étroite entre openai et microsoft, qui est déjà un secret de polichinelle.

la contradiction la plus directe est qu’openai et microsoft sont tous deux partenaires et en concurrence. en d’autres termes, les produits microsoft tels que copilot et new bing, profondément ancrés dans le modèle openai, doivent concurrencer openai lui-même pour les clients. auparavant, altman s'est rendu à san francisco, new york, londres et ailleurs pour donner personnellement des conférences à des centaines de dirigeants d'entreprises fortune 500 afin de promouvoir les produits et services d'openai au niveau de l'entreprise.

le 5 septembre seulement, openai a également annoncé de manière très médiatisée que la version entreprise du service d'abonnement chatgpt lancée il y a un an compte désormais plus d'un million d'utilisateurs payants.

microsoft a déjà procédé à des ajustements au niveau stratégique. auparavant, microsoft avait acquis inflection ai déguisée, absorbé presque tous ses talents et créé une équipe interne d'ia « microsoft ai » pour s'aligner sur les autres géants. en mai, the information rapportait que microsoft était sur le point de lancer un nouveau modèle d'ia, nommé en interne mai-1, avec 50 milliards de paramètres.

permettez-moi de vous demander : si microsoft possède son propre grand modèle « naturel » et que ses performances sont élevées, quelle raison y a-t-il pour ne pas remplacer openai ?

de plus, la structure de gouvernance particulière d'openai a posé une énorme bombe à retardement dans la coopération entre les deux parties : selon l'accord, l'autorisation d'openai accordée à microsoft prendra fin avec l'avènement d'agi.

il s'efforce de fournir de l'argent et de la puissance de calcul pour promouvoir openai afin d'atteindre l'agi, mais il s'efforce également de perdre openai. c'est un paradoxe auquel microsoft est confronté.

les clusters de calcul intensif que microsoft et openai construisent déjà ou envisagent de construire impliquent d’énormes investissements financiers. prenons l'exemple du « projet stargate ». le coût du projet est de 100 milliards de dollars. même pour microsoft, c'est un montant inabordable. les dépenses en capital de microsoft pour l’exercice 2024 (se terminant le 30 juin) s’élèvent à 55,7 milliards de dollars.

sur la voie de l'expansion de la puissance de calcul, openai devra soit "verrouiller" sa relation avec microsoft, soit trouver une issue le plus rapidement possible, sinon ce qui attend openai sera une situation de ". le succès et l'échec".

enfin, dans la compétition de puissance de calcul entre musk et ultraman, il existe un autre obstacle appelé « l’énergie ».

the information estime que les gpu nécessitent plus de puissance que les puces traditionnelles, avec un cluster de 100 000 puces nécessitant potentiellement 100 mégawatts de puissance dédiée. c'est 10 fois l'énergie consommée par les centres de données traditionnels et peut alimenter 70 000 à 100 000 foyers.

l’authenticité du très grand cluster colossus de musk « déjà en ligne » a donc été remise en question. la compagnie d'électricité a déclaré que xai serait en mesure d'obtenir environ 50 mégawatts d'électricité d'ici août. une centrale électrique en construction peut fournir 150 mégawatts d'électricité supplémentaires, mais cela ne sera pas réalisé avant 2025.

il y a également eu des spéculations selon lesquelles musk abandonnerait la compagnie d'électricité et tenterait d'alimenter le cluster avec des générateurs à combustibles fossiles, ce qui a suscité une plainte d'un groupe environnemental de memphis, tennessee.

ce n'est pas seulement un problème pour xai et openai. selon les statistiques de the infomation, il existe actuellement 17 centres de calcul intensif en service ou en construction dans 7 états des états-unis (à l'exclusion de projets tels que le "stargate project" dont la réalisation est douteuse, s'ils sont tous mis en service, les états-unis). le ministère de l'énergie le fera. si c'est trop, la puissance peut être insuffisante.

il semble que c’était hier que musk et altman se disputaient verbalement, mais maintenant ils sont tombés dans un corps à corps prudent. l’expansion de la puissance de calcul se déroule souvent dans un grand récit, avec des milliards, voire des dizaines de milliards de dollars d’investissement érigeant des murs de dizaines de milliers, voire de centaines de milliers de puces. mais sur le chemin, vous avez encore de nombreux obstacles à surmonter.