nouvelles

une entreprise valant 3,5 milliards par personne est née

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

vous souvenez-vous encore du fameux « openai palace fight incident » ?

c'était le 18 novembre de l'année dernière, sans préavis, le conseil d'administration d'openai a voté le licenciement du fondateur et pdg sam altman. la raison invoquée était que le conseil d’administration, après un examen minutieux et détaillé, avait déterminé que la communication d’altman avec le conseil d’administration n’était pas franche et ne pouvait pas « faire confiance à sa capacité à continuer à diriger open ai ». immédiatement après, le président greg brockman, qui n'a pas non plus été informé à l'avance, a annoncé sa « démission » après avoir exprimé son choc sur les réseaux sociaux. en outre, des membres clés du personnel, tels que le directeur de recherche jakub pachocki, le chef de l'équipe d'évaluation des risques aleksander madry et le chercheur principal szymon sidor, ont également déposé des demandes de démission.

l'agitation interne était telle que presque tous les médias économiques ont ce jour-là utilisé leurs gros titres pour discuter de la question de savoir si cette « société d'intelligence artificielle la plus précieuse au monde » était sur le point de se dissoudre.

bien sûr, le résultat final de « l’incident des combats au palais » était tout à fait correct. sam altman revient dans l'entreprise et continue de jouer son rôle principal de leadership. openai continue également de dominer le domaine des grands modèles. en mars de cette année, elle a lancé avec succès le produit vidéo vincent sora, consolidant ainsi sa position d'« unique » au monde. aux dernières nouvelles, openai a lancé une nouvelle série de procédures de financement, dont la norme de valorisation atteint le chiffre phénoménal de 100 milliards de dollars.

mais cet incident a aussi fait comprendre à tout le monde qu’openai n’est pas invulnérable. au moins en termes de voie de développement, ils sont divisés en deux groupes. l'un des groupes est le groupe d'ingénierie représenté par sam altman, qui estime qu'il est nécessaire de suivre les lois de développement des entreprises technologiques, de déployer et de publier périodiquement en externe et de résoudre les problèmes. dans le processus ; l'autre groupe est l'école technique, représentée par le co-fondateur et scientifique en chef ilya sutskever, estime que « recherche et développement » et « affaires » sont naturellement dans une relation de flux et de reflux, et de contacts trop fréquents et prématurés. avec les affaires ne fera qu'apporter plus de problèmes.

le 15 mai de cette année, la démission d'ilya sutskever a encore mis cette différence au premier plan. dans ce tweet d'adieu, d'une part, il rendait hommage à ses collègues qui l'accompagnaient depuis dix ans et estimait que la trajectoire de développement de l'entreprise était un « miracle ». d'autre part, il portait une arme avec un bâton. et j'ai laissé un message :"j'espère que tout le monde pourra créer une agi à la fois sûre et bénéfique."

et ce dont je veux parler aujourd’hui commence par ces mots d’adieu. 5 septembrele projet entrepreneurial d'ilya sutskever, safe superintelligence (ci-après dénommé ssi), après avoir quitté openai, a officiellement finalisé un financement total de 1 milliard de dollars américains (environ 7,1 milliards de rmb) avec une équipe de seulement 10 personnes et aucun produit.selon des sources compétentes, la valorisation de ce financement a atteint 5 milliards de dollars américains (environ 35,5 milliards de rmb), ce qui équivaut à une valorisation de 500 millions de dollars américains pour chaque personne de l'équipe. à l'heure actuelle, cela ne fait que peu de temps. depuis qu'il a officiellement annoncé la création de ssi pour 3 mois.

"une super intelligence artificielle sûre"

du point de vue de l’entrepreneuriat en démarrage, le cycle de financement actuel d’ilya sutskever est non seulement impressionnant par sa rapidité, mais il compte également une liste explosive d’investisseurs. presque toutes les sociétés de capital-risque bien connues dont vous avez entendu parler dans le domaine de l'ia figurent sur la liste des actionnaires, comme a16z, sequoia capital, dst et sv angel.

ce qui mérite d'être mentionné, c'est que daniel gross, un investisseur providentiel bien connu, ancien responsable du projet interne d'ia d'apple et ancien responsable de l'intelligence artificielle chez y combinator, a non seulement participé cette fois-ci au projet entrepreneurial d'ilya sutskever en tant que partenaire, mais elle a également investi dans ssi via son propre fonds géré nfdg.

on peut le décrire sans exagération,ilya a non seulement obtenu les doubles rois et 4 2 au début de cette affaire, mais aussi les petites cartes pourraient former une quinte de 345678. chaque étape de l'opération suivante apportera suffisamment de choc à ses pairs.

en fait, ilya envisage de montrer ses talents. ssi a déclaré dans une interview aux médias que le but de ce financement est « d'accélérer le développement de systèmes d'intelligence artificielle sûrs qui dépassent de loin les capacités humaines ». ainsi, outre qu’une partie des fonds sera utilisée pour acheter la puissance de calcul nécessaire, une partie considérable des fonds sera utilisée pour embaucher les meilleurs talents du monde entier.

cependant, par rapport au « grand spectacle » des nouvelles licornes, selon nous, ssi est plus susceptible de « venir lentement ». parce que comme son nom l'indique, ssi véhicule trop de sentiments « idéalistes » d'ilya sutskever. depuis qu'il a créé sa propre entreprise, ilya a toujours mis l'accent sur l'aspect « institution de recherche » du ssi, qualifiant leur première entité de « laboratoire ssi direct » (ce qui peut être grossièrement traduit par « un laboratoire qui atteint directement une super intelligence sûre »). dans une lettre ouverte sur l'entrepreneuriat publiée le 19 juin, ilya sutskever donne également cette définition émotionnelle :

« construire une superintelligence sécurisée est le problème technologique le plus important de notre époque – ce sera notre seul produit, notre seul objectif et notre feuille de route produit… nous trouverons un équilibre entre la sécurité et la performance, et une compréhension claire du fait que la « superintelligence sûre » est un objectif. problème technique qui nécessite une ingénierie révolutionnaire et des percées scientifiques.

basé sur ce positionnement. il a formulé de nombreuses exigences de « valeur émotionnelle » pour les futurs collègues et futurs investisseurs.

pour les futurs investisseurs, il espère que l'équipe ne sera pas "interrompue par les dépenses d'exploitation ou les cycles de produits" dans les travaux futurs, et qu'ils seront autorisés à poursuivre un modèle commercial sûr et sécurisé pour garantir que l'équipe ne souffrira pas de court-circuit. problèmes commerciaux à terme. l’impact du stress sur le processus de r&d. pour les futurs collègues, il espère qu'ils seront "les meilleurs ingénieurs ou chercheurs du monde" qui pourront abandonner d'autres corvées et "se concentrer sur ssi". en échange des efforts de l'autre parti, il a promis que cette carrière permettrait à de futurs collègues de "dédier leur vie à cela".

a en juger par cette situation de financement, la première moitié de cette vision est achevée. selon daniel gross, ils ont trouvé « des investisseurs qui comprennent, respectent et soutiennent notre vision… en particulier ceux qui comprennent qu'il faut plusieurs années de r&d avant de mettre un produit sur le marché ».

la seconde mi-temps semble se dérouler moins bien. actuellement, ssi possède deux bureaux, un en californie, aux états-unis, et un à tel aviv, en israël. les deux bureaux réunis ne comptent que 10 employés et il est assez difficile de s'agrandir - également selon daniel gross, pour chaque cv reçu, en plus d'examiner l'expérience de projet passée du candidat, ils doivent souvent passer des heures à examiner les candidats pour voir s'ils ont une « bonne moralité » et déterminer s'ils sont « intéressés par le travail, pas par le battage médiatique ».

ce qui est encore plus exagéré, c’est qu’on ne sait pas vraiment si ilya envisage de « transformer en société » ssi. à l'exception des membres internes, peu de gens savent comment les idées de ssi seront présentées du côté des produits. dans une interview exclusive en juin de cette année, ilya a clairement indiqué que sa startup idéale était« s'appuyer sur une organisation de recherche pure » pour « créer un système d'intelligence artificielle sécurisé et puissant », et n'a pas l'intention de vendre des services ou des produits liés à l'intelligence artificielle à court terme.

à tel point que ssi, qui a finalisé un financement d’un milliard de dollars, débloquera très probablement un autre exploit : elle pourrait être la société licorne dotée du site officiel le plus simple. même aujourd'hui, leur page d'accueil ne contient qu'une description de l'équipe, sans aucune mise en page et deux boutons de contact, l'un pour soumettre des cv et l'autre pour la coopération.

"parier en fin de compte sur les meilleurs talents"

après avoir lu cette brève introduction, je suppose que vous devez être curieux de répondre à deux questions :

1. pourquoi les investisseurs choisissent-ils de croire au récit d'une « super intelligence artificielle sûre » et donnent-ils généreusement une valorisation de 5 milliards de dollars américains dans le contexte d'une surchauffe globale des investissements dans l'intelligence artificielle ? même fait beaucoup de concessions « au niveau commercial » ?

2. une personne comme ilya, qui a une formation en recherche scientifique, peut-elle vraiment être un bon patron ? le cercle nord-américain du capital-risque est-il si tolérant à l’égard des « scientifiques devenus entrepreneurs » ?

répondons d’abord à la première question. lors d'un événement médiatique auquel il a participé début septembre, ilya a brièvement exposé ses idées entrepreneuriales. il estime qu'à mesure que l'intelligence artificielle devient de plus en plus puissante et que l'expansion de la puissance de calcul continue de s'accélérer, le type d'étapes de test et de certification qu'un produit d'intelligence artificielle doit passer avant d'être mis sur le marché devient de plus en plus difficile. l'existence de ssi vise à garantir que la technologie de l'intelligence artificielle deviendra « une force du bien dans la société humaine ».

cela semble vraiment bien. et en tant que membre principal d'openai, en tant qu'auteur signé de chatgpt, du modèle de génération d'images dall-e et de dizaines d'autres articles de recherche, ilya est en effet plus qualifié pour représenter l'avant-garde de cette industrie que la plupart des praticiens.

mais l’essentiel est que ce n’est pas la première tentative d’ilya de développer une activité liée à la « super intelligence artificielle sûre ». en fait, dès juillet de l'année dernière, openai a créé un département appelé « superalignment » pour étudier comment gérer et guider la « super intelligence artificielle ». ilya est le responsable direct de ce département. dans le même temps, openai a également alloué 20 % de ses ressources informatiques pour soutenir les travaux de recherche du département et a généreusement prolongé le cycle de développement pour « trouver la solution de base dans un délai de quatre ans ».

et la fin de "superalignment" est un désastre. en mai 2024, les médias ont annoncé qu'openai avait dissous l'équipe au motif que la « super intelligence artificielle » n'était actuellement qu'un produit théorique et que personne ne sait quand elle sera réalisée. par conséquent, plutôt que de ne fixer aucune limite aux investissements, la haute direction d'openai estime que les produits devraient être prioritaires plutôt que les garanties, et a progressivement commencé à limiter l'utilisation de la puissance de calcul de superalignment.

le 17 mai, un autre co-responsable de superalignment et ancien chercheur de deepmind, jan leike, a annoncé sa démission, soutenant davantage les révélations médiatiques précédentes. il a déclaré sur ses réseaux sociaux personnels : « cela fait un certain temps que je suis en désaccord avec la haute direction de l'entreprise sur les priorités, et maintenant nous avons atteint un point critique. mon point de vue est que nous devrions consacrer plus d'énergie à la préparation du modèle de prochaine génération. inclure la sécurité, la surveillance, la confidentialité, l'impact social et d'autres sujets connexes. " - vous souvenez-vous encore de la démission d'ilya après la bataille de palais mentionnée au début et de ses mots d'adieu significatifs ? la même chose s'est produite cette semaine.

en d’autres termes, si nous admettons qu’openai est l’entreprise la plus proche du « succès commercial » dans le domaine actuel de l’intelligence artificielle, alors en arrondissant,la « super intelligence artificielle sûre » a en fait été éliminée une fois au niveau commercial.

par conséquent, pour ce financement d’ilya, le monde extérieur l’interprète généralement comme :il s’agit d’un pari exagéré du capital-risque sur des talents exceptionnels.de plus, dans les conditions objectives de "non rentable à long terme", un grand nombre d'entrepreneurs vedettes ont choisi ces deux dernières années de redevenir "employés de grandes usines" (lié à "big models, queuing up to seek à vendre leur vie") - s'il existe encore du capital-risque. s'ils sont prêts à croire à l'histoire du "grand modèle", alors il leur reste très peu de choix sur le marché.

pour répondre maintenant à la deuxième histoire, il est évident que la silicon valley n’a pas entièrement accordé sa confiance à ilya. un grand nombre d’articles ont souligné qu’il y avait trois personnalités principales au sein de ssi. outre ilya, il y a aussi daniel levy, son collègue de la période openai, et daniel gross, le célèbre investisseur providentiel mentionné au début. l’importance de daniel gross a été mentionnée à plusieurs reprises :

daniel gross est la personne ayant le plus d'expérience entrepreneuriale parmi le trio. à l'âge de 18 ans, il a fondé le moteur de recherche personnel greplin (rebaptisé plus tard cue) dans le cadre du camp d'entraînement yc et l'a vendu à apple en 2013, encaissant davantage. plus de 35 millions de dollars. il a également rejoint apple grâce à cette acquisition et a commencé à être responsable des projets de recherche et d'ia d'apple. en 2017, daniel gross est revenu chez yc en tant qu'associé et a pris la direction de la création verticale de l'activité d'investissement de yc dans le domaine de l'intelligence artificielle.

en 2018, il a créé son propre incubateur de startups pioneer, qui, selon lui, est une mise à niveau nécessaire du modèle yc, car « les logiciels changent le monde et le travail à distance change le monde. c'est peut-être ainsi que de grandes entreprises naîtront dans le futur. , et ce sera la façon dont le capital-risque doit s'adapter ». l'idée a été soutenue par stripe et marc andreessen et a été lancée plus de 100 fois au cours des 18 mois suivants.

en 2023, il a de nouveau complété sa propre itération et a fondé "andromeda" avec un autre investisseur providentiel bien connu de la silicon valley, nat friedman - un ensemble de produits avec un investissement total de plus de 100 millions de dollars américains et pesant plus de 4 800 kilogrammes pour soutenir des projets d'ia. "cluster informatique" pour l'entrepreneuriat en phase de démarrage - daniel gross estime que cette mine est plus adaptée pour investir dans des projets d'ia en phase de démarrage que pour "de l'argent ennuyeux".

il n’est donc pas exagéré de dire que l’entreprise entrepreneuriale d’ilya a toujours un caractère similaire à celui de sam altman. c'est juste qu'il est plus jeune et que son ego est plus petit.

quant à la sous-question liée à la deuxième question, à savoir si le cercle nord-américain du capital-risque est plus tolérant à l'égard des « scientifiques devenus entrepreneurs », je peux seulement dire que c'est aussi une « leçon sanglante ». j'ai trouvé une fois un tel article. cet article a été publié sur le site web des national institutes of health. l'auteur a souligné que la contradiction entre le capital-risque et les scientifiques existe depuis longtemps, car « bien que les idées et les connaissances des scientifiques soient nécessaires, la soi-disant perspicacité signifie qu'ils sont à un stade immature." à ce stade, seule une faible valorisation peut attirer suffisamment l'attention des sociétés de capital-risque, ce qui fait que les scientifiques pensent toujours qu'ils sont dans une position de faiblesse et estiment que le capital est une chose mauvaise qui s'empare de leurs fruits. "

a la fin de l'article, l'auteur a laissé deux suggestions sincères :1. si vous souhaitez absolument investir dans des projets menés par des scientifiques, vous devez alors réfléchir à la manière de permettre aux scientifiques d'obtenir des capitaux propres suffisants mais « appropriés » ; 2. lorsque vous investissez dans des scientifiques, vous devez soigneusement négocier un accord de transfert de technologie raisonnable ;