nachricht

ein unternehmen mit einem wert von 3,5 milliarden pro person war geboren

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

erinnern sie sich noch an den berühmten „openai palace fight incident“?

es war am 18. november letzten jahres, als der vorstand von openai ohne vorankündigung dafür stimmte, gründer und ceo sam altman zu entlassen. als grund gaben sie an, dass der vorstand nach sorgfältiger und detaillierter prüfung zu dem schluss kam, dass altmans kommunikation mit dem vorstand nicht aufrichtig war und dass er „seiner fähigkeit, open ai weiterhin zu leiten, nicht vertrauen könne“. unmittelbar danach kündigte der ebenfalls nicht vorab benachrichtigte vorsitzende greg brockman seinen „rücktritt“ an, nachdem er sich in den sozialen medien schockiert gezeigt hatte. darüber hinaus reichten auch schlüsselpersonen wie der forschungsdirektor jakub pachocki, der leiter des risikobewertungsteams aleksander madry und der leitende forscher szymon sidor rücktrittsanträge ein.

der interne aufruhr war so groß, dass fast alle wirtschaftsmedien an diesem tag ihre schlagzeilen nutzten, um darüber zu diskutieren, ob dieses „weltweit wertvollste unternehmen für künstliche intelligenz“ kurz vor der auflösung stehe.

natürlich war das endergebnis des „palace fighting incident“ recht ordentlich. sam altman kehrt zum unternehmen zurück und übernimmt weiterhin seine zentrale führungsrolle. openai ist auch weiterhin führend im bereich der großen modelle. im märz dieses jahres brachte das unternehmen das vincent-videoprodukt sora erfolgreich auf den markt und festigte damit seine position als „einzigartig“ auf der welt. die neuesten nachrichten besagen, dass openai eine neue runde von finanzierungsverfahren gestartet hat, wobei der bewertungsstandard phänomenale 100 milliarden us-dollar erreicht.

dieser vorfall hat aber auch allen klar gemacht, dass openai nicht unverwundbar ist. zumindest in bezug auf den entwicklungsweg sind sie intern in zwei gruppen unterteilt. eine gruppe ist die von sam altman vertretene engineering-gruppe, die der ansicht ist, dass es notwendig ist, die entwicklungsgesetze von technologieunternehmen zu befolgen, sie regelmäßig extern bereitzustellen und zu veröffentlichen probleme im prozess; die andere gruppe ist die technische schule, vertreten durch mitbegründer und chefwissenschaftler ilya sutskever, ist der ansicht, dass „forschung und entwicklung“ und „geschäft“ natürlich in einem verhältnis von auf und ab stehen und zu viel und verfrüht sind der kontakt mit der wirtschaft wird nur noch mehr probleme mit sich bringen.

am 15. mai dieses jahres brachte der rücktritt von ilja suzkewer diesen unterschied noch deutlicher zum vorschein. in diesem abschieds-tweet würdigte er einerseits seine kollegen, die seit zehn jahren bei ihm waren, und glaubte, dass die entwicklung des unternehmens ein „wunder“ sei. andererseits trug er eine waffe und einen stock , eine nachricht hinterlassen:„ich hoffe, dass jeder eine agi schaffen kann, die sowohl sicher als auch nützlich ist.“

und mit diesen abschiedsworten beginnt das, worüber ich heute sprechen möchte. 5. septemberilya sutskevers unternehmerisches projekt safe superintelligence (im folgenden als ssi bezeichnet) schloss nach seinem ausscheiden aus openai offiziell eine gesamtfinanzierung von 1 milliarde us-dollar (ca. 7,1 milliarden rmb) mit einem team von nur 10 mitarbeitern und ohne produkte ab.relevanten quellen zufolge hat die bewertung dieser finanzierung 5 milliarden us-dollar (ca. 35,5 milliarden rmb) erreicht, was einer bewertung von 500 millionen us-dollar für jede person im team entspricht. zu diesem zeitpunkt ist es erst seit kurzer zeit seit er die gründung von ssi offiziell für 3 monate angekündigt hat.

„sichere super-künstliche intelligenz“

aus der perspektive des unternehmertums in der frühphase ist die aktuelle finanzierungsrunde von ilya sutskever nicht nur beeindruckend in der geschwindigkeit, sondern verfügt auch über ein explosives investorenaufgebot. fast alle bekannten vcs, von denen sie im ki-bereich gehört haben, erscheinen auf der aktionärsliste, wie zum beispiel a16z, sequoia capital, dst und sv angel.

erwähnenswerter ist, dass daniel gross, ein bekannter angel-investor, ehemaliger leiter des internen ki-projekts von apple und ehemaliger leiter der künstlichen intelligenz bei y combinator, dieses mal nicht nur tatsächlich als partner an ilya sutskevers unternehmerischem projekt beteiligt war, sondern auch außerdem investierte das unternehmen über seinen eigenen verwalteten fonds nfdg in ssi.

man kann es ohne übertreibung beschreiben,ilya bekam dieses mal nicht nur die doppelten könige, 4 2er und 345678 straights von beginn seines geschäfts an, sondern jeder weitere schritt seiner operation würde seine kollegen schockieren.

tatsächlich hat ilya vor, seine talente unter beweis zu stellen. ssi erklärte in einem interview mit den medien, dass der zweck dieser finanzierung darin bestehe, „die entwicklung sicherer künstlicher intelligenzsysteme zu beschleunigen, die die menschlichen fähigkeiten bei weitem übertreffen“. daher wird neben einem teil der mittel, der für die anschaffung der notwendigen rechenleistung verwendet wird, ein erheblicher teil der mittel für die einstellung von top-talenten auf der ganzen welt verwendet.

verglichen mit der „großen show“ der neuen einhörner dürfte ssi jedoch unserer meinung nach eher „langsam kommen“. denn wie man am namen erkennen kann, trägt ssi zu viele „idealistische“ gefühle von ilya sutskever in sich. seit der gründung seines eigenen unternehmens hat ilya stets den aspekt der „forschungseinrichtung“ von ssi betont und sein erstes unternehmen als „straight-shot-ssi-labor“ bezeichnet (was grob mit „ein labor, das direkt auf sichere superintelligenz trifft“) übersetzt werden kann. in einem am 19. juni veröffentlichten offenen brief zum thema unternehmertum gab ilya sutskever auch diese emotionale definition:

„der aufbau sicherer superintelligenz ist das wichtigste technologieproblem unserer zeit – es wird unser einziges produkt, unser einziges ziel und unsere produkt-roadmap sein … wir werden sicherheit mit leistung in einklang bringen und ein klares verständnis dafür entwickeln, dass „sichere superintelligenz“ eins ist.“ technisches problem, das revolutionäre ingenieurskunst und wissenschaftliche durchbrüche erfordert.“

basierend auf dieser positionierung. er stellte viele anforderungen an den „emotionalen wert“ an zukünftige kollegen und zukünftige investoren.

für zukünftige investoren hofft er, dass das team bei der künftigen arbeit nicht „durch betriebskosten oder produktzyklen unterbrochen“ wird und dass es ihnen ermöglicht wird, ein sicheres geschäftsmodell zu verfolgen, um sicherzustellen, dass das team nicht unter kurzschlüssen leidet. die auswirkungen von stress auf den f&e-prozess. für zukünftige kollegen hofft er, dass sie „die besten ingenieure oder forscher der welt“ sein werden, die andere aufgaben aufgeben und sich „auf ssi konzentrieren“ können. als gegenleistung für die bemühungen der anderen partei versprach er, dass diese karriere künftigen kollegen die möglichkeit geben würde, „ihr leben dieser aufgabe zu widmen“.

ausgehend von dieser finanzierungssituation ist die erste hälfte dieser vision abgeschlossen. laut daniel gross fanden sie „investoren, die unsere vision verstehen, respektieren und unterstützen … insbesondere diejenigen, die verstehen, dass es mehrere jahre forschung und entwicklung erfordert, bevor ein produkt auf den markt gebracht wird.“

die zweite halbzeit schien weniger reibungslos zu verlaufen. derzeit verfügt ssi über zwei büros, eines in kalifornien, usa, und eines in tel aviv, israel. die beiden büros zusammen haben nur 10 mitarbeiter, und es ist ziemlich schwierig, sie zu erweitern – auch laut daniel gross müssen sie für jeden eingegangenen lebenslauf neben der prüfung der bisherigen projekterfahrung des bewerbers oft stundenlange überprüfungen der kandidaten aufwenden, um sie zu sehen ob sie einen „guten charakter“ haben und ob sie „an der stelle interessiert sind, nicht am hype“.

was noch übertriebener ist, ist die tatsache, dass eigentlich nicht bekannt ist, ob ilya plant, ssi zu „korporieren“. außer den internen mitgliedern wissen nur wenige menschen, wie die ideen von ssi auf der produktseite präsentiert werden. in einem exklusiven interview im juni dieses jahres machte ilya deutlich, dass sein ideales startup ist„basierend auf einer reinen forschungsorganisation“, um „ein sicheres und leistungsstarkes künstliches intelligenzsystem zu schaffen“und hat nicht die absicht, kurzfristig dienstleistungen oder produkte im zusammenhang mit künstlicher intelligenz zu verkaufen.

so sehr, dass ssi, das eine finanzierung in höhe von 1 milliarde us-dollar abgeschlossen hat, höchstwahrscheinlich einen weiteren erfolg erzielen wird: sie könnten das einhornunternehmen mit der einfachsten offiziellen website sein. auch heute noch gibt es auf der homepage nur eine teambeschreibung ohne jegliches layout-design und zwei kontakt-buttons, einen für die einreichung von lebensläufen und einen für die zusammenarbeit.

„letztendlich auf top-talente setzen“

nachdem sie diese kurze einführung gelesen haben, sind sie vermutlich auf zwei fragen neugierig:

1. warum entscheiden sich anleger dafür, an das narrativ der „sicheren superkünstlichen intelligenz“ zu glauben und geben angesichts der allgemeinen überhitzung der investitionen in künstliche intelligenz großzügig eine bewertung von 5 milliarden us-dollar an? sogar viele zugeständnisse auf „kommerzieller ebene“ gemacht?

2. kann jemand wie ilya mit einem hintergrund in der wissenschaftlichen forschung wirklich ein guter chef sein? ist der nordamerikanische risikokapitalkreis so tolerant gegenüber „wissenschaftlern, die zu unternehmern wurden“?

beantworten wir zunächst die erste frage. bei einer medienveranstaltung, an der er anfang september teilnahm, ging ilya kurz auf seine unternehmerischen erkenntnisse ein. er glaubt, dass es immer schwieriger wird, welche test- und zertifizierungsschritte ein produkt mit künstlicher intelligenz durchlaufen muss, bevor es auf den markt kommt, da künstliche intelligenz immer leistungsfähiger wird und sich die rechenleistung immer weiter beschleunigt. die existenz von ssi soll sicherstellen, dass die technologie der künstlichen intelligenz „zu einer kraft des guten in der menschlichen gesellschaft“ wird.

das hört sich wirklich gut an. und als kernmitglied von openai, als unterzeichneter autor von chatgpt, dem bilderzeugungsmodell dall-e und dutzenden anderer forschungsarbeiten ist ilya in der tat qualifizierter als die meisten praktiker, die spitze dieser branche zu repräsentieren.

aber der schlüssel ist, dass dies nicht ilyas erster versuch ist, ein geschäft im zusammenhang mit „sicherer superkünstlicher intelligenz“ aufzubauen. tatsächlich hat openai bereits im juli letzten jahres eine abteilung namens „superalignment“ eingerichtet, um zu untersuchen, wie „super-künstliche intelligenz“ verwaltet und gesteuert werden kann. ilya ist die direkte person, die für diese abteilung verantwortlich ist. gleichzeitig stellte openai auch 20 % seiner rechenressourcen zur unterstützung der forschungsarbeit der abteilung bereit und verlängerte den entwicklungszyklus großzügig, um „die kernlösung innerhalb von vier jahren zu finden“.

und das ende von „superalignment“ ist ein chaos. im mai 2024 verbreiteten die medien die nachricht, dass openai das team mit der begründung aufgelöst habe, dass „superkünstliche intelligenz“ derzeit nur ein theoretisches produkt sei und niemand wisse, wann es realisiert werde. daher ist die geschäftsleitung von openai der ansicht, dass produkte vorrang vor sicherheitsmaßnahmen haben sollten, anstatt den investitionen keine grenzen zu setzen, und begann nach und nach, die nutzung der rechenleistung von superalignment einzuschränken.

am 17. mai kündigte jan leike, ein weiterer co-leiter von superalignment und ehemaliger deepmind-forscher, seinen rücktritt an und untermauerte damit frühere enthüllungen in den medien. er sagte in seinen persönlichen sozialen medien: „ich bin seit einiger zeit anderer meinung als die geschäftsleitung des unternehmens über die prioritäten, und jetzt ist ein kritischer punkt erreicht. meiner ansicht nach sollten wir mehr energie in die vorbereitung des modells der nächsten generation investieren. vorbereitungen.“ dazu gehören sicherheit, überwachbarkeit, vertraulichkeit, soziale auswirkungen und andere verwandte themen.“ - erinnern sie sich noch an ilyas rücktritt nach dem eingangs erwähnten palastkampf und seine bedeutungsvollen abschiedsworte? das gleiche geschah diese woche.

mit anderen worten: wenn wir zugeben, dass openai das unternehmen ist, das dem „kommerziellen erfolg“ im aktuellen bereich der künstlichen intelligenz am nächsten kommt, dann ergibt das zusammenfassend:„sichere super-künstliche intelligenz“ wurde auf kommerzieller ebene tatsächlich einmal abgeschafft.

daher wird diese ilya-finanzierung von der außenwelt im allgemeinen so interpretiert:dies ist eine übertriebene wette des risikokapitals auf herausragende talente.darüber hinaus haben sich viele starunternehmer in den letzten zwei jahren unter der objektiven bedingung „auf lange sicht unrentabel“ dafür entschieden, wieder „angestellte großer fabriken“ zu werden (verbunden mit „big models, queuing up to seek“) wenn sie bereit sind, der geschichte des „großen modells“ zu glauben, dann gibt es für sie nur noch sehr wenige möglichkeiten auf dem markt.

um nun die zweite geschichte zu beantworten: es ist offensichtlich, dass das silicon valley ilya nicht vollständig das vertrauen geschenkt hat. in einer großen anzahl von artikeln wurde darauf hingewiesen, dass es bei ssi drei kernfiguren gibt. neben ilya sind auch daniel levy, sein kollege aus der openai-zeit, und daniel gross, der eingangs erwähnte bekannte angel-investor, dabei. die bedeutung von daniel gross wurde mehrfach erwähnt:

daniel gross ist die person mit der größten unternehmerischen erfahrung im trio. als er 18 jahre alt war, gründete er im rahmen des yc-trainingslagers die persönliche suchmaschine greplin (später umbenannt in cue) und verkaufte sie 2013 an apple, um mehr einzustreichen als 35 millionen us-dollar. durch diese übernahme kam er auch zu apple und begann, für apples such- und ki-projekte verantwortlich zu sein. im jahr 2017 kehrte daniel gross als partner zu yc zurück und übernahm die führung beim vertikalen aufbau des investmentgeschäfts von yc im bereich der künstlichen intelligenz.

im jahr 2018 gründete er seinen eigenen startup-inkubator pioneer, der seiner meinung nach eine notwendige weiterentwicklung des yc-modells darstellt, denn „software verändert die welt und remote-arbeit verändert die welt. auf diese weise könnten in zukunft großartige unternehmen entstehen.“ , und es wird die art und weise sein, wie sich risikokapital anpassen muss.“ die idee wurde von stripe und marc andreessen unterstützt und in den nächsten 18 monaten mehr als 100 mal gestartet.

im jahr 2023 schloss er seine eigene iteration erneut ab und gründete mit nat friedman, einem weiteren bekannten angel-investor im silicon valley, „andromeda“ – eine reihe von produkten mit einer gesamtinvestition von mehr als 100 millionen us-dollar und einem gewicht von mehr als 4.800 kilogramm zur unterstützung ki-projekte. „computing-cluster“ für unternehmertum in der frühphase – daniel gross glaubt, dass diese mine besser für investitionen in ki-projekte in der frühphase geeignet ist als „langweiliges geld“.

daher ist es keine übertreibung zu beschreiben, dass ilyas unternehmerisches unterfangen immer noch einen ähnlichen charakter hat wie sam altman. es ist nur so, dass er jünger und sein ego kleiner ist.

was die unterfrage im zusammenhang mit der zweiten frage betrifft, nämlich ob der nordamerikanische risikokapitalkreis toleranter gegenüber „wissenschaftlern, die zu unternehmern geworden sind“, ist, kann ich nur sagen, dass es sich auch um „blutige lektionen“ handelt. ich habe einmal einen solchen artikel gefunden. dieser artikel wurde auf der website der national institutes of health veröffentlicht. der autor wies darauf hin, dass der widerspruch zwischen risikokapital und wissenschaftlern schon lange besteht, denn „obwohl die einsichten und das wissen von wissenschaftlern notwendig sind, bedeutet die sogenannte einsicht, dass sie.“ „in diesem stadium kann nur eine niedrige bewertung genügend aufmerksamkeit von vcs auf sich ziehen, was wissenschaftler immer glauben lässt, dass sie sich in einer schwachen position befinden und das gefühl haben, dass kapital eine böse sache ist, die ihnen früchte raubt.“

am ende des artikels hinterließ der autor zwei aufrichtige vorschläge:1. wenn sie unbedingt in von wissenschaftlern geleitete projekte investieren möchten, müssen sie darüber nachdenken, wie sie den wissenschaftlern ausreichend, aber „angemessenes“ eigenkapital ermöglichen. 2. bei investitionen in wissenschaftler müssen sie sorgfältig eine angemessene technologietransfervereinbarung aushandeln.