notizia

è nata un’impresa da 3,5 miliardi a persona

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

ricordi ancora il famoso "openai palace fight incident"?

era il 18 novembre dell'anno scorso, senza alcun preavviso, il consiglio di amministrazione di openai ha votato per licenziare il fondatore e ceo sam altman. la ragione addotta era che il consiglio di amministrazione, dopo un esame attento e dettagliato, aveva stabilito che la comunicazione di altman con il consiglio non era sincera e non poteva “avere fiducia nella sua capacità di continuare a guidare open ai”. subito dopo, il presidente greg brockman, anche lui non informato in anticipo, ha annunciato le sue "dimissioni" dopo essersi espresso scioccato sui social media. inoltre, anche persone chiave come il direttore della ricerca jakub pachocki, il leader del gruppo di valutazione del rischio aleksander madry e il ricercatore senior szymon sidor hanno presentato domanda di dimissioni.

il tumulto interno era tale che quasi tutti i media economici quel giorno usavano i titoli dei giornali per discutere se questa "azienda di intelligenza artificiale più preziosa al mondo" fosse sul punto di sciogliersi.

naturalmente, il risultato finale dell '"incidente del combattimento a palazzo" è stato abbastanza decente. sam altman ritorna in azienda e continua a svolgere il suo ruolo di leadership principale. openai continua inoltre a essere leader nel settore dei modelli di grandi dimensioni. nel marzo di quest'anno ha lanciato con successo il prodotto video vincent sora, consolidando la sua posizione di "unico" al mondo. l'ultima notizia è che openai ha lanciato un nuovo ciclo di procedure di finanziamento, con lo standard di valutazione che ha raggiunto la fenomenale cifra di 100 miliardi di dollari.

ma questo incidente ha anche fatto capire a tutti che openai non è invulnerabile. almeno in termini di percorso di sviluppo, sono divisi internamente in due gruppi. un gruppo è il gruppo di ingegneri rappresentato da sam altman, che ritiene che sia necessario seguire le leggi di sviluppo delle società tecnologiche, distribuirle e rilasciarle periodicamente all'esterno e risolvere. problemi nel processo; l'altro gruppo è la scuola tecnica, rappresentata dal co-fondatore e capo scienziato ilya sutskever, ritiene che "ricerca e sviluppo" e "affari" siano naturalmente in un rapporto di flusso e riflusso, e troppo e prematuro il contatto con gli affari porterà solo più problemi.

il 15 maggio di quest'anno, le dimissioni di ilya sutskever hanno ulteriormente evidenziato questa differenza. in quel tweet di addio, da un lato, ha reso omaggio ai suoi colleghi che erano stati con lui per dieci anni e credeva che il percorso di sviluppo dell'azienda fosse un "miracolo", dall'altro portava con sé una pistola e un bastone , lasciando un messaggio:“spero che tutti possano creare un’agi che sia sicura e vantaggiosa”.

e ciò di cui voglio parlare oggi inizia con queste parole di addio. 5 settembreil progetto imprenditoriale safe superintelligence (di seguito denominato ssi) di ilya sutskever, dopo aver lasciato openai, ha ufficialmente completato un finanziamento totale di 1 miliardo di dollari (circa 7,1 miliardi di rmb) con un team di sole 10 persone e nessun prodotto.secondo fonti pertinenti, la valutazione di questo finanziamento ha raggiunto i 5 miliardi di dollari (circa 35,5 miliardi di rmb), che equivalgono a una valutazione di 500 milioni di dollari per ogni persona del team da quando ha annunciato ufficialmente la creazione della ssi per 3 mesi.

"super intelligenza artificiale sicura"

dal punto di vista dell’imprenditorialità in fase iniziale, l’attuale round di finanziamento di ilya sutskever non è solo impressionante in termini di velocità, ma ha anche una schiera di investitori esplosiva. quasi tutti i famosi vc di cui hai sentito parlare nel campo dell'intelligenza artificiale compaiono nell'elenco degli azionisti, come a16z, sequoia capital, dst e sv angel.

ciò che vale ancora la pena menzionare è che daniel gross, un noto angel investor, ex capo del progetto ai interno di apple ed ex capo dell'intelligenza artificiale presso y combinator, questa volta non solo ha effettivamente partecipato al progetto imprenditoriale di ilya sutskever come partner, ma inoltre ha investito in ssi attraverso il proprio fondo gestito nfdg.

può essere descritto senza esagerazione,questa volta ilya non solo ha ottenuto il doppio re, 4 2 e 345678 scala dall'inizio della sua attività, ma ogni passo successivo della sua operazione avrebbe scioccato i suoi pari.

in effetti, ilya ha intenzione di mettere in mostra il suo talento. la ssi ha dichiarato in un'intervista ai media che lo scopo di questo finanziamento è "accelerare lo sviluppo di sistemi di intelligenza artificiale sicuri che superano di gran lunga le capacità umane". pertanto, oltre a utilizzare una parte dei fondi per acquistare la potenza di calcolo necessaria, una parte considerevole dei fondi verrà utilizzata per assumere i migliori talenti in tutto il mondo.

tuttavia, a nostro avviso, rispetto al "grande spettacolo" dei nuovi unicorni, è più probabile che l'ssi "arrivi lentamente". perché come si può capire dal nome, la ssi porta con sé troppi sentimenti "idealistici" di ilya sutskever. da quando ha avviato la propria attività, ilya ha sempre enfatizzato l'aspetto di "istituto di ricerca" dell'ssi, definendo la sua prima entità un "laboratorio ssi diretto" (che può essere approssimativamente tradotto come "un laboratorio che colpisce direttamente la super intelligenza sicura"). in una lettera aperta sull'imprenditorialità pubblicata il 19 giugno, ilya sutskever ha dato anche questa definizione emotiva:

“costruire una superintelligenza sicura è il problema tecnologico più importante del nostro tempo: sarà il nostro unico prodotto, il nostro unico obiettivo e la nostra roadmap di prodotto… bilanceremo la sicurezza con le prestazioni equilibrio e una chiara comprensione del fatto che la “superintelligenza sicura” è un problema tecnico che richiede innovazioni ingegneristiche e scientifiche rivoluzionarie."

in base a questo posizionamento. ha formulato molti requisiti di "valore emotivo" per futuri colleghi e futuri investitori.

per i futuri investitori, spera che il team non venga "interrotto da spese operative o cicli di prodotto" nel lavoro futuro e che sarà consentito loro di perseguire un modello di business sicuro e protetto per garantire che il team non soffra di short-investment. problemi aziendali a lungo termine. l’impatto dello stress sul processo di ricerca e sviluppo. per i futuri colleghi, spera che siano "i migliori ingegneri o ricercatori del mondo" che possano abbandonare altri compiti e "concentrarsi sull'ssi". in cambio degli sforzi dell'altra parte, ha promesso che questa carriera avrebbe permesso ai futuri colleghi di "dedicare la propria vita a questo".

a giudicare dalla situazione finanziaria, la prima metà di questa visione è stata completata. secondo daniel gross, hanno trovato "investitori che comprendono, rispettano e sostengono la nostra visione... soprattutto quelli che capiscono che ci vogliono diversi anni di ricerca e sviluppo prima di portare un prodotto sul mercato".

il secondo tempo sembra passare meno liscio. attualmente, ssi ha due uffici, uno in california, usa, e uno a tel aviv, israele. i due uffici insieme hanno solo 10 dipendenti ed è piuttosto difficile espandersi - anche secondo daniel gross, per ogni curriculum ricevuto, oltre ad esaminare l'esperienza progettuale passata del candidato, spesso devono dedicare ore alla selezione dei candidati per vedere se hanno “buon carattere” e per determinare se sono “interessati al lavoro, non alle pubblicità”.

ciò che è ancora più esagerato è che in realtà non è noto se ilya abbia intenzione di "corporare" la ssi. fatta eccezione per i membri interni, poche persone sanno come verranno presentate le idee di ssi dal punto di vista del prodotto. in un'intervista esclusiva nel giugno di quest'anno, ilya ha chiarito che la sua startup ideale è"basato su un'organizzazione di ricerca pura" per "creare un sistema di intelligenza artificiale sicuro e potente"e non ha intenzione di vendere servizi o prodotti legati all'intelligenza artificiale a breve termine.

tanto che ssi, che ha completato il finanziamento di 1 miliardo di dollari, molto probabilmente sbloccherà un altro risultato: potrebbe essere l’azienda unicorno con il sito ufficiale più semplice. ancora oggi, la loro homepage ha solo una descrizione della squadra senza alcuna progettazione del layout e due pulsanti di contatto, uno per l'invio di curriculum e l'altro per la cooperazione.

"in definitiva, scommettere sui migliori talenti"

dopo aver letto questa breve introduzione, immagino che tu debba essere curioso riguardo a due domande:

1. perché gli investitori scelgono di credere nella narrativa della “super intelligenza artificiale sicura” e danno generosamente una valutazione di 5 miliardi di dollari in un contesto di surriscaldamento generale degli investimenti nell’intelligenza artificiale? hai fatto anche molte concessioni "a livello commerciale"?

2. qualcuno con un background nella ricerca scientifica come ilya può davvero essere un buon capo? il circolo del venture capital nordamericano è così tollerante nei confronti degli “scienziati diventati imprenditori”?

rispondiamo prima alla prima domanda. in un evento mediatico a cui ha partecipato all'inizio di settembre, ilya ha brevemente elaborato le sue intuizioni imprenditoriali. egli ritiene che, man mano che l'intelligenza artificiale diventa sempre più potente e l'espansione della potenza di calcolo continua ad accelerare, il tipo di fasi di test e certificazione che un prodotto di intelligenza artificiale deve superare prima di essere immesso sul mercato sta diventando sempre più difficile. l’esistenza dell’ssi serve a garantire che la tecnologia dell’intelligenza artificiale diventi “una forza positiva nella società umana”.

sembra davvero bello. e come membro principale di openai, come autore firmato di chatgpt, del modello di generazione di immagini dall-e e di dozzine di altri documenti di ricerca, ilya è davvero più qualificata per rappresentare l'avanguardia di questo settore rispetto alla maggior parte dei professionisti.

ma la chiave è che questo non è il primo tentativo di ilya di sviluppare un business legato alla “super intelligenza artificiale sicura”. infatti, già nel luglio dello scorso anno, openai ha istituito un dipartimento chiamato “superalignment” per studiare come gestire e guidare la “super intelligenza artificiale”. ilya è la diretta responsabile di questo dipartimento. allo stesso tempo, openai ha anche stanziato il 20% delle sue risorse informatiche per supportare il lavoro di ricerca del dipartimento e ha generosamente esteso il ciclo di sviluppo per “trovare la soluzione principale entro quattro anni”.

e il finale di "superalignment" è un disastro. nel maggio 2024 i media hanno diffuso la notizia che openai aveva sciolto il team perché la "super intelligenza artificiale" è attualmente solo un prodotto teorico e nessuno sa quando verrà realizzata. pertanto, anziché porre alcun limite agli investimenti, il senior management di openai ritiene che si debba dare priorità ai prodotti piuttosto che alle tutele e ha gradualmente iniziato a limitare l'uso della potenza di calcolo di superalignment.

il 17 maggio, un altro co-responsabile di superalignment ed ex ricercatore di deepmind, jan leike, ha annunciato le sue dimissioni, sostenendo ulteriormente le precedenti rivelazioni dei media. ha detto sui suoi social media personali: "da tempo non sono d'accordo con il senior management dell'azienda sulle priorità, e ora abbiamo raggiunto un punto critico. la mia opinione è che dovremmo spendere più energie nella preparazione del modello di prossima generazione. preparativi includono sicurezza, monitorabilità, riservatezza, impatto sociale e altri argomenti correlati." - ricordi ancora le dimissioni di ilya dopo la rissa di palazzo menzionata all'inizio e le sue significative parole di addio? lo stesso è successo questa settimana.

in altre parole, se ammettiamo che openai sia l’azienda più vicina al “successo commerciale” nell’attuale percorso dell’intelligenza artificiale, allora, arrotondando per eccesso,la "super intelligenza artificiale sicura" è stata effettivamente eliminata una volta a livello commerciale.

pertanto, per questo finanziamento ilya, il mondo esterno generalmente lo interpreta come,si tratta di una scommessa esagerata da parte del capitale di rischio su talenti eccezionali.inoltre, in condizioni oggettive di "non redditizio a lungo termine", un gran numero di imprenditori di punta negli ultimi due anni hanno scelto di tornare ad essere "dipendenti di grandi fabbriche" (collegato a "big models, queuing up to seek" a vendere la propria vita") - se ci sono ancora capitali di rischio se sono disposti a credere alla storia del "grande modello", allora per loro sul mercato restano pochissime scelte.

ora, per rispondere alla seconda storia, è ovvio che la silicon valley non ha dato completamente un voto di fiducia a ilya. un gran numero di articoli ha sottolineato che ci sono tre figure chiave nella ssi. oltre a ilya, c'è anche daniel levy, suo collega del periodo openai, e daniel gross, il noto angel investor citato all'inizio. l'importanza di daniel gross è stata più volte citata:

daniel gross è la persona con più esperienza imprenditoriale tra i tre. quando aveva 18 anni, fondò il motore di ricerca personale greplin (in seguito ribattezzato cue) attraverso il campo di addestramento di yc, e lo vendette ad apple nel 2013, incassando di più. più di 35 milioni di dollari. inoltre è entrato in apple attraverso quell'acquisizione e ha iniziato a essere responsabile dei progetti di ricerca e intelligenza artificiale di apple. nel 2017, daniel gross è tornato in yc come partner e ha assunto la guida della creazione verticale dell'attività di investimento di yc nel campo dell'intelligenza artificiale.

nel 2018, ha fondato il suo incubatore di startup pioneer, che ritiene sia un aggiornamento necessario al modello yc, perché “il software sta cambiando il mondo e il lavoro a distanza sta cambiando il mondo. questo potrebbe essere il modo in cui nasceranno le grandi aziende del futuro , e sarà il modo in cui il capitale di rischio dovrà adattarsi”. l'idea è stata sostenuta da stripe e marc andreessen ed è stata lanciata più di 100 volte nei successivi 18 mesi.

nel 2023, ha completato nuovamente la propria iterazione e ha fondato "andromeda" con nat friedman, un altro noto angel investor nella silicon valley - una serie di prodotti con un investimento totale di oltre 100 milioni di dollari e un peso di oltre 4.800 chilogrammi da sostenere. progetti di intelligenza artificiale "cluster informatico" per l'imprenditorialità in fase iniziale - daniel gross ritiene che questa miniera sia più adatta per investire in progetti di intelligenza artificiale in fase iniziale che in "contanti noiosi".

pertanto, non è esagerato descrivere che l'impresa imprenditoriale di ilya ha ancora un carattere simile a quello di sam altman. è solo che è più giovane e il suo ego è più piccolo.

per quanto riguarda la sotto-domanda legata alla seconda domanda, cioè se il circolo del venture capital nordamericano sia più tollerante nei confronti degli "scienziati diventati imprenditori", posso solo dire che anche queste sono "lezioni sanguinose". una volta ho trovato un articolo del genere. questo articolo è stato pubblicato sul sito web del national institutes of health. l'autore ha sottolineato che la contraddizione tra capitale di rischio e scienziati esiste da tempo, perché "sebbene le intuizioni e le conoscenze degli scienziati siano necessarie, il cosiddetto insight significa che esse sono necessarie. sono in una fase immatura." , in questa fase, solo una valutazione bassa può attirare abbastanza attenzione da parte dei vc, il che fa sì che gli scienziati pensino sempre di essere in una posizione debole e sentano che il capitale è una cosa malvagia che sta raccogliendo i loro frutti."

alla fine dell’articolo, l’autore ha lasciato due suggerimenti sinceri:1. se si vuole davvero investire in progetti guidati da scienziati, allora è necessario pensare a come consentire agli scienziati di ottenere un capitale sufficiente ma "appropriato" 2. quando si investe negli scienziati, è necessario negoziare attentamente un accordo ragionevole di trasferimento di tecnologia;