notícias

nasceu uma empresa que vale 3,5 bilhões por pessoa

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

você ainda se lembra do famoso “openai palace fight incident”?

foi em 18 de novembro do ano passado, sem qualquer aviso prévio, o conselho de administração da openai votou pela demissão do fundador e ceo sam altman. a razão apresentada foi que o conselho de administração, após uma análise cuidadosa e detalhada, determinou que a comunicação de altman com o conselho não era franca e não podia “confiar na sua capacidade de continuar a liderar a open ai”. imediatamente depois, o presidente greg brockman, que também não foi avisado com antecedência, anunciou sua “renúncia” após expressar choque nas redes sociais. além disso, funcionários importantes, como o diretor de pesquisa jakub pachocki, o líder da equipe de avaliação de risco aleksander madry e o pesquisador sênior szymon sidor também apresentaram pedidos de demissão.

a turbulência interna foi tal que quase todos os meios de comunicação empresariais naquele dia usaram as suas manchetes para discutir se esta “empresa de inteligência artificial mais valiosa do mundo” estava prestes a desmoronar-se.

claro, o resultado final do “incidente de luta no palácio” foi bastante decente. sam altman retorna à empresa e continua desempenhando seu papel central de liderança. openai também continua a liderar o campo de modelos de grande porte em março deste ano, lançou com sucesso o produto de vídeo vincent sora, consolidando sua posição como “único” no mundo. a última notícia é que a openai lançou uma nova rodada de procedimentos de financiamento, com o padrão de avaliação atingindo fenomenais us$ 100 bilhões.

mas este incidente também fez com que todos entendessem que o openai não é invulnerável. pelo menos em termos de rota de desenvolvimento, eles estão divididos em dois grupos internamente. um grupo é o grupo de engenharia representado por sam altman, que acredita que é necessário seguir as leis de desenvolvimento das empresas de tecnologia, implantar e lançar periodicamente externamente, e resolver. problemas no processo; o outro grupo é a escola técnica, representada pelo cofundador e cientista-chefe ilya sutskever, acredita que "pesquisa e desenvolvimento" e "negócios" estão naturalmente em uma relação de fluxo e refluxo, e demais e prematuros. o contato com os negócios só trará mais problemas.

em 15 de maio deste ano, a renúncia de ilya sutskever trouxe ainda mais essa diferença à tona. nesse tweet de despedida, por um lado, ele homenageou os colegas que o acompanham há dez anos e acreditava que a trajetória de desenvolvimento da empresa era um “milagre”. por outro lado, carregava uma arma e um bastão. , deixando uma mensagem:“espero que todos possam criar agi que seja seguro e benéfico.”

e o que quero falar hoje começa com estas palavras de despedida. 5 de setembro,o projeto empresarial safe superintelligence de ilya sutskever (doravante denominado ssi) após deixar a openai, concluiu oficialmente um financiamento total de us$ 1 bilhão (aproximadamente rmb 7,1 bilhões) com uma equipe de apenas 10 pessoas e nenhum produto.segundo fontes relevantes, a avaliação deste financiamento atingiu 5 mil milhões de dólares (aproximadamente 35,5 mil milhões de rmb), o que equivale a uma avaliação de 500 milhões de dólares para cada pessoa da equipa. desde que anunciou oficialmente a criação do ssi por 3 meses.

"superinteligência artificial segura"

da perspectiva do empreendedorismo em fase inicial, a actual ronda de financiamento de ilya sutskever não é apenas impressionante em termos de velocidade, mas também tem uma lista explosiva de investidores. quase todos os vcs conhecidos de que você já ouviu falar na área de ia aparecem na lista de acionistas, como a16z, sequoia capital, dst e sv angel.

o que mais vale a pena mencionar é que daniel gross, um conhecido investidor anjo, ex-chefe do projeto interno de ia da apple e ex-chefe de inteligência artificial da y combinator, desta vez não apenas participou do projeto empreendedor de ilya sutskever como parceiro, mas também também investiu na ssi através do seu próprio fundo gerido nfdg.

pode ser descrito sem exagero,desta vez, ilya não apenas obteve os reis duplos, 4 2s e 345.678 sequências desde o início de seu negócio, mas cada etapa subsequente de sua operação chocaria seus colegas.

na verdade, ilya tem planos de mostrar seus talentos. a ssi afirmou numa entrevista à comunicação social que o objectivo deste financiamento é “acelerar o desenvolvimento de sistemas seguros de inteligência artificial que excedem em muito as capacidades humanas”. portanto, além de parte dos recursos serem utilizados para adquirir o poder computacional necessário, uma parte considerável dos recursos será utilizada para contratar os melhores talentos ao redor do mundo.

no entanto, em comparação com o “grande show” dos novos unicórnios em nossa impressão, é mais provável que o ssi “venha lentamente”. porque, como você pode perceber pelo nome, ssi carrega muitos sentimentos "idealistas" de ilya sutskever. desde que iniciou seu próprio negócio, ilya sempre enfatizou o aspecto de “instituição de pesquisa” da ssi, chamando sua primeira entidade de “laboratório ssi direto” (que pode ser traduzido aproximadamente como “um laboratório que atinge diretamente a superinteligência segura”). numa carta aberta sobre empreendedorismo publicada em 19 de junho, ilya sutskever também deu esta definição emocional:

“construir uma superinteligência segura é o problema tecnológico mais importante do nosso tempo – será o nosso único produto, o nosso único objetivo e o nosso roteiro de produtos… equilibraremos a segurança com o desempenho e uma compreensão clara de que a 'superinteligência segura' é um objetivo. problema técnico que requer engenharia revolucionária e avanços científicos”.

com base neste posicionamento. ele fez muitos requisitos de “valor emocional” para futuros colegas e futuros investidores.

para os futuros investidores, ele espera que a equipe não seja “interrompida por despesas operacionais ou ciclos de produtos” em trabalhos futuros, e que eles possam seguir um modelo de negócios seguro e protegido para garantir que a equipe não sofra de curto prazo. problemas de negócios de longo prazo. o impacto do estresse no processo de p&d. para os futuros colegas, ele espera que sejam “os melhores engenheiros ou investigadores do mundo”, que possam abandonar outras tarefas e “focar-se na ssi”. em troca dos esforços da outra parte, prometeu que esta carreira permitiria aos futuros colegas “dedicar as suas vidas a isto”.

a julgar pela situação financeira, a primeira metade desta visão foi concluída. de acordo com daniel gross, encontraram “investidores que compreendem, respeitam e apoiam a nossa visão... especialmente aqueles que compreendem que são necessários vários anos de investigação e desenvolvimento antes de colocar um produto no mercado”.

o segundo tempo pareceu correr menos bem. atualmente, a ssi possui dois escritórios, um na califórnia, eua, e outro em tel aviv, israel. os dois escritórios somados têm apenas 10 funcionários, e é bastante difícil de expandir - ainda segundo daniel gross, para cada currículo recebido, além de examinar a experiência anterior do candidato em projetos, muitas vezes eles têm que gastar horas examinando os candidatos para ver se eles têm “bom caráter” e para determinar se estão “interessados ​​no trabalho, não no hype”.

o que é ainda mais exagerado é que na verdade não se sabe se ilya planeja “corporar” a ssi. exceto os membros internos, poucas pessoas sabem como as ideias da ssi serão apresentadas no lado do produto. em entrevista exclusiva em junho deste ano, ilya deixou claro que sua startup ideal é“baseado em uma organização de pesquisa pura” para “criar um sistema de inteligência artificial seguro e poderoso”, e não tem intenção de vender quaisquer serviços ou produtos relacionados à inteligência artificial no curto prazo.

tanto é assim que a ssi, que completou us$ 1 bilhão em financiamento, provavelmente irá desbloquear outra conquista: pode ser a empresa unicórnio com o site oficial mais simples. ainda hoje, sua página inicial ainda possui apenas uma descrição da equipe, sem nenhum layout e dois botões de contato, um para envio de currículos e outro para cooperação.

"em última análise, apostar nos melhores talentos"

depois de ler esta breve introdução, acho que você deve estar curioso sobre duas questões:

1. porque é que os investidores optam por acreditar na narrativa da “superinteligência artificial segura” e generosamente atribuem uma avaliação de 5 mil milhões de dólares no contexto do sobreaquecimento geral do investimento em inteligência artificial? até fez muitas concessões de “nível comercial”?

2. alguém com experiência em pesquisa científica como ilya pode realmente ser um bom chefe? será o círculo de capital de risco norte-americano tão tolerante com “cientistas que se tornaram empresários”?

vamos responder primeiro à primeira pergunta. num evento de mídia do qual participou no início de setembro, ilya elaborou brevemente suas percepções empreendedoras. ele acredita que à medida que a inteligência artificial se torna cada vez mais poderosa e a expansão do poder da computação continua a acelerar, torna-se cada vez mais difícil que tipo de testes e etapas de certificação um produto de inteligência artificial precisa passar antes de chegar ao mercado. a existência do ssi visa garantir que a tecnologia de inteligência artificial se tornará “uma força para o bem na sociedade humana”.

isso parece muito bom. e como membro principal da openai, como autor assinado do chatgpt, do modelo de geração de imagens dall-e e de dezenas de outros artigos de pesquisa, ilya é de fato mais qualificado para representar a vanguarda desta indústria do que a maioria dos profissionais.

mas a chave é que esta não é a primeira tentativa de ilya de desenvolver um negócio relacionado à “superinteligência artificial segura”. na verdade, já em julho do ano passado, a openai criou um departamento chamado “superalinhamento” para estudar como gerenciar e orientar a “superinteligência artificial”. ilya é o responsável direto por este departamento. ao mesmo tempo, a openai também alocou 20% dos seus recursos computacionais para apoiar o trabalho de pesquisa do departamento e estendeu generosamente o ciclo de desenvolvimento para “encontrar a solução principal dentro de quatro anos”.

e o final de “superalignment” é uma bagunça. em maio de 2024, a mídia divulgou a notícia de que a openai havia dissolvido a equipe alegando que a “superinteligência artificial” é atualmente apenas um produto teórico e ninguém sabe quando será concretizada. portanto, em vez de não estabelecer limites ao investimento, a alta administração da openai acredita que os produtos deveriam ser priorizados em vez das salvaguardas, e gradualmente começou a limitar o uso do poder computacional do superalignment.

em 17 de maio, outro codiretor do superalignment e ex-pesquisador do deepmind, jan leike, anunciou sua renúncia, apoiando ainda mais as revelações anteriores da mídia. ele disse em suas redes sociais pessoais: "há algum tempo que discordo da alta administração da empresa sobre as prioridades e agora chegou a um ponto crítico. minha opinião é que deveríamos gastar mais energia na preparação do modelo da próxima geração. preparativos incluem segurança, monitorabilidade, confidencialidade, impacto social e outros tópicos relacionados." - você ainda se lembra da renúncia de ilya após a luta no palácio mencionada no início, e de suas significativas palavras de despedida? o mesmo aconteceu esta semana.

em outras palavras, se admitirmos que a openai é a empresa mais próxima do “sucesso comercial” no atual caminho da inteligência artificial, então, resumindo,a "superinteligência artificial segura" foi eliminada uma vez no nível comercial.

portanto, para este financiamento ilya, o mundo exterior geralmente o interpreta como,esta é uma aposta exagerada do capital de risco em talentos excepcionais.além do mais, nas condições objetivas de "não lucrativo no longo prazo", um grande número de empresários famosos nos últimos dois anos optaram por voltar a ser "funcionários de grandes fábricas" (ligados a "grandes modelos, filas para procurar para vender suas vidas") - se ainda houver capital de risco se eles estiverem dispostos a acreditar na história do "grande modelo", então restam muito poucas opções para eles no mercado.

agora, para responder à segunda história, é óbvio que o vale do silício não deu totalmente a ilya um voto de confiança. um grande número de artigos apontou que existem três figuras centrais no ssi. além de ilya, estão também daniel levy, seu colega do período openai, e daniel gross, o conhecido investidor anjo mencionado no início. a importância de daniel gross foi repetidamente mencionada:

daniel gross é a pessoa com mais experiência empreendedora do trio. aos 18 anos, fundou o mecanismo de busca pessoal greplin (mais tarde renomeado cue) por meio do campo de treinamento yc e o vendeu para a apple em 2013, lucrando mais. de us$ 35 milhões. ele também se juntou à apple por meio dessa aquisição e passou a ser responsável pelos projetos de pesquisa e ia da apple. em 2017, daniel gross retornou à yc como sócio e assumiu a liderança na criação vertical do negócio de investimentos da yc na área de inteligência artificial.

em 2018, criou a sua própria incubadora de startups pioneer, que considera ser uma atualização necessária ao modelo yc, porque “o software está a mudar o mundo e o trabalho remoto está a mudar o mundo. pode ser assim que as grandes empresas nascerão no futuro. , e será a forma como o capital de risco precisa se adaptar”. a ideia foi apoiada por stripe e marc andreessen e foi lançada mais de 100 vezes nos 18 meses seguintes.

em 2023, ele completou novamente sua própria iteração e fundou "andromeda" com nat friedman, outro conhecido investidor anjo no vale do silício - um conjunto de produtos com um investimento total de mais de us$ 100 milhões e pesando mais de 4.800 quilos para apoiar projetos de ia. "cluster de computação" para empreendedorismo em estágio inicial - daniel gross acredita que esta mina é mais adequada para investir em projetos de ia em estágio inicial do que "dinheiro chato".

portanto, não é exagero descrever que o empreendimento empreendedor de ilya ainda tem um caráter semelhante ao de sam altman. só que ele é mais jovem e seu ego é menor.

quanto à subquestão relacionada com a segunda questão, ou seja, se o círculo de capital de risco norte-americano é mais tolerante com “cientistas que se tornaram empresários”, só posso dizer que são também “lições sangrentas”. certa vez, encontrei um artigo assim. este artigo foi publicado no site do national institutes of health. o autor destacou que a contradição entre o capital de risco e os cientistas existe há muito tempo, porque “embora os insights e o conhecimento dos cientistas sejam necessários, o chamado insight significa que eles. estão em um estágio imaturo." , nesta fase, apenas uma avaliação baixa pode atrair atenção suficiente dos vcs, o que faz com que os cientistas sempre pensem que estão em uma posição fraca e sintam que o capital é uma coisa maligna que está agarrando seus frutos.”

ao final do artigo, o autor deixou duas sugestões sinceras:1. se você definitivamente deseja investir em projetos liderados por cientistas, então você deve pensar em como permitir que os cientistas obtenham capital suficiente, mas “apropriado” 2. ao investir em cientistas, você deve negociar cuidadosamente um acordo razoável de transferência de tecnologia;