noticias

nació una empresa valorada en 3.500 millones por persona

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

¿aún recuerdas el famoso "incidente de la pelea en el palacio openai"?

fue el 18 de noviembre del año pasado, sin previo aviso, la junta directiva de openai votó a favor de despedir al fundador y director ejecutivo sam altman. la razón que dieron fue que la junta directiva, después de una revisión cuidadosa y detallada, determinó que la comunicación de altman con la junta no fue sincera y no podía "confiar en su capacidad para continuar liderando open ai". inmediatamente después, el presidente greg brockman, a quien tampoco se le había avisado con antelación, anunció su "dimisión" tras expresar su sorpresa en las redes sociales. además, personal clave como el director de investigación jakub pachocki, el jefe del equipo de evaluación de riesgos aleksander madry y el investigador principal szymon sidor también presentaron solicitudes de dimisión.

la agitación interna fue tal que casi todos los medios económicos discutieron ese día en sus titulares si esta "empresa de inteligencia artificial más valiosa del mundo" estaba a punto de disolverse.

por supuesto, el resultado final del "incidente de lucha en el palacio" fue bastante decente. sam altman regresa a la empresa y continúa desempeñando su papel principal de liderazgo. openai también continúa liderando el campo de los modelos de gran tamaño. en marzo de este año lanzó con éxito el producto de vídeo vincent sora, consolidando su posición como "único" en el mundo. la última noticia es que openai ha lanzado una nueva ronda de procedimientos de financiación, cuyo estándar de valoración alcanzó la espectacular cifra de 100.000 millones de dólares.

pero este incidente también hizo que todos comprendieran que openai no es invulnerable. al menos en términos de ruta de desarrollo, están divididos internamente en dos grupos. un grupo es el grupo de ingeniería representado por sam altman, que cree que es necesario seguir las leyes de desarrollo de las empresas de tecnología, implementar y lanzar externamente periódicamente y resolver. problemas en el proceso, el otro grupo es la escuela técnica, representada por el cofundador y científico jefe ilya sutskever, cree que "investigación y desarrollo" y "negocios" están naturalmente en una relación de flujo y reflujo, y demasiado y prematuro; el contacto con las empresas sólo traerá más problemas.

el 15 de mayo de este año, la dimisión de ilya sutskever puso aún más de relieve esta diferencia. en ese tuit de despedida, por un lado, rindió homenaje a sus compañeros que llevaban diez años con él, y consideró que la trayectoria de desarrollo de la empresa era un "milagro". por otro lado, portaba una pistola y un palo. , dejando un mensaje:"espero que todos puedan crear agi que sea segura y beneficiosa".

y de lo que quiero hablar hoy comienza con estas palabras de despedida. 5 de septiembre,el proyecto empresarial safe superintelligence (en lo sucesivo, ssi) de ilya sutskever, después de dejar openai, completó oficialmente una financiación total de mil millones de dólares estadounidenses (aproximadamente 7,1 mil millones de rmb) con un equipo de solo 10 personas y ningún producto.según fuentes pertinentes, la valoración de esta financiación ha alcanzado los 5.000 millones de dólares (aproximadamente 35.500 millones de rmb), lo que equivale a una valoración de 500 millones de dólares por cada persona del equipo. en este momento, ha sido poco tiempo. desde que anunció oficialmente el establecimiento de ssi durante 3 meses.

"superinteligencia artificial segura"

desde la perspectiva del emprendimiento en etapa inicial, la actual ronda de financiación de ilya sutskever no sólo es impresionante por su velocidad, sino que también cuenta con una lista explosiva de inversores. casi todos los vc conocidos de los que ha oído hablar en el campo de la ia aparecen en la lista de accionistas, como a16z, sequoia capital, dst y sv angel.

lo que es más digno de mención es que daniel gross, un conocido inversor ángel, ex jefe del proyecto interno de inteligencia artificial de apple y ex jefe de inteligencia artificial de y combinator, no solo participó esta vez en el proyecto empresarial de ilya sutskever como socio, sino que también invirtió en ssi a través de su propio fondo gestionado nfdg.

se puede describir sin exagerar,esta vez, ilya no solo obtuvo dobles reyes, 4 2 y 345678 escaleras desde el inicio de su negocio, sino que cada paso posterior de su operación sorprendería a sus pares.

de hecho, ilya tiene planes de mostrar su talento. ssi afirmó en una entrevista con los medios que el objetivo de esta financiación es "acelerar el desarrollo de sistemas de inteligencia artificial seguros que superen con creces las capacidades humanas". por lo tanto, además de que parte de los fondos se utilizará para comprar la potencia informática necesaria, una parte considerable de los fondos se utilizará para contratar a los mejores talentos de todo el mundo.

sin embargo, en comparación con el "gran espectáculo" de los nuevos unicornios, en nuestra opinión, es más probable que ssi "llegue lentamente". porque, como se puede ver por el nombre, ssi conlleva demasiados sentimientos "idealistas" de ilya sutskever. desde que comenzó su propio negocio, ilya siempre ha enfatizado el aspecto de "institución de investigación" de ssi, llamando a su primera entidad un "laboratorio de ssi directo" (que puede traducirse aproximadamente como "un laboratorio que ataca directamente la superinteligencia segura"). en una carta abierta sobre el espíritu empresarial publicada el 19 de junio, ilya sutskever también dio esta emotiva definición:

“construir una superinteligencia segura es el problema tecnológico más importante de nuestro tiempo: será nuestro único producto, nuestro único objetivo y nuestra hoja de ruta para el producto... equilibraremos la seguridad con el rendimiento y una comprensión clara de que la 'superinteligencia segura' es una solución. problema técnico que requiere ingeniería revolucionaria y avances científicos".

en base a este posicionamiento. hizo muchos requisitos de "valor emocional" para futuros colegas y futuros inversores.

para los futuros inversores, espera que el equipo no se vea "interrumpido por gastos operativos o ciclos de productos" en trabajos futuros, y que se les permita seguir un modelo de negocio seguro para garantizar que el equipo no sufra pérdidas. problemas empresariales a largo plazo. el impacto del estrés en el proceso de i+d. espera que sus futuros colegas sean "los mejores ingenieros o investigadores del mundo" que puedan abandonar otras tareas y "centrarse en ssi". a cambio de los esfuerzos de la otra parte, prometió que esta carrera permitiría a los futuros colegas "dedicar sus vidas a esto".

a juzgar por esta situación financiera, la primera mitad de esta visión se ha completado. según daniel gross, encontraron "inversores que entienden, respetan y apoyan nuestra visión... especialmente aquellos que entienden que se necesitan varios años de i+d antes de lanzar un producto al mercado".

la segunda mitad pareció transcurrir con menos tranquilidad. actualmente, ssi tiene dos oficinas, una en california, ee.uu. y otra en tel aviv, israel. las dos oficinas juntas sólo tienen 10 empleados y su ampliación es bastante difícil; también según daniel gross, por cada currículum recibido, además de examinar la experiencia pasada del solicitante en proyectos, a menudo tienen que dedicar horas a examinar a los candidatos para ver si tienen “buen carácter” y para determinar si están “interesados ​​en el trabajo, no en las exageraciones”.

lo que es aún más exagerado es que en realidad se desconoce si ilya planea "corporar" ssi. a excepción de los miembros internos, pocas personas saben cómo se presentarán las ideas de ssi en el lado del producto. en una entrevista exclusiva en junio de este año, ilya dejó claro que su startup ideal es"basado en una organización de investigación pura" para "crear un sistema de inteligencia artificial potente y seguro"y no tiene intención de vender ningún servicio o producto relacionado con la inteligencia artificial en el corto plazo.

tanto es así que ssi, que ha completado una financiación de mil millones de dólares, probablemente desbloqueará otro logro: puede ser la empresa unicornio con el sitio web oficial más simple. incluso hoy en día, su página de inicio todavía tiene solo una descripción del equipo sin ningún diseño de diseño y dos botones de contacto, uno para enviar currículums y el otro para cooperar.

"en definitiva, apostar por el mejor talento"

después de leer esta breve introducción, supongo que debes sentir curiosidad por dos preguntas:

1. ¿por qué los inversores eligen creer en la narrativa de la "superinteligencia artificial segura" y dan generosamente una valoración de 5 mil millones de dólares en el contexto del sobrecalentamiento general de la inversión en inteligencia artificial? ¿incluso hizo muchas concesiones de "nivel comercial"?

2. ¿puede alguien con experiencia en investigación científica como ilya ser realmente un buen jefe? ¿es el círculo de capital de riesgo norteamericano tan tolerante con los “científicos convertidos en empresarios”?

respondamos primero la primera pregunta. en un evento mediático en el que participó a principios de septiembre, ilya explicó brevemente sus ideas empresariales. él cree que a medida que la inteligencia artificial se vuelve cada vez más poderosa y la expansión de la potencia informática continúa acelerándose, se vuelve cada vez más difícil qué tipo de pasos de prueba y certificación debe seguir un producto de inteligencia artificial antes de salir al mercado. la existencia de ssi tiene como objetivo garantizar que la tecnología de inteligencia artificial se convierta en "una fuerza para el bien en la sociedad humana".

esto suena muy bien. y como miembro principal de openai, como autor firmado de chatgpt, el modelo de generación de imágenes dall-e y docenas de otros artículos de investigación, ilya está de hecho más calificado para representar la vanguardia de esta industria que la mayoría de los profesionales.

pero la clave es que este no es el primer intento de ilya de desarrollar un negocio relacionado con la “superinteligencia artificial segura”. de hecho, ya en julio del año pasado, openai creó un departamento llamado "superalineación" para estudiar cómo gestionar y guiar la "superinteligencia artificial". ilya es el responsable directo de este departamento. al mismo tiempo, openai también asignó el 20% de sus recursos informáticos para respaldar el trabajo de investigación del departamento y extendió generosamente el ciclo de desarrollo para "encontrar la solución central en cuatro años".

y el final de "superalignment" es un desastre. en mayo de 2024, los medios dieron la noticia de que openai había disuelto el equipo con el argumento de que la "superinteligencia artificial" es actualmente sólo un producto teórico y nadie sabe cuándo se realizará. por lo tanto, en lugar de establecer ningún límite a la inversión, la alta dirección de openai cree que se deben priorizar los productos en lugar de las salvaguardias, y gradualmente comenzaron a limitar el uso de la potencia informática de superalignment.

el 17 de mayo, otro codirector de superalignment y ex investigador de deepmind, jan leike, anunció su renuncia, respaldando aún más las revelaciones anteriores de los medios. dijo en sus redes sociales personales: "he estado en desacuerdo con la alta dirección de la empresa sobre las prioridades durante algún tiempo, y ahora ha llegado a un punto crítico. mi opinión es que deberíamos gastar más energía en preparar el modelo de próxima generación. preparativos incluyen seguridad, control, confidencialidad, impacto social y otros temas relacionados." - ¿aún recuerdas la renuncia de ilya después de la pelea palaciega mencionada al principio y sus significativas palabras de despedida? lo mismo sucedió esta semana.

en otras palabras, si admitimos que openai es la empresa más cercana al "éxito comercial" en el camino actual de la inteligencia artificial, entonces redondeando hacia arriba,la "súper inteligencia artificial segura" de hecho ha sido eliminada una vez a nivel comercial.

por lo tanto, para este financiamiento de ilya, el mundo exterior generalmente lo interpreta como,se trata de una apuesta desmesurada del capital riesgo por el talento destacado.es más, en las condiciones objetivas de "no rentabilidad a largo plazo", un gran número de empresarios estrella han optado en los dos últimos años por volver a ser "empleados de grandes fábricas" (vinculado a "grandes modelos, haciendo cola para buscar a vender sus vidas") - si todavía hay capital riesgo si están dispuestos a creer la historia del "gran modelo", entonces les quedan muy pocas opciones en el mercado.

ahora, para responder a la segunda historia, es obvio que silicon valley no le ha dado completamente un voto de confianza a ilya. una gran cantidad de artículos señalaron que hay tres figuras centrales en ssi. además de ilya, también están daniel levy, su colega de la época openai, y daniel gross, el conocido inversor ángel mencionado al principio. la importancia de daniel gross ha sido mencionada repetidamente:

daniel gross es la persona con mayor experiencia empresarial del trío. cuando tenía 18 años, fundó el motor de búsqueda personal greplin (más tarde rebautizado como cue) a través del campo de entrenamiento de yc y lo vendió a apple en 2013, ganando más. de 35 millones de dólares. también se unió a apple a través de esa adquisición y comenzó a ser responsable de los proyectos de búsqueda e inteligencia artificial de apple. en 2017, daniel gross regresó a yc como socio y tomó la iniciativa en la creación vertical del negocio de inversión de yc en el ámbito de la inteligencia artificial.

en 2018, creó su propia incubadora de startups, pioneer, que cree que es una actualización necesaria del modelo yc, porque “el software está cambiando el mundo y el trabajo remoto está cambiando el mundo. así es como pueden nacer las grandes empresas en el futuro. , y será la forma en que el capital riesgo debe adaptarse”. la idea fue respaldada por stripe y marc andreessen y se lanzó más de 100 veces en los siguientes 18 meses.

en 2023, completó de nuevo su propia iteración y fundó "andrómeda" con nat friedman, otro conocido inversor ángel en silicon valley: un conjunto de productos con una inversión total de más de 100 millones de dólares y un peso de más de 4.800 kilogramos para soportar proyectos de ia: "clúster informático" para emprendimientos en etapas iniciales: daniel gross cree que esta mina es más adecuada para invertir en proyectos de ia en etapas iniciales que "dinero aburrido".

por lo tanto, no es exagerado decir que el emprendimiento de ilya todavía tiene un carácter similar al de sam altman. es sólo que es más joven y su ego es más pequeño.

en cuanto a la subpregunta relacionada con la segunda pregunta, es decir, si el círculo de capital riesgo norteamericano es más tolerante con los "científicos convertidos en empresarios", sólo puedo decir que también son "lecciones sangrientas". una vez encontré un artículo así. este artículo fue publicado en el sitio web de los institutos nacionales de salud. el autor señaló que la contradicción entre el capital de riesgo y los científicos existe desde hace mucho tiempo, porque "aunque las ideas y los conocimientos de los científicos son necesarios, los llamados conocimientos significan que son necesarios". están en una etapa inmadura." , en esta etapa, sólo una valoración baja puede atraer suficiente atención por parte de los capitalistas de riesgo, lo que hace que los científicos siempre piensen que están en una posición débil y sientan que el capital es algo malo que se está apoderando de sus frutos."

al final del artículo, el autor dejó dos sinceras sugerencias:1. si definitivamente desea invertir en proyectos dirigidos por científicos, debe pensar en cómo permitir que los científicos obtengan capital suficiente pero "apropiado" 2. al invertir en científicos, debe negociar cuidadosamente un acuerdo de transferencia de tecnología razonable;