noticias

conversación exclusiva con ilya sutskever sobre ocho preguntas del alma, todo sobre ssi

2024-09-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

autor|xuushan, editor|manmanzhou

con una persona con una valoración de 5 mil millones, ¿qué tipo de agi quiere construir ilya?

el 5 de septiembre, según reuters, safe superintelligence (ssi) fue fundada por ilya sutskever, ex científico jefe de openai.mil millones de dólares en efectivo recaudados. personas familiarizadas con el asunto revelaron:después de la financiación, la valoración de la empresa alcanzó los 5.000 millones de dólares.la compañía planea utilizar los fondos para comprar potencia informática y contratar a los mejores talentos para ayudar a desarrollar sistemas de inteligencia artificial seguros que superen con creces las capacidades humanas. los funcionarios de ssi también han confirmado que la noticia es cierta.

ssi se estableció en junio de 2024. el equipo fundador está formado por ilya sutskever, daniel levy y daniel gross. actualmente, ilya sutskever se desempeña como científico jefe, daniel levy se desempeña como científico principal y daniel gross se desempeña como director ejecutivo, responsable de la potencia informática y la recaudación de fondos. ssi cuenta actualmente con 10 empleados y opera bajo una estructura convencional con fines de lucro.

ssi no lanzó ningún producto y pudo obtener alta financiación y valoraciones altas cuando se estableció hace menos de cuatro meses. es precisamente gracias a la sólida experiencia industrial de estas tres personas. los inversores están dispuestos a hacer grandes apuestas por talentos destacados centrados en la investigación básica de la ia.

ilya sutskever es uno de los expertos técnicos más influyentes en el campo de la inteligencia artificial. estudió con geoffrey hinton, conocido como el "padrino de la inteligencia artificial", y fue uno de los primeros defensores de la hipótesis extendida. esta hipótesis sostiene que el rendimiento de la ia mejora con el aumento de grandes cantidades de potencia informática, lo que también sienta las bases para la explosión de la ia generativa.

daniel gross fue jefe de tecnología de inteligencia artificial en apple y ex socio de y combinator, mientras que daniel levy es un ex empleado de openai.

por ahora, ssi se centrará en formar un pequeño equipo de investigadores e ingenieros con sede en palo alto, california, y tel aviv, israel.

entre los inversores se encuentran las principales firmas de capital riesgo andreessen horowitz, sequoia capital, dst global y sv angel. también participa nfdg, una sociedad de inversión dirigida por nat friedman y el director ejecutivo de ssi, daniel gross.

gross dijo en una entrevista: "para nosotros es importante tener inversores que entiendan, respeten y apoyen nuestra misión, que es avanzar directamente hacia una superinteligencia segura, especialmente enpasamos varios años en investigación y desarrollo antes de lanzar un producto al mercado.。”

después de que se publicó la información sobre la financiación de ssi, reuters inmediatamente tuvo un intercambio profundo con ilya sutskever. ilya también respondió a una serie de preguntas sobre si ssi es de código abierto y su desarrollo futuro. de la entrevista se desprende que concede gran importancia a la seguridad de super agi.

lo siguiente es compilado por silicon rabbit sin afectar el texto original, ¡disfrútalo!

01

p: razones para establecer ssi

ilia: "encontramos una montaña que es un poco diferente de lo que he estado trabajando antes... una vez que subes a la cima de esta montaña, el paradigma cambia... lo que sabemos sobre la inteligencia artificial cambiará nuevamente. en ese momento en este punto, lo que más importa: la seguridad súper inteligente será importante”.

"nuestro primer producto será sobre seguridad de superinteligencia".

02

p: ¿inventarás una inteligencia artificial tan inteligente como los humanos antes que la superinteligencia?

ilia: "creo que la pregunta es: ¿es seguro? es uno de los mayoressé amableel poder de? creo que el mundo será tan diferente cuando hagamos eso que será difícil darte un plan claro.

puedo decirte que el mundo va a ser muy diferente. el mundo verá lo que está sucediendo en la ia de manera muy diferente y será difícil de entender.esta será una conversación más intensa.. puede que no dependa sólo de las decisiones que tomemos nosotros mismos. "

03

p: ¿cómo determina ssi qué es la inteligencia artificial segura?

ilia: "para poder responder completamente a su pregunta, necesitamos hacer una investigación importante. especialmente si piensa como nosotros, las cosas van a cambiar mucho... están surgiendo muchas ideas geniales.

mucha gente está pensando,a medida que la ia se vuelve más poderosa, ¿qué pasos debemos tomar y qué pruebas debemos realizar?esto es un poco complicado. todavía queda mucha investigación por hacer. no quiero decir que ahora haya una respuesta clara. pero esa es una de las cosas que tenemos que resolver. "

04

p: acerca de las suposiciones extendidas y la seguridad de la inteligencia artificial

ilia: "todo el mundo se limita a decir 'hipótesis ampliada'. todo el mundo se olvida de preguntar¿qué estamos escalando exactamente?los principales avances en el aprendizaje profundo durante la última década se basaron en una formulación especial de la hipótesis extendida. pero cambiará... y a medida que cambie, las capacidades del sistema aumentarán. los problemas de seguridad van a ser más graves y eso es lo que debemos abordar. "

05

p: investigación sobre ssi de código abierto

ilia:"actualmente,no todas las empresas de ia abrirán su trabajo, nosotros también. pero creo que debido a ciertos factores, tendremos muchas oportunidades para abrir el trabajo de seguridad de superinteligencia relacionado con el código abierto. quizás no todos, pero sí algunos. "

06

p: sobre el trabajo de investigación de seguridad de otras empresas de inteligencia artificial

ilia: "de hecho, tengo una muy buena opinión de esta industria. creo que a medida que la gente avance, todas las diferentes empresas se darán cuenta de eso, tal vez en momentos ligeramente diferentes, según la naturaleza de los desafíos que enfrentan. por lo tanto, no vamos a decir: no creemos que nadie pueda hacerlo, pero creemos que podemos contribuir”.

07

p: ¿qué tipo de empleados contratar?

ilia: "algunas personas pueden trabajar muchas horas, pero rápidamente se recuperan. eso no encaja del todo con nuestro estilo. pero si eres bueno en esohacer algo diferente, entonces tienes el potencial de hacer algo especial (con nosotros). "

"lo que nos emociona es descubrir que este empleado está interesado en nuestro trabajo, no en la tendencia o en algún contenido publicitario".

"pasaremos horas investigando candidatos por su 'buen carácter' y buscaremos personas con habilidades excepcionales, en lugar de enfatizar demasiado las calificaciones y la experiencia en el campo".

08

p: sobre el desarrollo futuro de ssi

ilia"escalaremos de una manera diferente a openai".

la empresa planea asociarse con proveedores de nube y empresas de chips para financiar sus necesidades de potencia informática, pero aún no ha decidido con qué empresas asociarse.

enlaces de referencia:

ilya sutskever habla sobre cómo cambiará la ia y su nueva startup safe superintelligence (reuters)