noticias

ilya vuelve a advertir: el paradigma de la ia cambiará y la seguridad superinteligente se convertirá en la más crítica

2024-09-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

los peces y las ovejas proceden del templo de aofei.

qubits | cuenta pública qbitai

la empresa tiene solo 10 personas y ha recaudado una ronda de financiación inicial.mil millones de dólares

este tipo de cosas asombrosas sólo pueden sucederilya sutskeveren el cuerpo, parece un poco "normal".

ilya, en un momento en el que las grandes modelos están arrasando en el mundo, se reconoce que su contribución ha alcanzadocambiar el mundonivel:

es uno de los tres autores de alexnet. después de ser llevado furtivamente a google con su mentor hinton, estuvo profundamente involucrado en el proyecto alphago que conmocionó al mundo.

en 2015, participó en la fundación de openai y se desempeñó como científico jefe. chatgpt vuelve a cambiar el mundo y se le considera una de las figuras más importantes detrás de ello.

desde noviembre del año pasado, cada movimiento de ilya ha pasado a primer plano y ha atraído la atención del círculo tecnológico global:

las luchas internas en la junta directiva de openai iniciadas por él revelaron una disputa sobre la ruta de desarrollo de modelos grandes. después de que se separó por completo de openai en mayo de este año, todos están esperando su próximo movimiento empresarial.

ahora, el polvo se está asentando. el propio ilya, que siempre ha sido discreto, también compartió más información sobre su empresa ssi y su propia opinión sobre agi en este momento.

en un intercambio con reuters, ilya respondió seis preguntas clave. a continuación se muestra el texto original:

¿por qué se creó ssi?

hemos descubierto una "gran montaña" que es un poco diferente a mi trabajo anterior...una vez que se llega a la cima de esta montaña, el paradigma cambia…todo lo que sabemos sobre la inteligencia artificial está a punto de cambiar nuevamente.

en ese momento, los esfuerzos de seguridad superinteligentes se volverán críticos.

nuestro primer producto será una superinteligencia segura.

antes de la superinteligencia, ¿se lanzará una ia que sea tan inteligente como los humanos?

creo que la clave es: ¿es seguro? ¿es una fuerza para el bien en el mundo? creo que cuando hagamos eso, el mundo cambiará mucho. por eso es bastante difícil dar un plan claro de "lo que vamos a hacer" ahora mismo.

lo que puedo decirles es que el mundo va a ser un lugar muy diferente. la percepción del mundo exterior sobre lo que está sucediendo en la ia cambiará dramáticamente y será difícil de entender. esta será una conversación más intensa. puede que no dependa sólo de nuestra decisión.

¿cómo determina ssi qué es la inteligencia artificial segura?

para responder a esta pregunta, necesitamos realizar algunas investigaciones importantes. especialmente si eres como nosotros y crees que las cosas están a punto de cambiar mucho... se están descubriendo muchas ideas geniales.

mucha gente está pensando en qué pruebas se deben realizar para la ia a medida que se vuelve más poderosa. es un poco complicado y hay mucha investigación por hacer.

no quiero decir que ahora haya una respuesta clara. pero esa es una de las cosas que tenemos que resolver.

acerca de los supuestos de escala y la seguridad de la ia

todo el mundo habla de la "hipótesis de escala", pero todos ignoran una pregunta: ¿qué estamos escalando?

el gran avance en el aprendizaje profundo en la última década fue una formulación específica del supuesto de escala. pero cambiará... y a medida que cambie, las capacidades del sistema aumentarán y los problemas de seguridad se volverán más apremiantes, y eso es lo que debemos abordar.

¿ssi será de código abierto?

actualmente, no todas las empresas de ia utilizan el código abierto para su trabajo principal, y nosotros tampoco. pero creo que, dependiendo de ciertos factores, habrá muchas oportunidades para abrir el trabajo de seguridad superinteligente. quizás no todos, pero sí algunos.

reflexiones sobre los esfuerzos de investigación de seguridad de otras empresas de ia

de hecho, tengo una opinión muy alta de la industria. creo que a medida que la gente siga progresando, todas las empresas se darán cuenta -probablemente en diferentes momentos- de la naturaleza de los desafíos que enfrentan. entonces no es que pensemos que nadie más puede hacerlo, sino que pensamos que podemos contribuir.

¿para qué se utilizan mil millones de dólares?

finalmente, agregue información de fondo además de las palabras de ilya.

la noticia de ssi se publicó por primera vez en junio de este año. el objetivo es muy claro: hacer lo que ilya no logró en openai: crear una superinteligencia segura.

actualmente, ssi solo tiene 10 empleados. después de recaudar fondos, planea utilizarlos para comprar potencia informática y contratar a los mejores talentos.

aquellos que están de acuerdo con sus ideas y están mentalmente preparados para que la ia algún día supere la inteligencia humana.

el cofundador daniel gross también reveló que no prestan demasiada atención a las calificaciones y la experiencia, sino que pasan horas revisando si los candidatos tienen "buen carácter".

en términos de potencia informática, ssi planea cooperar con fabricantes de nubes y empresas de chips. aún no está claro con qué empresas cooperar ni cómo cooperar.

además del propio ilya, los cofundadores de ssi incluyen a daniel gross y daniel levy.

△izquierda: daniel gross; derecha: daniel levy

daniel gross se graduó en el departamento de ciencias de la computación de la universidad de harvard y anteriormente fue uno de los socios de y combinator. también fundó o participó en la fundación de muchas empresas, incluidas citrus lane, writelatex (más tarde rebautizada como overleaf), etc.

fue catalogado como una de las "personas más influyentes en inteligencia artificial" por la revista time 100.

daniel levy se graduó en el departamento de ciencias de la computación de stanford y anteriormente fue jefe del equipo de optimización de openai.