noticias

“madrina de la inteligencia artificial” li feifei: no sé qué es agi

2024-10-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

fuente de la imagen: universidad de stanford

¿está confundido acerca de la inteligencia general artificial (agi)? esto es lo que openai está obsesionado con crear en última instancia de una manera que "beneficie a toda la humanidad". es posible que desee tomarlos en serio porque acaban de recaudar 6.600 millones de dólares para acercarse a ese objetivo.

pero si todavía te preguntas qué es exactamente el agi, no estás solo.

en la cumbre de liderazgo en inteligencia artificial responsable de credo ai el jueves, li feifei, una investigadora de renombre mundial a menudo llamada la "madrina de la inteligencia artificial", dijo que ella tampoco sabía qué era agi.en otros momentos, fei-fei li habló sobre su papel en el nacimiento de la inteligencia artificial moderna, cómo la sociedad debería protegerse de los modelos avanzados de ia y por qué cree que su nueva startup unicornio, world labs, lo cambiará todo.

pero cuando se le preguntó qué pensaba sobre la "singularidad de la ia", lee estaba tan confundida como el resto de nosotros.

"vengo de la academia en inteligencia artificial y fui educado en un enfoque más riguroso y basado en evidencia, así que realmente no sabía lo que significaban esas palabras", dijo lee en una sala llena en san francisco junto a una puerta que daba al golden puerta los grandes ventanales del puente."francamente, ni siquiera sé lo que significa agi. la gente dice que lo sabes cuando lo ves, y supongo que yo no. de hecho, no paso mucho tiempo pensando en las palabras porque creo que todavía quedan muchas cosas más importantes por hacer..."

si alguien sabe qué es agi, probablemente sea li feifei. en 2006, creó imagenet, el primer conjunto de datos de referencia y entrenamiento de ia a gran escala del mundo, que fue fundamental para catalizar nuestro actual auge de la ia. de 2017 a 2018, se desempeñó como científica jefa de ia/ml en google cloud. hoy, fei-fei li dirige el centro humano para el instituto de ia (hai) de stanford, y su startup world labs está construyendo “modelos mundiales a gran escala”. (en mi opinión, este término es casi tan confuso como agi).

altman, director ejecutivo de openai, intentó definir agi en una entrevista con the new yorker el año pasado.altman describe a agi como "el equivalente humano de nivel medio de un compañero de trabajo que puedes contratar".(equivalente a un ser humano promedio que podría contratar como compañero de trabajo).

mientras tanto, los estatutos de openai definen agi como "sistemas altamente autónomos que superan a los humanos en la mayoría de los trabajos económicamente valiosos".

claramente, estas definiciones no son lo suficientemente buenas para una empresa de 157 mil millones de dólares. por lo tanto,openai ha creado cinco niveles para la evaluación interna de su progreso hacia agi. el primer nivel son los chatbots (como chatgpt), luego los razonadores (aparentemente, openai o1 es este nivel), los agentes (que supuestamente es el siguiente), los innovadores (ia que pueden ayudar a inventar cosas) y el último nivel es el nivel organizacional (ia que puede completar el trabajo de toda la organización).

¿aún estás confundido? yo también, y li también. además, parece mucho más de lo que puede hacer un colega humano promedio.

li mencionó anteriormente en la conversación que ha sentido curiosidad por el concepto de inteligencia desde que era niña. esto la llevó a empezar a investigar la inteligencia artificial antes de que fuera rentable. a principios de la década de 2000, lee dijo que ella y varios otros estaban silenciosamente sentando las bases para este campo.

“en 2012, combiné imagenet con alexnet y gpu, lo que muchos llaman el nacimiento de la inteligencia artificial moderna.está impulsado por tres factores clave: big data, redes neuronales y computación gpu moderna.una vez que llegue ese momento, creo que todo el campo de la inteligencia artificial y nuestro mundo nunca volverán a ser los mismos. "

cuando se le preguntó sobre el controvertido proyecto de ley de inteligencia artificial de california, sb 1047, lee habló con cautela para evitar volver a examinar la controversia que el gobernador newsom acababa de poner fin al vetar el proyecto de ley la semana pasada. (recientemente hablamos con el autor de la sb 1047, quien prefirió reabrir el debate con lee).

“algunos de ustedes tal vez sepan que he expresado mis preocupaciones sobre este proyecto de ley vetado [sb 1047], pero ahora estoy pensando profundamente en ello y mirando hacia el futuro con anticipación”, dijo lee. “me siento muy halagado u honrado de que el gobernador newsom me haya pedido ser parte de los próximos pasos después de la sb 1047”.

el gobernador de california invitó recientemente a lee y a otros expertos en ia a formar un grupo de trabajo para ayudar al estado a desarrollar salvaguardias para los despliegues de ia. lee dijo que utilizará un enfoque basado en evidencia en su cargo y hará todo lo posible para defender la investigación y la financiación académica. sin embargo, también quiere asegurarse de que california no penalice a los trabajadores tecnológicos.

“necesitamos centrarnos realmente en los impactos potenciales sobre las personas y nuestras comunidades en lugar de culpar a la tecnología en sí.…castigamos a los ingenieros automotrices si un automóvil se utiliza indebidamente, intencionalmente o no, y lesiona a una persona—por ej.vadoo general motors- no tiene sentido. simplemente castigar a los ingenieros automotrices no hará que los autos sean más seguros. lo que tenemos que hacer es seguir innovando hacia medidas más seguras y al mismo tiempo mejorar los marcos regulatorios (ya sean cinturones de seguridad o límites de velocidad) y lo mismo ocurre con la inteligencia artificial. "

este es uno de los mejores argumentos que he escuchado a favor de la sb 1047, un proyecto de ley que castigaría a las empresas tecnológicas afectadas por peligrosos modelos de ia.

mientras lee asesora al estado de california sobre la regulación de la ia, también dirige su startup world labs en san francisco. esta es la primera vez que li lanza una startup y es una de las pocas mujeres que dirige un laboratorio de inteligencia artificial de vanguardia.

"todavía estamos lejos de un ecosistema de ia muy diverso", afirmó li. "creo que la inteligencia humana diversa conducirá a una inteligencia artificial diversa y a una mejor tecnología para nosotros".

durante los próximos años, está entusiasmada por acercar la “inteligencia espacial” a la realidad. li dijo que el lenguaje humano, la base de los modelos lingüísticos actuales a gran escala, puede haber tardado millones de años en desarrollarse, mientras que la visión y la percepción pueden haber tardado 540 millones de años. esto significa que crear modelos mundiales grandes es una tarea más compleja.

"no se trata sólo de dejar que la computadora vea, sino de realmente permitir que la computadora comprenda todo el mundo tridimensional, lo que yo llamo inteligencia espacial", dijo li."no sólo vemos para nombrar cosas... realmente vemos para hacer cosas, navegar por el mundo, interactuar entre nosotros y cerrar la brecha entre ver y hacer requiere conocimiento espacial. como tecnólogo, estoy muy emocionado sobre esto”

compilado por: chatgpt