noticias

después de que google pasó 7 años trabajando en el proyecto de alunizaje y fracasó, ceo de alphabet: ¿las máquinas tienen que ser como los humanos?

2024-09-16

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

hans peter brondmo, ex director ejecutivo de alphabet. en 2016 se incorporó a google y fue responsable del desarrollo de robots. en aquella época lo más popular eran las redes sociales y la internet móvil. la inteligencia encarnada era como un castillo en el aire: todo el mundo la anhelaba, pero estaba demasiado lejos.

incluso el propio brondmo, la tarea cuando se unió no era un gran proyecto, sino porque google había adquirido 9 empresas de robótica una tras otra, y tenía que organizar el personal y la tecnología de estas empresas.

estos ingenieros de robots finalmente se integraron en el laboratorio google x, conocido como "moon landing factory".

la "moon landing factory" ha estado profundamente involucrada en el campo de la robótica durante siete años. más tarde, con la aparición de grandes modelos de lenguaje, el futuro de la inteligencia incorporada nunca ha sido más deslumbrante. sin embargo, google decidió cerrar el proyecto everyday robots. , que tenía grandes esperanzas en este laboratorio.

recientemente, brondmo escribió un largo artículo para la revista "wired", repasando su trayectoria en google y una pregunta en la que reflexiona desde hace mucho tiempo: ¿las máquinas tienen que ser como las "personas"?

el siguiente es el archivo léame de brondmo, compilado y resumido.

los robots son difíciles, difíciles de "aterrizar en la luna".

google

el

nos esforzamos mucho en alentar a nuestros miembros a tomar riesgos, experimentar rápidamente e incluso "celebrar el fracaso" porqueel fracaso simplemente significa que las metas que nos fijamos son extremadamente elevadas.

cuando me uní, el laboratorio ya estaba incubando waymo, google glass y otros proyectos que parecían ciencia ficción, como molinos de viento y globos de energía voladores que llegarían a la estratosfera para llevar internet a áreas desatendidas.

lo que diferencia al proyecto x de otras nuevas empresas de silicon valley es que se anima a los miembros de x a pensar en grande y a largo plazo. de hecho, para que un proyecto sea considerado un éxito, x tiene un conjunto de "fórmulas" para juzgarlo.

en primer lugar, el proyecto debe demostrar que el problema que resuelve afecta a cientos de millones o incluso miles de millones de personas. en segundo lugar, debe haber una tecnología innovadora que nos proporcione nuevas formas de resolver problemas. finalmente, es necesario que exista una solución empresarial o de producto radical que pueda parecer al borde de la locura, pero que no sea completamente inviable.

dale un "cuerpo" a la ia

es difícil imaginar a alguien mejor preparado para dirigir x que astro teller, cuyo título era literalmente "capitán del moonshot". dentro del edificio google x, unos grandes almacenes reconvertidos de tres pisos, siempre puedes encontrar a astro usando sus característicos patines.

agregue su cola de caballo, su sonrisa siempre amigable y, por supuesto, el nombre "astro", y es posible que sienta que ha entrado en la serie de hbo "silicon valley".

cuando astro y yo nos sentamos por primera vez a discutir qué deberíamos hacer con la empresa de robótica que adquirió google, acordamos que deberíamos tomar medidas, pero ¿qué?

hasta ahora, la mayoría de los robots útiles han sido grandes, poco inteligentes y peligrosos, confinados a fábricas y almacenes y requerían una estrecha supervisión o jaulas para proteger a las personas de cualquier daño.¿cómo podemos crear robots que sean útiles y seguros en entornos cotidianos?esto requiere un nuevo enfoque.

en otras palabras, le estamos dando a la ia un cuerpo en el mundo físico, y si hay un lugar donde se puede concebir un proyecto de esta escala, estoy seguro de que es x.

va a llevar mucho tiempo, mucha paciencia, intentar ideas locas y fracasar en muchos intentos.se necesitarán avances importantes en inteligencia artificial y robótica, que probablemente costarán miles de millones de dólares (sí, miles de millones).

la convergencia de la ia y la robótica es inevitable y creemos que muchas cosas que hasta ahora sólo existían en la ciencia ficción están a punto de convertirse en realidad.

es muy dificil

aproximadamente todas las semanas hablo con mi madre por teléfono y ella siempre comienza con la misma pregunta: "¿cuándo llegarán los robots?".

ni siquiera saluda, sólo quiere saber cuándo vendrá nuestro robot a ayudarla. yo respondía: "va a tomar un tiempo, mamá", y ella decía: "¡será mejor que se den prisa!".

hans peter brondmö

mi madre vive en oslo, noruega, que cuenta con una excelente atención de salud pública; los cuidadores vienen a su departamento tres veces al día para ayudarla con una variedad de tareas y quehaceres domésticos, en su mayoría relacionados con su avanzada enfermedad de parkinson.

si bien estos cuidadores le permitieron vivir sola en su propia casa, mi madre quería que el robot la ayudara con las pequeñas cosas que ahora le resultaban demasiado embarazosas de manejar, o simplemente que le proporcionara un brazo en el que apoyarse de vez en cuando.

"sabes que la robótica es un problema sistémico, ¿verdad?", me preguntó jeff con una mirada inquisitiva. jeff bingham es un tipo delgado y sensato con un doctorado en bioingeniería. creció en una granja y era conocido por saber casi todo.

un punto importante que jeff está tratando de señalar es:un robot es un sistema muy complejo y su rendimiento general es tan bueno como su eslabón más débil.

por ejemplo, si el subsistema responsable de la visión tiene dificultades para detectar objetos frente a él bajo la luz solar directa, el robot puede "quedarse ciego" repentinamente y dejar de funcionar cuando la luz del sol entra por la ventana.

o, si el sistema de navegación no entiende las escaleras, el robot podría caerse por las escaleras, hiriendose a sí mismo y posiblemente a transeúntes inocentes. por ello, construir un robot que pueda vivir y trabajar junto a nosotros es difícil. realmente, muy difícil.

durante décadas, la gente ha intentado programar diversas formas de robots para realizar incluso tareas simples, como tomar una taza de una mesa o abrir una puerta, pero estos programas siempre han terminado siendo extremadamente frágiles ante el más mínimo cambio en el entorno. fallará.

una vez que empiezas a pensar en todo esto, te das cuenta de que, a menos que bloquees todo para que esté en una posición fija y preestablecida, y la luz sea la correcta y nunca cambie, es sólo cuestión de coger una manzana verde, ponerla. en un recipiente de vidrio sobre la mesa de la cocina, se convierte en un rompecabezas casi imposible de resolver, razón por la cual los robots en las fábricas están encerrados y todo, desde la iluminación hasta la ubicación de los elementos en los que trabajan, se puede resolver. preocuparse por toparse con gente.

el mundo real carece de previsibilidad, como ese rayo de sol.y ni siquiera hemos tocado las partes realmente difíciles, como movernos por los espacios desordenados en los que vivimos y trabajamos.

cómo entender los robots de aprendizaje

pero aparentemente, sólo necesitas 17 expertos en aprendizaje automático.

al menos eso es lo que me dijo larry page, una de sus ideas clásicas y difíciles de entender.

estoy tratando de argumentar que no podemos construir una infraestructura de hardware y software con solo un pequeño grupo de investigadores de aprendizaje automático.

agitó la mano con desaprobación y dijo: "sólo necesitas 17".

estoy confundido. ¿por qué no 11? ¿o 23? debo haberme perdido algo.

en definitiva, existen dos formas principales de aplicar la ia en la robótica. el primero es un enfoque híbrido, en el que diferentes partes del sistema son impulsadas por ia y luego unidas mediante programación.

en este enfoque, el subsistema de visión podría utilizar ia para identificar y clasificar el mundo que ve. una vez que crea una lista de los objetos que ve, el robot recibe la lista y utiliza métodos en el código para actuar en consecuencia.

por ejemplo, si el programa está escrito para recoger la manzana de la mesa, el sistema de visión impulsado por ia detectará la manzana y el programa seleccionará "tipo: apple" de la lista y luego usará el software de control para preguntar. el robot para alcanzarlo.

otro enfoque es el aprendizaje de un extremo a otro (e2e), que intenta aprender la tarea completa. cosas como "recoger un objeto" o incluso esfuerzos más completos como "ordenar la mesa". el proceso de aprendizaje se logra exponiendo el robot a grandes cantidades de datos de entrenamiento, de manera muy similar a como los humanos aprenden a realizar una tarea física.

si le pide a un niño pequeño que tome una taza, es posible que necesite aprender qué es una taza y que puede contener líquido. mientras jugaba con la taza, la volteaba repetidamente, derramando mucha leche en el proceso. pero a través del modelaje, la imitación de otros y mucha práctica lúdica, siempre pueden aprender a hacerlo, y eventualmente sin siquiera pensar en los pasos.

poco a poco entendía menos que finalmente demostremos que los robots pueden aprender a realizar tareas de un extremo a otro, nada más importará.sólo entonces tendremos una posibilidad real de que los robots realicen de manera confiable estas tareas en el caótico e impredecible mundo real, lo que nos calificará para ser verdaderamente un proyecto a la luna.

no se trata del número “17”, se trata delos grandes avances requieren equipos pequeños, en lugar de un ejército de ingenieros. obviamente, un robot es más que su cerebro de ia; todavía necesitamos diseñar y construir un robot físico.

sin embargo, está claro que una misión exitosa de un extremo a otro nos llevaría a creer (en el lenguaje del programa de alunizaje) que podemos escapar de la gravedad de la tierra.

robot de un solo brazo

peter pastor es un robótico alemán que obtuvo su doctorado en robótica en la universidad del sur de california. en los raros momentos en que no tiene que trabajar, peter intenta ponerse al día con su novia y practicar kitesurf. en el laboratorio, pasó la mayor parte de su tiempo controlando 14 brazos robóticos patentados, que luego fueron reemplazados por siete brazos robóticos industriales de kuka. a esta configuración la llamamos "mecánica".

estos brazos robóticos funcionan las 24 horas del día, intentando constantemente recuperar objetos de una caja, como esponjas, ladrillos lego, patitos amarillos o plátanos de plástico. inicialmente, fueron programados para mover una pinza con forma de garra dentro de la caja desde una posición aleatoria encima de ella, cerrar la pinza, tirar hacia arriba y ver si atrapaban algo. hay una cámara encima de la caja que captura los objetos dentro de la caja, los movimientos del brazo robótico y si tuvo éxito.

esta formación continuó durante varios meses. al principio, el robot sólo tenía una tasa de éxito del 7%. pero cada vez que el robot tiene éxito, recibe un refuerzo positivo. para los robots, esto básicamente significa que los llamados "pesos" en la red neuronal se ajustan en función de diversos resultados para reforzar positivamente los comportamientos deseados y reforzar negativamente los comportamientos indeseables. con el tiempo, los brazos aprendieron a agarrar objetos con éxito más del 70 por ciento de las veces.

un día, peter me mostró un vídeo de un brazo robótico que no solo agarraba con precisión un ladrillo lego amarillo, sino que también empujaba otros objetos para conseguir un ángulo de agarre más claro.

sabía que esto marcaba un verdadero punto de inflexión: el brazo robótico no estaba programado explícitamente para realizar esta acción utilizando la heurística tradicional.se adquiere a través del aprendizaje

pero aun así, ¿siete robots tardaron varios meses en aprender a atrapar un patito amarillo? esto está lejos de ser suficiente. incluso cientos de robots y varios años de práctica no son suficientes para enseñarles a realizar sus primeras tareas útiles en el mundo real. por eso construimos un simulador basado en la nube y creamos más de 240 millones de instancias de robots virtuales en 2021.

piense en este simulador como un videojuego gigante, con modelos físicos lo suficientemente realistas como para simular el peso de los objetos o la fricción de la superficie.

miles de robots virtuales utilizan sus cámaras virtuales y cuerpos virtuales (modelados a partir de robots reales) para realizar tareas como levantar una taza de una mesa.

se ejecutarían simultáneamente, intentándolo y fallando millones de veces, recopilando datos para entrenar los algoritmos de ia. una vez que los robots se desempeñan lo suficientemente bien en las simulaciones, estos algoritmos se transfieren a robots físicos para su entrenamiento final en el mundo real, de modo que puedan implementar las acciones recién aprendidas.

siempre pienso en este proceso de simulación como un robot que sueña toda la noche y luego se despierta habiendo aprendido algo nuevo.

tonto, el problema son los datos.

cuando nos despertamos por primera vez con chatgpt, parecía mágico. un sistema impulsado por ia puede realmente escribir párrafos completos, responder preguntas complejas y entablar conversaciones continuas. pero al mismo tiempo, también entendemos sus limitaciones fundamentales: para lograrlo, necesitamos consumir una gran cantidad de datos.

los robots ya están aprovechando grandes modelos de lenguaje para entender instrucciones y modelos visuales para entender lo que ven, lo que hace que sus vídeos de demostración en youtube parezcan increíbles.

pero enseñar a los robots a vivir y trabajar de forma autónoma con nosotros es un problema de datos igualmente enorme. aunque existen entrenamientos simulados y otras formas de generar datos de entrenamiento,es poco probable que un robot "se despierte" algún día con un alto grado de capacidad y, en cambio, dependa de un modelo básico que pueda controlar todo el sistema.

todavía no estamos seguros de qué tareas complejas podemos enseñar a realizar a los robots con ia. he llegado a creer que, salvo aquellas tareas muy limitadas y bien definidas, lograr que los robots aprendan cualquier cosa puede requerir miles o incluso millones de robots que realicen tareas repetidamente en el mundo real y recopilen suficientes datos para entrenar de principio a fin. modelos finales. en otras palabras, no esperemos que los robots escapen de nuestro control en el corto plazo y hagan cosas para las que no están programados.

¿realmente deberían parecerse a nosotros?

los caballos son muy eficientes cuando caminan y corren sobre cuatro patas, pero nosotros diseñamos automóviles con ruedas; el cerebro humano es una computadora biológica extremadamente eficiente, y las computadoras basadas en chips están lejos del rendimiento de nuestro cerebro. ¿por qué los coches no tienen patas y por qué las computadoras no están modeladas según nuestra biología?

el objetivo de construir un robot no debería ser sólo imitar.

esto lo aprendí el otro día cuando estaba en una reunión con los líderes técnicos de everyday robots. nos sentamos alrededor de la mesa de conferencias, debatiendo si nuestro robot debería tener patas o ruedas.

estas discusiones a menudo tienden a derivar en debates religiosos en lugar de discusiones científicas o basadas en hechos. algunas personas insisten mucho en que los robots deberían parecerse a las personas, y por una buena razón: diseñamos nuestros entornos de vida y de trabajo para acomodar a los humanos, y tenemos piernas, por lo que tal vez los robots también deberían tener piernas.

después de unos 30 minutos, vincent dureau, el director de ingeniería de mayor rango en la sala, habló. "pensé que si yo podía llegar a algún lado, un robot debería poder llegar allí", dijo simplemente, sentado en su silla de ruedas.

la sala quedó en silencio y la discusión terminó.

de hecho, las patas de los robots son complejas tanto mecánica como electrónicamente. no se mueven muy rápido, tienden a hacer que el robot sea inestable y no son muy eficientes energéticamente en comparación con las ruedas.

hoy en día, cuando veo empresas que intentan crear robots humanoides (robots que se esfuerzan por imitar la forma y función humanas), a menudo me pregunto si esto es una limitación de la imaginación.

hay tantos diseños por explorar que pueden complementar las deficiencias humanas, ¿por qué deberíamos insistir en la imitación?las palabras de vicente nos recuerdan que debemos priorizar los problemas más difíciles y de mayor impacto.en everyday robots, intentamos que nuestros robots sean lo más simples posible porque cuanto antes un robot pueda realizar tareas del mundo real, más rápido podremos recopilar datos valiosos.

¿qué se siente estar rodeado de robots?

estaba sentado en mi escritorio cuando un robot de un solo brazo con una cabeza rectangular redondeada se dio la vuelta, me llamó por mi nombre y me preguntó si quería que limpiara. dije que sí y me hice a un lado.

unos minutos más tarde, recogió varios vasos de papel vacíos, una taza de té helado transparente de starbucks y un envoltorio de plástico de una barrita energética kind. colocó los artículos en una bandeja de basura adjunta a la base, luego se volvió hacia mí, asintió y pasó al siguiente escritorio.

este servicio de limpieza de escritorios representa un hito importante: demuestra que estamos avanzando a buen ritmo hacia la resolución de una pieza sin resolver del rompecabezas de la robótica. ¡los robots están empezando a utilizar la ia de forma fiable para reconocer personas y objetos!

benji holson es ingeniero de software y ex titiritero que dirige el equipo de desarrollo del servicio. siempre ha abogado por un enfoque híbrido y no se opone a las tareas de aprendizaje de un extremo a otro, sino que prefiere una actitud de "déjenles hacer algo útil ahora".

estoy acostumbrado a que los robots se muevan haciendo tareas como limpiar mi escritorio. de vez en cuando veo nuevos visitantes o ingenieros que acaban de unirse al equipo, con expresiones de sorpresa y alegría en sus rostros, observando la ocupada figura del robot.

desde su perspectiva, me di cuenta de lo novedoso que era todo. como dijo nuestro jefe de diseño rhys newman (con su acento galés) cuando vio pasar al robot un día: "¿no es un poco extraño que esto se haya convertido en la norma?"

todo termina, es solo el comienzo.

a finales de 2022, los debates sobre "métodos híbridos" y "de un extremo a otro" siguen activos.

peter y su equipo, junto con nuestros colegas de google brain, han estado trabajando arduamente para aplicar aprendizaje por refuerzo, aprendizaje por imitación y arquitecturas transformer a múltiples tareas robóticas. han logrado avances significativos al mostrar cómo los robots pueden aprender de una manera general, sólida y resiliente.

mientras tanto, el equipo de aplicaciones dirigido por beinji está combinando modelos de ia con programación tradicional para crear prototipos y construir servicios robóticos que puedan implementarse en entornos humanos.

mientras tanto, una colaboración con la bailarina katie en una instalación multirobótica que se conoció como proyecto starling cambió mi forma de sentir acerca de estas máquinas.

noté que la gente se sentía atraída por estos robots con una sensación de asombro, alegría y curiosidad. esto me hizo comprender cómo los robots que se mueven entre nosotros y los sonidos que emiten pueden desencadenar profundas emociones humanas; este será uno de los factores clave para darles la bienvenida a nuestra vida diaria;

en otras palabras, estamos a punto de cumplir nuestra mayor apuesta: robots impulsados ​​por ia. la ia les da la capacidad de comprender el lenguaje que escuchan (hablado y escrito) y traducirlo en acciones, o de comprender lo que ven (imágenes de la cámara) y traducirlo en escenas y objetos que pueden manipular.

después de más de siete años de trabajo, contamos con una flota de robots desplegados en varios edificios de google. el mismo tipo de robot realiza una variedad de servicios: limpiar automáticamente las mesas de la cafetería, inspeccionar salas de conferencias, clasificar la basura y más.

sin embargo, en enero de 2023, dos meses después de que openai lanzara chatgpt, google cerró everyday robots, citando problemas de costos generales.

si bien fue ciertamente costoso y largo, aun así fue un shock para todos los involucrados. finalmente, el robot y un puñado de empleados fueron transferidos a google deepmind para continuar con la investigación.

el enorme problema que tenemos que resolver es un cambio demográfico global: una población que envejece, una fuerza laboral cada vez más reducida y escasez de mano de obra. y nuestra tecnología revolucionaria (lo supimos en 2016) sería la inteligencia artificial. la solución radical: robots totalmente autónomos que puedan ayudarnos con las tareas que surgen en nuestra vida diaria.

el robot no apareció a tiempo para ayudar a mi madre y ella falleció a principios de 2021. mis conversaciones con ella hacia el final de su vida reforzaron mi creencia de que eventualmente llegarían versiones futuras de everyday robots. y cuanto antes llegue, mejor.

entonces la pregunta es: ¿cómo se produce este cambio y este futuro? estoy preocupado y curioso al mismo tiempo.