noticias

El "padrino de la IA", Bengio, dijo: Es posible que los seres humanos no puedan resolver los riesgos de la IA y los problemas de supervisión de políticas en 10 años

2024-08-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Noticias de la aplicación Titanium Media el 24 de agosto deYoshua Bengio, un informático canadiense conocido como el "Padrino de la IA", pionero en tecnología de aprendizaje profundo y ganador del Premio Turing 2018, afirmó públicamente que con el lanzamiento de ChatGPT, el tiempo para los riesgos de la tecnología de IA se ha reducido. .Lamentablemente, no podemos utilizar diez años para resolver los problemas de supervisión de políticas y riesgos de la IA, sino un tiempo más corto, por lo que la industria debe actuar ahora para acelerar la implementación de políticas de seguridad de la IA.

“Se necesita mucho tiempo para crear políticas, se necesitan años de desacuerdos para resolverse, se necesitan años para promulgar legislación como esta, hay procesos que deben implementarse, se necesitan años para hacer esto bien”, Bengio dijo a Bloomberg. Ahora les preocupa que tal vez no haya mucho tiempo para “hacerlo bien”.Y lo que es peor es que los riesgos de la IA no son sólo una cuestión regulatoria, es un tratado internacional, y necesitamos resolver este problema a escala global.

Se informa que Bengio nació en París y creció en Canadá. Ahora vive en Montreal, Canadá, y trabaja como profesor en el Departamento de Informática y Computación de la Universidad de Montreal. Recibió su doctorado en Ciencias de la Computación de la Universidad McGill en Canadá en 1991. Las principales áreas de investigación de Bengio son el aprendizaje profundo y el procesamiento del lenguaje natural.

En sus más de 30 años de carrera investigadora en aprendizaje profundo, Bengio ha publicado más de 300 artículos académicos y ha sido citado más de 138.000 veces. Ng Enda dijo una vez que los numerosos estudios teóricos de Bengio lo habían inspirado mucho.

En 2018, él, el "padre de las redes neuronales" Geoffrey Hinton y el "padre de las redes convolucionales" Yann LeCun ganaron el "Premio Turing" por ser pioneros en la teoría de la tecnología de aprendizaje profundo. Los tres también son llamados "IA". la industria de la IA "Tres grandes", "Tres grandes del aprendizaje profundo", "Tres padrinos de la IA".

Bengio, uno de los "Tres Gigantes del Aprendizaje Profundo", señaló una vez que se está abusando del término IA. Algunas empresas han antropomorfizado los sistemas de IA, como si el sistema de IA fuera una entidad inteligente equivalente a los seres humanos. De hecho, todavía no existe ninguna entidad inteligente comparable a la inteligencia humana. Por supuesto, todavía ama la IA como tecnología.

Bengio dijo que antes de la aparición de ChatGPT a finales de 2022, creía que los riesgos reales de la IA no aparecerían durante al menos décadas. Hubo un tiempo en el que no estaba muy preocupado por los problemas de seguridad de la IA y creía que los humanos estaban muy lejos. de desarrollar una tecnología que podría rivalizar con los humanos. Si bien todavía faltan "décadas" para la tecnología de la IA, asume que podemos "cosechar los beneficios de la IA" durante años antes de enfrentar los riesgos.

Pero ahora, el lanzamiento de ChatGPT le ha hecho cambiar de opinión por completo. Ya no estaba tan seguro. Sus suposiciones sobre la velocidad del desarrollo de la IA (y las amenazas potenciales que la tecnología representa para la sociedad)Fue subvertido después de que OpenAI lanzó ChatGPT a fines de 2022, porque llegó la tecnología de inteligencia artificial a nivel humano.

“Cambié completamente de opinión desde que finalmente tuvimos máquinas que podían hablar con nosotros (ChatGPT)”, dijo Bengio. “Ahora tenemos máquinas de inteligencia artificial que pueden entender el lenguaje. No esperábamos que esto sucediera tan pronto. No creo que nadie realmente esperara esto, ni siquiera las personas que construyeron estos sistemas. Se puede ver que la gente pensaba que podrían pasar años, décadas o incluso más antes de que alcancemos la inteligencia a nivel humano. -A nivel de inteligencia, es difícil predecir qué sucederá: si terminaremos con algo realmente bueno o algo realmente malo, y cómo responderemos a eso. Eso es lo que impulsa mi trabajo actual en ciencia y política. .”

Después de que ChatGPT desató una discusión global sobre los riesgos de la IA, Bengio comenzó a dedicar más energía a defender la regulación de la IA y, junto con su colega académico y pionero de la IA Geoffrey Hinton, apoyó públicamente un controvertido proyecto de ley de seguridad de la IA de California SB1047, que el proyecto de ley Responsabilizar a las empresas por los daños catastróficos causados ​​por sus modelos de IA sin tomar precauciones de seguridad.

Bengio cree que esta es la “segunda propuesta más importante sobre la mesa”, sólo superada por el proyecto de ley de IA de la UE.

El 15 de agosto, hora local, la controvertida Ley de Innovación en Seguridad del Modelo Frontier de IA de California (más tarde conocida como Ley de Seguridad de la IA de California SB 1047) finalmente pasó la revisión del Comité de Asignaciones de la Cámara de Representantes de California después de debilitar significativamente las disposiciones pertinentes.

La SB 1047 tiene como objetivo prevenir incidentes de ciberseguridad en los que sistemas de inteligencia artificial a gran escala matan a un gran número de personas o causan pérdidas superiores a 500 millones de dólares al responsabilizar a los desarrolladores. Después de aprobar con éxito la revisión, esto significa que el proyecto de ley ha dado un paso importante para convertirse en una ley y un reglamento formales, y también es un paso importante en la supervisión de la IA en los Estados Unidos.

Sin embargo, la Ley de Seguridad de la IA de California ha sido controvertida. El profesor de la Universidad de Stanford, Li Feifei, el científico jefe de Meta, Yang Likun, y otros creen que el proyecto de ley eventualmente dañará la posición de liderazgo de California e incluso de Estados Unidos en el campo de la IA. Más de 100 académicos también han publicado artículos en contra del proyecto de ley. La institución a16z ha creado un sitio web para detallar los seis casos del proyecto de ley.

Incluso la ex presidenta de la Cámara de Representantes de los Estados Unidos, Nancy Pelosi, emitió una declaración oponiéndose a este proyecto de ley, creyendo que el proyecto de ley de seguridad de la IA de California tiene buenas intenciones pero carece de una comprensión total. Muchos académicos y líderes importantes de las empresas de tecnología de California han expresado su oposición al proyecto de ley. bien.

El último en oponerse al proyecto de ley de IA de California es OpenAI. OpenAI emitió un documento esta semana en el que afirma que la legislación perjudicará la innovación en IA y puede tener un impacto "generalizado y significativo" en la competitividad de Estados Unidos en IA y seguridad nacional.

Bengio, sin embargo, dijo que la Ley de Seguridad de la IA de California evita ser demasiado prescriptiva y en su lugar utiliza la responsabilidad para garantizar que las empresas de IA no ignoren las precauciones de seguridad "que un experto razonable tomaría". "Creará un incentivo para que las empresas no se conviertan en los peores estudiantes de la clase".

Bengio señaló que las discusiones sobre la regulación de la IA podrían verse influenciadas por los capitalistas de riesgo y las empresas que buscan sacar provecho de la tecnología. "Se pueden establecer analogías con el cambio climático, las empresas de combustibles fósiles, etc.", dijo.

"No es eso, es todo lo contrario. No es tan vinculante. No ejerce mucha influencia. Simplemente dice: si causas miles de millones de dólares en daños, eres responsable. Durante décadas, todo el cálculo El campo ha estado algo desregulado de cualquier tipo. Creo que (la oposición) es más ideológica. Estoy realmente preocupado por el poder del lobby y los billones e incluso billones que Ai traerá (dijo Stuart Russell, profesor de. la Universidad de California, Berkeley y fundador del Centro de Sistemas de Inteligencia Artificial) motivará a las empresas a oponerse a cualquier regulación", afirmó Bengio.

En lo que respecta a la gestión de riesgos, Bengio señaló: “Me considero escéptico respecto del riesgo. He escuchado muchos buenos argumentos de que una IA que es más inteligente que nosotros podría ser muy peligrosa incluso antes de que sea más inteligente que nosotros. utilizado por los humanos de maneras que son extremadamente peligrosas para la democracia. Cualquiera que diga que sabe está demasiado confiado porque, de hecho, la ciencia no tiene forma de responder de manera verificable. Los argumentos son todos válidos. y estás pensando en políticas, necesitas proteger al público de cosas realmente malas. Eso es lo que el gobierno ha estado haciendo en muchas otras áreas. No pueden hacer eso en informática e inteligencia artificial.

Bengio enfatizó repetidamente que no esperaba que los humanos dominaran la tecnología de voz AI conversacional tan rápidamente y que al menos había alcanzado un nivel suficientemente humano.

"Creo que el deseo de innovar rápidamente en cosas peligrosas no es prudente. En biología, cuando los investigadores descubrieron que se podían crear virus peligrosos mediante la llamada investigación de ganancia de función, decidieron colectivamente, bueno, no lo hicimos. Pídele al gobierno que establezca reglas para que si haces esto, al menos si no está controlado, vayas a la cárcel", dijo Bengio. "Estoy seguro de que sabes sobre la pornografía infantil sintética, tal vez no tan desafiante emocionalmente, pero sí más. Lo más importante es que los mismos deepfakes van a distorsionar la sociedad. Esos deepfakes solo van a mejorar. El vídeo va a mejorar. No es suficiente: la capacidad de los sistemas actuales e incluso futuros para persuadir a las personas a cambiar de opinión. , un nuevo estudio realizado en Suiza comparó GPT-4 con humanos para ver quién podía convencer a personas que claramente no tenían idea. La persona que está hablando con un humano o una máquina cambia de opinión sobre algo.

Bengio señaló que “deberíamos adoptar un comportamiento de principio de precaución similar cuando se trata de IA”.

Mirando hacia el futuro,Bengio enfatizó,Todas las aplicaciones de la tecnología de IA seguirán cambiando los estilos de vida humanos de manera saludable.Por ejemplo, en términos de biología, la IA comprenderá cómo funciona el cuerpo y cómo funciona cada célula, lo que puede revolucionar campos como la medicina y la investigación y el desarrollo de fármacos; en términos de clima, puede ayudar a crear mejores baterías, una mejor captura de carbono; y mejor almacenamiento de energía.

"Esto aún no está sucediendo, pero creo que estos son excelentes productos tecnológicos que podemos hacer con IA. Y, por cierto, estas aplicaciones, la mayoría de ellas no son peligrosas. Así que deberíamos estar analizando estas cosas que obviamente pueden ayudar a la sociedad. invirtiendo más en afrontar sus desafíos”, dijo Bengio al final de la conversación.