noticias

La “madrina de la IA”, Li Feifei, escribió personalmente: El proyecto de ley de seguridad de la IA de California dañará el ecosistema de EE. UU. |Titanium Media AGI

2024-08-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Según las noticias de la aplicación TMTpost del 7 de agosto, "Madrina de la IA", académica de la Academia Nacional de Ingeniería, académica de la Academia Nacional de Medicina, académica de la Academia Estadounidense de Artes y Ciencias, la primera profesora de la Cátedra Sequoia en la Universidad de Stanford, El decano Feifei Li del Stanford Human-Centered Artificial Intelligence Institute (HAI) escribió un artículo en "Fortune" esta mañana y señaló que la próxima implementación de la Ley de Seguridad de la IA en California perjudicará a los desarrolladores, el mundo académico e incluso a todo el mundo. ecosistema de IA de EE. UU., pero no resolverá el daño potencial de la IA.

“Hoy en día, la IA está más avanzada que nunca. Sin embargo, un gran poder conlleva una gran responsabilidad. Los formuladores de políticas, la sociedad civil y los actores de la industria están buscando un enfoque de gobernanza que minimice los daños potenciales y dé forma a una sociedad de IA segura y centrada en el ser humano. algunos de estos esfuerzos, pero desconfío de otros; la Ley de Innovación Segura para Modelos Fronterizos de Inteligencia Artificial (en lo sucesivo, SB-1047) entra en esta última categoría: "La legislación tendrá importantes consecuencias no deseadas, no solo para California, sino para todos. todo el país", dijo Li Feifei.

Se informa que en julio de este año, el Senado de California aprobó una versión del proyecto de ley SB-1047, que requiere que los desarrolladores demuestren que sus modelos de IA no se utilizarán para causar daño. Esto es más que los más de 600 proyectos de ley de IA propuestos. por legisladores estatales estadounidenses este año. Esta propuesta extremadamente dañina podría ser promulgada por el gobernador de California, Gavin Newsom, en agosto de este año.

Según la definición del proyecto de ley, el Llama-3 de Meta se define como un "modelo de vanguardia" cuyo entrenamiento cuesta más de 100 millones de dólares. Meta también será severamente penalizado si alguien usa el modelo con fines ilegales. Al mismo tiempo, la Sección 22603(a)(3)(4) de la Ley requiere una "Exención de Servicio Limitado" para presentar una certificación a las agencias gubernamentales y detener la operación del modelo si hay errores, mientras que la Sección 22603(b) requiere Los desarrolladores pueden informar posibles incidentes de seguridad de IA para cualquier modelo. Si un desarrollador no puede controlar completamente las distintas versiones derivadas según su modelo, si ocurre un incidente de seguridad, la responsabilidad pertenecerá al primer desarrollador——Esto equivale a una responsabilidad solidaria.

Además, la sección 22604(a)(b) del proyecto de ley estipula que cuando los usuarios utilizan sus "modelos de vanguardia" y recursos informáticos, los desarrolladores deben enviar toda la información del cliente, incluida la identidad del cliente, el número de tarjeta de crédito, el número de cuenta, e identificador de identificación del cliente, identificador de transacción, correo electrónico, número de teléfono. Además, se debe enviar información una vez al año y se evalúa el comportamiento e intenciones del usuario. Toda la información del usuario tendrá una copia de seguridad durante 7 años y también se archivará ante la Administración de Aduanas y Fronteras.

La ubicación geográfica de California en Estados Unidos es muy especial: alberga escuelas famosas como Stanford, Caltech y la Universidad del Sur de California, además de Google, Apple,IA abierta También alberga las sedes de gigantes tecnológicos como Meta y Meta. Por lo tanto, en este sentido, Yann LeCun, ganador del Premio Turing y científico jefe de IA de Meta, Li Feifei, Andreessen Horowitz, socio fundador de la institución de inversión a16z, Departamento de Ciencias de la Computación y Departamento de Ingeniería Eléctrica de la Universidad de Stanford, el profesor visitante Andrew Ng y otros. objeciones expresadas.

Entre ellos, Yang Likun advirtió que la "cláusula de responsabilidad solidaria" del proyecto de ley expondrá a las plataformas de IA de código abierto a enormes riesgos... Meta no se verá afectada, pero las nuevas empresas de IA irán a la quiebra, se informa que si se utilizan estos modelos. maliciosamente por otros, el proyecto de ley exige que los desarrolladores de IA asuman responsabilidad civil e incluso penal por los modelos que desarrollan.

Horowitz cree que, aunque el proyecto de ley anti-IA de California tiene buenas intenciones, puede debilitar la industria tecnológica estadounidense debido a la desinformación, justo cuando el futuro de la tecnología se encuentra en una encrucijada crítica. Estados Unidos necesita que los líderes reconozcan que ahora es un momento crítico para una acción regulatoria inteligente y unificada en materia de IA.

Andrew Ng publicó un artículo afirmando que el proyecto de ley SB-1047 de California sofocará el desarrollo de grandes modelos de código abierto. Señaló además,Son las aplicaciones de IA las que deberían regularse, no los grandes modelos en sí

Li Feifei cree que las políticas de IA deben fomentar la innovación, establecer restricciones apropiadas y mitigar el impacto de estas restricciones. Las políticas que no lo hagan, en el mejor de los casos, no lograrán sus objetivos y, en el peor, conducirán a consecuencias graves e involuntarias. Si la SB-1047 se convierte en ley, dañará el incipiente ecosistema de IA de Estados Unidos, especialmente aquellas partes que ya están en desventaja por los gigantes tecnológicos de hoy: el sector público, el mundo académico y las “pequeñas tecnologías”. SB-1047 penalizaría innecesariamente a los desarrolladores, sofocaría a nuestra comunidad de código abierto y obstaculizaría la investigación académica de IA, sin resolver los problemas reales para los que está diseñado.

Li Feifei dio cuatro razones:

En primer lugar, la SB-1047 castigaría indebidamente a los desarrolladores y sofocaría la innovación. Si se hace un mal uso de un modelo de IA, la SB-1047 responsabilizará a las partes responsables y a los desarrolladores originales del modelo. Es imposible para todos los desarrolladores de IA (especialmente los programadores y emprendedores en ciernes) predecir todos los usos posibles de su modelo. La SB-1047 obligará a los desarrolladores a retirarse y ponerse a la defensiva, exactamente lo que estamos tratando de evitar.

En segundo lugar, la SB-1047 restringirá el desarrollo de código abierto. SB-1047 requiere que todos los modelos que excedan un cierto umbral incluyan un "interruptor de apagado", un mecanismo que puede cerrar el programa en cualquier momento. Los desarrolladores serán aún más reacios a codificar y colaborar si les preocupa que los programas que descargan y crean sean eliminados. Este interruptor devastaría a la comunidad de código abierto, fuente de innumerables innovaciones, no sólo en IA sino en todo, desde GPS hasta MRI e Internet mismo.

En tercer lugar, el SB-1047 debilitará la investigación de la IA en el sector público y el mundo académico. El desarrollo de código abierto es importante para el sector privado, pero también es crucial para el mundo académico, que no puede avanzar sin colaboración y datos modelo. Tomemos, por ejemplo, a los estudiantes de informática que trabajan en modelos abiertos de IA. Si nuestras instituciones no tienen acceso a modelos y datos apropiados, ¿cómo educaremos a la próxima generación de líderes en IA? Un interruptor de emergencia socavaría aún más los esfuerzos de estos estudiantes e investigadores, que ya se encuentran en desventaja en materia de datos e informática en comparación con las grandes empresas de tecnología. La SB-1047 sonará la "sentencia de muerte" para la IA académica y del sector público que debería duplicar la inversión.

Lo más preocupante es que el proyecto de ley no aborda los daños potenciales del desarrollo de la IA, incluidos los prejuicios y las falsificaciones profundas. En cambio, la SB-1047 establece un umbral arbitrario, regulando modelos que utilizan una cierta cantidad de potencia informática o cuyo entrenamiento cuesta 100 millones de dólares. Lejos de brindar protección, esta medida solo restringirá la innovación en diversos campos, incluido el académico.

Li Feifei señaló que hoy en día, los modelos de IA en el mundo académico están por debajo de este umbral, pero si Estados Unidos reequilibra la inversión en IA de los sectores público y privado, el mundo académico estará regulado por la SB-1047 y, como resultado, el ecosistema de IA de EE. UU. empeorará. . Por tanto, Estados Unidos debe hacer lo contrario.

"En múltiples conversaciones con el presidente Biden durante el año pasado, expresé la necesidad de una 'mentalidad de disparo a la luna' para avanzar en la educación, la investigación y el desarrollo de la IA en nuestro país. Sin embargo, las restricciones de la SB-1047 son demasiado arbitrarias y no solo afectarán California El ecosistema de IA también tendrá efectos posteriores perturbadores en la IA en todo el país". Li Feifei señaló que no se opone a la gobernanza de la IA. La legislación es fundamental para el desarrollo seguro y eficaz de la IA. Pero la política de IA debe promover el desarrollo de código abierto, proponer reglas uniformes y razonables y generar confianza en los consumidores. SB-1047 no cumple con estos estándares.

Li Feifei enfatizó que propuso cooperación al senador Scott Wiener, autor del proyecto de ley: formulemos conjuntamente una legislación sobre inteligencia artificial y construyamos verdaderamente una sociedad futura centrada en las personas y basada en la tecnología.

“De hecho, el futuro de la IA depende de ello. California, como entidad pionera y hogar del ecosistema de IA más sólido de nuestra nación, está en el corazón del movimiento de la IA, y los avances en California afectarán al resto del país. ", dijo Li Feifei al final.