mi información de contacto
correoadmin@información.bz
2024-09-30
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
editor: departamento editorial hyz
[introducción a la nueva sabiduría]¡feliz celebración! hace un momento, el gobernador de california anunció que vetaría el proyecto de ley de restricción de la ia de california. lecun, li feifei y ng enda se apresuraron a contárselo con entusiasmo y lo celebraron con la frente y las manos. bengio y hinton, que apoyan firmemente el proyecto de ley, guardaron silencio. openai, google y meta han escapado del desastre.
¡pesado!
esta mañana temprano, el gobernador de california, gavin newsom, anunció oficialmente que vetará el proyecto de ley sb-1047.
para los desarrolladores de todo el mundo, la cancelación del proyecto de ley sb-1047 significa que los modelos de código abierto de los principales fabricantes como meta y google seguirán estando disponibles nuevamente.
se puede decir que esta decisión era ampliamente esperada. grandes nombres en el círculo de la ia se apresuraron a contárselo con entusiasmo, y ng enda, lecun y li feifei, quienes desempeñaron un papel importante en la oposición, estaban especialmente felices.
¿qué significa el veto del gobernador de california?
el proyecto de ley sb-1047 es realmente el final.
el "notorio" sb-1047 estipula que el sb 1047 evitará que los sistemas de inteligencia artificial causen víctimas masivas o desencadenen incidentes de ciberseguridad que cuesten más de 500 millones de dólares al responsabilizar a los desarrolladores.
tan pronto como se conoció la noticia, provocó una enorme oposición por parte de la academia y la industria.
ya sabes, 32 de las 50 principales empresas de genai del mundo tienen su sede en california y desempeñan un papel clave en la definición del futuro de la ia.
según un comunicado de prensa de la oficina de california, gavin firmó 18 proyectos de ley genai el mes pasado, pero solo vetó el sb-1047.
durante los últimos 30 días, el gobernador firmó una serie de proyectos de ley para combatir el contenido deepfake, proteger los derechos de imagen digital de los artistas intérpretes o ejecutantes y más.
este proyecto de ley tiene buenas intenciones, pero en la práctica tiene algunos problemas graves.
"no creo que ésta sea la mejor manera de proteger al público de las amenazas reales que plantea la ia", afirmó.
sb-1047 no tiene en cuenta si el sistema de ia se implementa en un entorno de alto riesgo, implica decisiones críticas o utiliza datos confidenciales. en cambio, el proyecto de ley aplica estándares estrictos a la función más básica de implementar sistemas modelo grandes.
en el proceso de rechazo del sb-1047, no se puede ignorar el papel de la madrina de la ia, li feifei.
la profesora de stanford, li feifei, dijo felizmente que se sentía profundamente honrada de trabajar con stanfordhai para allanar el camino para una gobernanza responsable de la ia en california.
el gurú de la ia, andrew ng, también agradeció a li feifei por su oposición pública a la sb-1047, diciendo que sus esfuerzos pueden promover políticas de ia más racionales para proteger la investigación y la innovación.
hace apenas unos días, cuando el proyecto de ley sb-1047 estaba a punto de finalizarse, ng y lecun todavía pedían ansiosamente y lanzaban votaciones, temiendo que una vez aprobado, la ia de código abierto y todo el ecosistema de ia tuvieran un efecto paralizador.
hoy, las empresas de inteligencia artificial de california finalmente están dando un suspiro de alivio.
carta de veto del gobernador: sin firmar
"por la presente devuelvo el proyecto de ley del senado 1047 sin mi firma".
en la carta, el gobernador reconoció que la sb-1047 exagera la amenaza que representa el despliegue de ia.
además, al centrarse sólo en los modelos más caros de gran escala, el proyecto de ley en realidad da al público una "falsa sensación de seguridad".
señala que incluso los modelos propietarios más pequeños pueden ser igualmente peligrosos.
en resumen, la regulación de la ia en el proyecto de ley se produce a expensas de “restringir la innovación que beneficia al interés público”.
el gobernador dijo que el proyecto de ley aplica los estándares más estrictos a las funciones más básicas, lo que no es la mejor manera de proteger al público de las amenazas de la tecnología de inteligencia artificial.
la mejor solución es un plan que no se base en el análisis de trayectorias de desarrollo empírico de los sistemas y capacidades de ia.
el jefe de ia lo odia
este final puede describirse como un final muy satisfactorio para la mayoría de las personas, excepto para bengio y hinton.
cuando se trata de sb-1047, muchos grandes lo odian.
toda la historia es esta.
el año pasado, el gobernador de california firmó una orden ejecutiva que enfatizaba que california debería ser más prudente frente a genai y hacer que la ia sea más ética, transparente y confiable.
en febrero de este año, california redactó directamente un proyecto de ley llamado "ley de innovación de seguridad de modelos grandes de ai frontier sb-1047", que proporciona regulaciones más específicas para el uso seguro y transparente de modelos grandes.
sin embargo, contiene muchos contenidos irrazonables que simplemente ahogan a determinadas empresas con su nombre.
hay que evitar que los modelos que cuestan más de 100 millones causen "daños importantes"
por ejemplo, existe una regulación que estipula que si alguien utiliza un modelo grande cuyos costos de desarrollo y capacitación exceden los 100 millones de dólares estadounidenses y cuyas operaciones de punto flotante exceden 10 ^ 26 veces para hacer cosas ilegales después de ser de código abierto, el desarrollador del modelo también será severamente castigado.
debes saber que el modelo llama 3 de meta, el modelo gemma de google, etc. cumplen con esta condición.
evidentemente, esta disposición es extremadamente controvertida.
por ejemplo, si alguien piratea un sistema de conducción autónoma y provoca un accidente, ¿la empresa que desarrolló el sistema también tendrá que rendir cuentas?
según el proyecto de ley, los desarrolladores deben evaluar los derivados de sus modelos y prevenir cualquier daño que puedan causar, incluso si los clientes ajustan los modelos, los modifican (jailbreak) o los combinan con otro software.
sin embargo, una vez que se lanza el software de código abierto, las personas pueden descargar el modelo directamente a sus dispositivos personales, por lo que los desarrolladores no tienen forma de conocer las operaciones específicas de otros desarrolladores o clientes.
además, el proyecto de ley contiene muchas definiciones vagas.
por ejemplo, los "daños críticos" a los modelos de ia se describen como bajas masivas, pérdidas que superan los 500 millones de dólares u otras lesiones "igualmente graves". pero ¿bajo qué condiciones se responsabilizará a los desarrolladores? ¿qué responsabilidades hay?
el proyecto de ley no dice nada al respecto.
además, el proyecto de ley se aplica a los modelos de ia que gastan más de 100 millones de dólares en entrenar, o a los desarrolladores que gastan más de 10 millones de dólares en perfeccionar los modelos existentes, lo que coloca a muchas pequeñas empresas de tecnología dentro del alcance del ataque.
la sb-1047 también tiene algunas disposiciones poco razonables. por ejemplo, si una empresa abre su modelo a otros países, debe enviar toda la información del cliente, incluida la tarjeta de identificación del cliente, el número de tarjeta de crédito, el número de cuenta, etc.
los desarrolladores también deben crear procedimientos de prueba que aborden los riesgos del modelo de ia y deben contratar auditores externos anualmente para evaluar sus prácticas de seguridad de ia.
para aquellos productos de ia creados a partir de modelos, es necesario desarrollar los protocolos de seguridad correspondientes para evitar abusos, incluido un botón de "parada de emergencia" que apague todo el modelo de ia.
bill criticado por hacer la vista gorda ante riesgos reales
otros críticos consideran que este proyecto de ley es demasiado infundado.
no sólo obstaculizará la innovación en ia, sino que tampoco ayudará a la seguridad de la ia actual.
lo que es aún más irónico es que el proyecto de ley utiliza el llamado “interruptor de emergencia” para evitar el fin del mundo, pero hace la vista gorda ante los riesgos de seguridad existentes, como los deepfakes y la información falsa.
aunque las enmiendas posteriores estuvieron redactadas de manera más laxa, lo que redujo el poder del gobierno de california para responsabilizar a los laboratorios de ia.
pero aun así, el sb-1047 tendrá un impacto considerable en los principales fabricantes como openai, meta y google.
para algunas empresas emergentes, este golpe puede ser incluso devastador.
ahora que el polvo se ha calmado, tanto las grandes empresas como las pequeñas empresas emergentes pueden respirar aliviados.
el gigante de turing se desintegra
el sb-1047 incluso provocó que los tres grandes de turing se "dividieran" por esto.
los grandes jefes representados por lecun, li feifei y ng enda se han opuesto públicamente y están insatisfechos muchas veces.
lecun incluso copió el mensaje original que utilizó cuando pidió una moratoria sobre la investigación de la ia: ¡suspenda la legislación sobre la ia durante seis meses!
los otros dos de los tres grandes de turing, yoshua bengio y geoffrey hinton, sorprendentemente apoyaron firmemente la aprobación de este proyecto de ley.
incluso creo que las condiciones actuales son demasiado laxas.
como investigadores senior de políticas y tecnología de inteligencia artificial, escribimos para expresar nuestro firme apoyo al proyecto de ley 1047 del senado de california.
la sb 1047 describe los requisitos básicos para una regulación efectiva de esta tecnología. no implementa un sistema de licencias, no exige que las empresas obtengan permiso de las agencias gubernamentales antes de capacitar o implementar modelos, depende de que las empresas evalúen los riesgos por sí mismas y no las responsabiliza estrictamente ni siquiera en caso de un desastre.
se trata de una legislación relativamente indulgente en relación con la magnitud de los riesgos que enfrentamos.
deshacer las medidas básicas del proyecto de ley sería un error histórico, uno que se hará aún más evidente dentro de un año a medida que se lance la próxima generación de sistemas de inteligencia artificial más potentes.
pero bengio y hinton obviamente no son la corriente principal.
en resumen, las posiciones de varios gigantes tecnológicos y peces gordos son las siguientes.