noticias

¡El proyecto de ley estadounidense sobre IA está muy debilitado! El círculo de la IA está explotando, Li Feifei lo condenó públicamente y todas las empresas nacionales de IA están preocupadas por esto.

2024-08-16

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


cosas inteligentes
Autor Chen Junda
EditarPanken

Zhidongxi informó el 16 de agosto que justo ahora se anunció en California la controvertida “Ley de Innovación en Seguridad del Modelo de IA Fronteriza” (más tarde conocida como Ley de Seguridad de la IA de California).significativamente debilitadoPosteriormente, pasó con éxito la revisión del Comité de Asignaciones de la Cámara de Representantes de California.Regular las dificultades jurídicas a nivel nacionalEn medio del dilema, esto se ha convertido en un paso importante para los Estados Unidos en la regulación de la IA. Sin embargo, algunas personas en la comunidad tecnológica creen que esto.En última instancia, dañará la posición de liderazgo de California e incluso de Estados Unidos en el campo de la IA.

El mayor ajuste en el proyecto de ley enmendado es queya no está permitidoEl fiscal general de California demandó a las empresas de inteligencia artificial por ignorar las cuestiones de seguridad antes de que ocurriera un evento catastrófico. El proyecto de ley original estipula que siempre que los auditores descubran que las empresas de inteligencia artificial realizan actividades ilegales en sus operaciones diarias, las empresas podrán ser procesadas. Esto marca el proyecto de ley.El enfoque regulatorio se centra en el daño real, tambiénReducir la presión de cumplimiento sobre las empresas.

La mayoría de las empresas de tecnología y nuevas empresas de inteligencia artificial de EE. UU. operan en California.estará sujeto a la Ley.En concreto, este proyecto de ley se centra principalmente en "Modelos de IA de última generación"Sólo los desarrolladores cuyos costes de potencia informática para los modelos de formación superen los 100 millones de dólares se enfrentarán a requisitos reglamentarios. Los modelos existentes no están dentro del ámbito de supervisión. En el futuroLlama 4 y GPT-5 pueden ser sus principales objetivos regulatorios.

Para empresas nacionalesSi solo realiza ajustes finos y otras operaciones sobre la base de código abierto, existe una alta probabilidad de que no se incluya en el alcance de la supervisión. Sin embargo, el proyecto de ley exige que los proveedores de servicios en la nube recopilen información de los clientes, direcciones IP, métodos de pago y otra información, lo que facilita el trabajo de trazabilidad de las autoridades reguladoras. Si los controles se endurecen aún más, esto puede convertirse enRiesgos regulatorios que enfrentan algunas empresas chinas de inteligencia artificial que utilizan potencia informática extranjera para capacitación.

Las empresas dentro del ámbito de supervisión debentomar medidas proactivasPara evitar el abuso de modelo, también es necesario tenermodelo de parada de emergenciacapacidad. Además, deben presentar una declaración pública que describa sus prácticas de seguridad. El proyecto de ley introduce "Inspección anual”, los desarrolladores deben contratar auditores independientes para evaluar el cumplimiento anualmente.

Una vez que ocurren actividades ilegales, las empresas pueden enfrentarseentre 10 y 30 millones de dólaresEsta cantidad aumentará a medida que aumente el costo de la capacitación del modelo.

El círculo de la IA se dividió en dos bandos y hubo un feroz debate.

Ganador del Premio Turing 2018Jeffrey Hinton(Geoffrey Hinton) yJosué Bengio(Yoshua Bengio) expresó su apoyo y creía que la Ley de Seguridad de la IA de California es una regulación eficaz de la tecnología de la IA.Requisitos mínimos”。

Cientos de empresarios firmaronIncubadora YCMás de 100 académicos de California también escribieron cartas de oposición.Institución de capital riesgo a16zCree un sitio web específicamente para detallar los seis delitos de la Ley, profesor de la Universidad de StanfordLi FeifeiEspecialmente tuiteado para condenar, el punto principal es que este proyecto de ley obstaculizará la inversión y el desarrollo de la IA en California.Dañando significativamente el ecosistema de código abierto, no aborda los riesgos sustanciales que genera la IA.

Sin embargo, el senador del estado de California Scott Wiener, autor del proyecto de ley de regulación de la IA de California, refutó algunas críticas al proyecto de ley y dijo que a16z y YCdistorsionar deliberadamente los hechos, este proyecto de ley es una optimización dentro del marco legal existente, mejora la pertinencia de la supervisión, no encarcelará a una gran cantidad de desarrolladores y no dañará la innovación ni la IA de código abierto.

Zhixixi ha recopilado una gran cantidad de información y resumido el contenido específico y las discusiones relacionadas de este proyecto de ley en las siguientes cinco preguntas y respuestas:

1. ¿Cuál es el ámbito de aplicación? La mayoría de los modelos existentes no son aplicables, pudiendo incluirse Llama 4 y GPT-5 en el ámbito de supervisión.

Para lograr una supervisión efectiva, este proyecto de ley originalmente planeaba crear un "Departamento Modelo de Frontera (FMD)" para implementar las regulaciones pertinentes. Con las revisiones de hoy, esta división se transforma en una comisión de nueve miembros dentro de la agencia del gobierno de California, que incluye representantes de la industria de la IA, la comunidad de código abierto y el mundo académico, y es designada por el Gobernador y la Legislatura de California. El Frontier Models Council seguirá estableciendo umbrales computacionales para los modelos cubiertos, emitirá directrices de seguridad y emitirá regulaciones para los auditores.

Como uno de los centros de desarrollo de IA en los Estados Unidos e incluso en el mundo, California ha atraído a una gran cantidad de empresas de IA. Más de 30 de las 50 principales empresas de IA de la revista Forbes en 2024 están operando en California. Según este proyecto de ley, todos deben cumplir con las disposiciones pertinentes de la Ley de Seguridad de la IA de California. Sin embargo, el ámbito de aplicación real de esta ley estará significativamente limitado por las capacidades del modelo.Quizás en los próximos años sólo los principales actores del sector de los grandes modelos se vean regulados por este proyecto de ley.


▲Captura de pantalla de parte del proyecto de ley de regulación de la IA de California (Fuente: sitio web oficial del Senado de California)

Este proyecto de ley evaluará si un modelo debe incluirse en el alcance regulatorio en función de la potencia informática y el costo de la potencia informática utilizada en el entrenamiento del modelo, es decir, clasificarse como "Modelo cubiertoLa normativa pertinente se puede resumir en los dos puntos siguientes:

1. Usar antes del 1 de enero de 202710^26y más operaciones con números enteros o de punto flotante (100 millones de dólares según el precio medio de mercado de la potencia informática) o uso3*10^25El modelo obtenido después de ajustar el modelo dentro del rango con la potencia de cálculo aparecerá como modelo dentro del rango.

2. Después del 1 de enero de 2027, las normas anteriores serán implementadas por el gobierno de California.Regulador modelo de última generaciónHaz una valoración. Si el departamento modifica el umbral de potencia informática, prevalecerá el nuevo estándar; si el departamento decide que no es necesaria ninguna modificación, se seguirá utilizando el estándar original. Además, después de 2026, los 100 millones de dólares del estándar original deberíanAjuste en consecuencia para tener en cuenta la inflación.

Entonces, ¿cuál de los modelos que se han lanzado ahora se incluirá en esta gama? Hay muchas formas de calcular la potencia informática utilizada en el entrenamiento de modelos, una vez que OpenAI la estimó aproximadamente en un artículo:

FLOPS=6ND

(donde N es el número de parámetros y D es el número de tokens)

Utilizando este método de cálculo y los datos del modelo de código abierto, podemos estimar aproximadamente el nivel de potencia informática que utilizan actualmente los modelos:

Llama 3 70B

Tiene 70 mil millones de parámetros y utiliza datos de entrenamiento de tokens de 15T durante el entrenamiento, por lo que la potencia informática utilizada es aproximadamente:

6*70B*15T = 6,3*10^24 FLOPS

Llama 3.1 405B

Tiene 405 mil millones de parámetros y utiliza 15,6T de datos de entrenamiento de tokens durante el entrenamiento, por lo que la potencia informática utilizada es aproximadamente:

6*405B*15.6T=3.79*10^25 FLOPS


▲ Información relacionada con Llama 3.1 405B (Fuente: Hugging Face)

Este método de cálculo es relativamente aproximado y puede diferir mucho de la situación real, pero aún tiene importancia de referencia. Según este resultado,Llama 3.1 405B, el rey de los modelos de código abierto, no figurará actualmente como modelo dentro del alcance del proyecto de ley., un modelo solo aparecerá como modelo dentro del rango si utiliza 2,6 veces la potencia informática de Llama 3.1 405B.

Estos datos también pueden estar respaldados por la declaración en una carta abierta en respuesta a la controversia sobre el proyecto de ley del senador del estado de California William Wilson, el autor de este proyecto de ley. Él escribió en la carta: “En el modelo actualmente publicado públicamente,Ningún modelo ha alcanzado el umbral de potencia informática de 10^26 FLOP”。

Durante mucho tiempo en el futuro, es posible que la gran mayoría de las pequeñas y medianas empresas de desarrollo de modelos y los desarrolladores independientes no tengan que preocuparse por la supervisión de este proyecto de ley. Según el umbral de potencia informática y el umbral de capital del proyecto de ley, sus principales objetos regulatorios son los siguientes:OpenAI, Meta, GoogleActores tan importantes en el campo de la IA yStartups líderes que han recibido grandes cantidades de inversión.

Según la declaración pública del director ejecutivo de OpenAI, Sam Altman, el costo de capacitación de GPT-4 es de aproximadamente 100 millones de dólares. No está claro si este costo incluye inversiones distintas a la potencia informática. Si se lanza GPT-5 u otros modelos OpenAI posteriores, es posible que estén regulados por esta ley. El director ejecutivo de Meta, Mark Zuckerburg, ha estimado que Llama 4 requerirá aproximadamente 10 veces la potencia informática de Llama 3.1, lo que significaLlama 4 debería ser uno de los pocos modelos de código abierto que figurará como modelo de gama en el futuro.

2. ¿Cuáles son las responsabilidades de las empresas? Los desarrolladores deben realizar "inspecciones anuales", prevenir proactivamente el abuso y equiparlos con "interruptores de apagado".

Según las disposiciones pertinentes de esta ley,Desarrollador de modelos de gama.Principalmente responsable de las siguientes responsabilidades:

1. Implementacióngestión, tecnología y físicaProtección de seguridad triple para evitar modelos dentro del alcance y derivados de modelos dentro del alcance controlados por desarrolladoresAcceso no autorizado, mal uso o modificación post-formación

2、Logre la capacidad de apagar completamente los modelos de manera oportuna.

3. El proyecto de ley original estipula que los desarrolladores de modelos deben firmar un acuerdo de seguridad independiente para garantizarNo se desarrollarán modelos y derivados que tengan riesgo de causar daños graves (como ciberataques que causen pérdidas de más de 500 millones de dólares estadounidenses, muerte o lesiones personales graves, etc.).Si hay información falsa en el acuerdo, será sancionado bajo pena de perjurio.

proyecto de ley modificadoEsto debilita enormemente la eficacia jurídica de este acuerdo. Actualmente, los desarrolladores de modelos sólo necesitan presentar declaraciones públicas que describan sus prácticas de seguridad.Sin embargo, esta disposición ya no impone ninguna responsabilidad penal y las entidades pertinentes sólo serán procesadas después de que se produzca un daño catastrófico.

4. Si el modelo y sus derivados dentro del alcance pueden causar o ayudar a causar un daño grave, el desarrollador no lo utilizará por sí solo para fines comerciales o públicos, ni podrá proporcionarlo a otros para uso comercial o público.

5. A partir del 1 de enero de 2028, los desarrolladores de modelos dentro del alcance debenContratar 1 auditor externo cada año, para realizar una evaluación detallada y objetiva del cumplimiento por parte del desarrollador de los requisitos de la Ley, informar sobre violaciones y sugerencias de revisión.

6、El proyecto de ley revisado agrega protecciones para ajustar el modelo de código abierto.El proyecto de ley estipula explícitamente que si los desarrolladores gastan dinero en ajustar los modelos dentro del alcanceMenos de 10 millones de dólares, no será reconocido como el desarrollador del modelo ajustado y la responsabilidad seguirá recayendo en el desarrollador del modelo original.

Además, este proyecto de ley estipula que los servicios en la nube como Amazon Cloud Services (AWS) y Microsoft AzureObligaciones de los proveedores de servicios en la nube. Al proporcionar a los clientes potencia informática suficiente para entrenar modelos en su alcance, los proveedores de servicios en la nube deben estar preparados para:

1. Obtener la información de identidad básica del cliente y sus fines comerciales, incluidosIdentidad del cliente, dirección IP, método de pago y fuenteetc. Las operaciones de cumplimiento pertinentes deben dejar rastros y los registros deben conservarse durante 7 años.

2. Evalúe si el cliente realmente planea utilizar la potencia informática para entrenar el modelo dentro del alcance.

3、La capacidad de apagar los recursos informáticos utilizados por los usuarios al entrenar u operar modelos.

Los desarrolladores y proveedores de servicios en la nube de modelos dentro del alcance también deben proporcionarLista de precios transparente, unificada y públicay garantizar que durante el proceso de fijación de precios y accesoNo discriminación ni conductas anticompetitivas.. peroEntidades públicas, instituciones académicas e investigadores no comerciales.Puede disfrutar de derechos de uso gratuitos o con descuento. Algunos proveedores de servicios en la nube utilizarán descuentos en los precios para atraer o apoyar a empresas específicas de desarrollo de IA. Este comportamiento puede no ser evasivo una vez que el proyecto de ley entre en vigor oficialmente.

El proyecto de ley estipula que cuando los desarrolladores sepan que ha ocurrido un incidente de seguridad en un modelo,Los incidentes relevantes deben notificarse a las autoridades reguladoras en un plazo de 72 horas.. Además, los desarrolladores también deben asegurarse de que un modelo o sus derivados se utilicen con fines comerciales o públicos.Dentro de 30 días, presente una declaración de conformidad para este modelo. Además, quienes denuncien malas conductasLos "denunciantes" estarán protegidos por la ley, una empresa u organización no puede impedir ni tomar represalias contra los empleados que revelen una mala conducta.

3. ¿Cómo sancionar los actos ilícitos? Multas a partir de 10 millones de dólares pueden provocar el cierre o la eliminación del modelo

Si los desarrolladores de modelos y los operadores de clústeres informáticos no cumplen con las regulaciones anteriores y causan un gran daño, el Fiscal General y la Comisión Laboral de California tendrán el poder de procesar a las entidades relevantes. Si se determina que ha ocurrido una conducta ilegal, el tribunal podrá imponer las siguientes sanciones:

1. Para infracciones en 2026 y posteriores, las entidades que infrinjan la ley por primera vez serán multadas dentro del 10% del costo promedio del modelo dentro del alcance de capacitación del mercado de computación en la nube. Para infracciones posteriores, el monto de la multa no será. exceder el 30% de este costo (basado en el cálculo del umbral de $100 millones definido en el proyecto de ley para los modelos dentro del alcance,La multa por una primera infracción es de al menos 10 millones de dólares.)。

2. El tribunal también podrá dictar una orden judicial,Incluyendo, entre otros, modificar, cerrar completamente o eliminar todos los derivados controlados por el modelo dentro del alcance y sus desarrolladores.

Sin embargo, la penalización por modificar, cerrar y eliminar modelos dentro del alcance solo se aplica si causanMuerte de otras personas, lesiones personales graves, daños a la propiedad o amenazas graves a la seguridad públicasólo se puede utilizar cuando.

4. ¿Quién se opone al proyecto de ley? a16z y YC tomaron la iniciativa en lanzar una ofensiva publicitaria, Li Feifei y Yang Likun tuitearon preguntas

Los gigantes tecnológicos de Silicon Valley, un gran número de nuevas empresas e instituciones de inversión han expresado grandes dudas e insatisfacción con el proyecto de ley de seguridad de la IA de California.Una de las voces más fuertes es a16z, una conocida firma de capital riesgo en Silicon Valley.a16z tiene una rica cartera de inversiones en el campo de la IA, que incluye empresas de IA líderes y maduras como OpenAI y Mistral AI, así como estrellas en ascenso como World Labs recientemente establecido por el profesor Li Feifei de la Universidad de Stanford. Estas empresas tienen mayores escalas y montos de financiamiento,Los modelos que desarrollan y perfeccionan pueden quedar bajo el ámbito regulatorio.


▲Algunas de las objeciones de a16z (Fuente:stopsb1047.com)

a16z tomó la iniciativa de pagar para crear un sitio web y proporcionar a los visitantes una plantilla para cartas de objeción, que se pueden enviar directamente simplemente editando en el sitio web. a16z también enumeró en este sitio web los "6 pecados" en su opinión sobre la Ley de Seguridad de la IA de California:

1. Este proyecto de ley tendrá un efecto paralizador sobre la inversión y el desarrollo de la IA en California.

2. El proyecto de ley penaliza a los promotores/desarrolladores en función de resultados poco claros. Aún no existen pruebas relevantes.

3. Las definiciones vagas y las estrictas responsabilidades legales del proyecto de ley han generado una enorme incertidumbre y riesgos económicos para los desarrolladores de IA y los propietarios de empresas.

4. Este proyecto de ley puede obligar a la investigación de IA a ser clandestina y reducir inadvertidamente la seguridad de los sistemas de IA.

5. Este proyecto de ley crea una desventaja sistémica para los desarrolladores de código abierto y de nuevas empresas, que están en el corazón de la innovación y las pequeñas empresas en California.

6. Este proyecto de ley inhibe la investigación y la innovación en IA en los Estados Unidos y brinda oportunidades para que países como China superen a los Estados Unidos en IA.

Los fundadores de muchas empresas con inversión de a16z también expresaron su oposición a la Ley de Seguridad de la IA de California. Li Feifei publicó un artículo en el sitio web de la revista Fortune explicando en detalle los motivos de su oposición, creyendo que hay cuatro problemas principales con este proyecto de ley:

1. Castigar excesivamente a los desarrolladores puede sofocar la innovación.

2. El "interruptor de apagado" restringirá el trabajo de desarrollo de código abierto y destruirá la comunidad de código abierto.

3. Debilitar la investigación sobre IA en el mundo académico y el sector público, y también puede impedir que los académicos reciban más financiación.

4. No aborda los daños potenciales causados ​​por el avance de la IA, como los prejuicios o los deepfakes.


▲Li Feifei se opone al proyecto de ley de seguridad de la IA de California (Fuente: Plataforma X)

Sin embargo, muchos internautas en el área de comentarios no creyeron esta declaración y pidieron a Li Feifei que revelara su relación de interés con a16z.


▲ Algunos internautas cuestionaron la neutralidad de Li Feifei (Fuente: Plataforma X)

Como la incubadora más conocida e influyente de los Estados Unidos, YC es la cuna de muchas nuevas empresas de IA.Su principal ubicación operativa actual es California.De las 260 nuevas empresas del lote de invierno del YC de 2024, más de la mitad están relacionadas con la IA. YC también cree que este proyecto de ley puede tener un impacto negativo en la industria y el ecosistema de desarrolladores:

1、El proyecto de ley debería castigar a quienes abusan de las herramientas, no a los desarrolladores.A menudo resulta difícil para los desarrolladores predecir las posibles aplicaciones de los modelos, y los desarrolladores pueden ir a la cárcel por perjurio.

2. Los umbrales regulatorios no pueden captar plenamente la dinámica del desarrollo tecnológico. Las empresas fuera de California podrán desarrollar tecnología de inteligencia artificial con mayor libertad, lo que puede afectar la innovación en California.

3. “Kill Switch (refiriéndose a la capacidad de los desarrolladores para apagar modelos)” puede prohibir el desarrollo de IA de código abierto e inhibir la colaboración y la transparencia de código abierto.

4. La redacción del proyecto de ley es relativamente vaga.Es probable que sea interpretado a voluntad del juez.

La declaración de YC recibió el apoyo conjunto de cientos de nuevas empresas. YC también celebró una serie de conferencias relacionadas con la regulación de la IA en California, lo que permitió a ambas partes comunicarse.

Yann LeCun, científico jefe de Meta y ganador del Premio Turing 2018, también se opuso a este proyecto de ley. Estaba especialmente preocupado por la situación.Cláusulas de Responsabilidad Solidaria.Le preocupa que las plataformas de código abierto puedan ser consideradas responsables si no evalúan con precisión los riesgos de los modelos en cuestión.


Meta Corporation, como el actor más importante en el campo de los modelos de IA de código abierto en la actualidad, escribió en una carta de oposición que este proyecto de ley obliga a los desarrolladores de código abierto a asumir grandes riesgos legales cuando se trata de código abierto, porque los requisitos para garantizar la seguridad del modelo no son realistas. . Recomiendan que los legisladores de California consulten las leyes pertinentes de otros países y regiones.Como los requisitos de transparencia y las “pruebas del equipo rojo” de la Ley de IA de la UE.. Microsoft, Google y OpenAI también comentaron negativamente sobre el proyecto de ley.

Anthropic, una startup de inteligencia artificial con una estructura única de "corporación B", es una de las muchas voces que se oponen a este proyecto de ley. Sin embargo, a diferencia de otras empresas, no intentan impedir la aprobación del proyecto de ley, sino que participan en su enmienda. , La Legislatura escribió una carta detallando sus sugerencias de mejora. En general, Anthropic cree queEl proyecto de ley debería pasar de “aplicación antes de causar daño” a “disuasión basada en resultados”. También quieren que las regulaciones sean más estrictas, se centren en la seguridad de la IA de vanguardia y eviten la duplicación de requisitos federales.

5. ¿Quién apoya el proyecto de ley? Hinton Bengio escribe una carta de apoyo, el senador acusa a a16z de difundir rumores

Aunque el proyecto de ley de seguridad de la IA de California enfrentó controversia tan pronto como se propuso, muchos académicos y expertos de la industria apoyan dicha regulación. El 7 de agosto, justo cuando este proyecto de ley enfrentaba una vez más una ola de críticas, el ganador del Premio Turing y "Padrino de la IA"Jeffrey Hinton(Geoffrey Hinton), conocido estudioso de la IA, ganador del Premio TuringJosué Bengio(Yoshua Bengio), experto en derecho del ciberespacio, profesor de la Facultad de Derecho de HarvardLorenzo Lessig(Lawrence Lessig) y autor del popular libro de texto sobre IA "Artificial Intelligence: A Modern Approach" y profesor de la Universidad de California, BerkeleyEstuardo Russell(Stuart Russell) escribieron conjuntamente a la Legislatura de California para expresar su "fuerte apoyo" a la Ley de Seguridad de la IA de California.


▲Cuatro académicos de renombre escribieron una carta apoyando la Ley de Seguridad de la IA de California (Fuente: safesecureai)

Los cuatro académicos dijeron que están profundamente preocupados por los riesgos de la IA y que la Ley de Seguridad de la IA de California es el requisito mínimo para regular eficazmente la tecnología, escribieron:

El proyecto de ley no tiene un sistema de licencias y no requiere que las empresas obtengan permiso de las agencias gubernamentales antes de entrenar o implementar modelos. Se basa en la autoevaluación de riesgos de una empresa y no las responsabiliza estrictamente ni siquiera en caso de desastre.

En relación con los riesgos que enfrentamos,Esta es una legislación muy laxa.. Las leyes actuales que rigen la IA no son tan estrictas como las que regulan las tiendas de sándwiches, y eliminar esta medida fundamental sería unaerror historico——Un año después, cuando se lance la próxima generación de sistemas de inteligencia artificial más potentes, este error será aún más obvio.

También enfatizaron queSi estos riesgos son infundados o reales,, todas las partes relevantes deben asumir la responsabilidad de mitigar los riesgos. "Como el grupo de expertos que mejor conoce estos sistemas", creen que estos riesgos son posibles y lo suficientemente importantes como para abordarlos.Pruebas de seguridad y precauciones de sentido común

Cuatro expertos también mencionaron el reciente escándalo de seguridad de Boeing. Creen que los aviones, la medicina y otras tecnologías complejas se han vuelto muy seguras y confiables, lo cual es el resultado de los esfuerzos conjuntos de la industria y el gobierno.Cuando los reguladores relajan las reglas y permiten la autorregulaciónSurgen problemas como el de Boeing, que asustan muchísimo al público y a la industria.

Esta carta de apoyo fue apoyada por muchos internautas, pero algunas personas creyeron que Hinton y Bengio ya no están involucrados en el trabajo de primera línea.Por lo tanto, no tienen voz y voto en cuestiones relevantes.

Varios ex empleados de OpenAI también apoyaron el proyecto de ley, incluido Daniel Kokotajlo, quien renunció voluntariamente a sus opciones de OpenAI a cambio del derecho a criticar libremente a la empresa. Él cree que las afirmaciones de los críticos del proyecto de ley de que el progreso de la IA se estancará probablemente no se harán realidad.


▲ Comentarios relevantes de Kokotayolo (Fuente: Plataforma X)

Simon Last, fundador de Notion, un unicornio de herramientas de productividad de inteligencia artificial valorado en decenas de miles de millones de dólares, esIndustriaAlgunos partidarios del proyecto de ley de seguridad de la IA de California. Escribió un artículo en Los Angeles Times, uno de los medios locales más influyentes de California, en apoyo del proyecto de ley, diciendo que cuando las leyes de IA a nivel federal son difíciles de implementar,Como centro tecnológico en Estados Unidos e incluso en el mundo, California tiene importantes responsabilidades.. Él cree que la supervisión de modelos no sólo mejora su seguridad, sino que también facilita la creación de nuevas empresas de IA que crean productos basados ​​en modelos básicos.Esto reducirá la carga para las pequeñas y medianas empresas.

Además, también cree que es un error enfatizar que "la regulación debería centrarse en los usos nocivos de la IA y en el comportamiento inadecuado de los usuarios, en lugar de en la tecnología subyacente". Debido a que el primero ha sido clasificado como ilegal en las leyes de todos los niveles, el nuevo proyecto de ley de California proporciona el propósitoAspectos faltantes de la regulación anterior: Evite posibles daños.

Después de que YC y a16z lanzaran una campaña publicitaria, el senador del estado de California, Wei Shangao, autor principal de la Ley de seguridad de la IA de California, emitió una larga carta en respuesta a las quejas pertinentes, diciendo que muchas de las declaraciones hechas por estas dos organizaciones sobre la ley de California La Ley de Seguridad de la IA era inexacta y algunas afirmaciones son "distorsiones provocativas de los hechos", como que el proyecto de ley enviaría a la cárcel a los desarrolladores que no estimaran con precisión los riesgos del modelo o prohibiría las publicaciones de código abierto.


▲ La respuesta de Wei Shangao a YC y a16z (Fuente: safesecureai)

A principios de 2023, Wei Shangao comenzó a ponerse en contacto con YC, pero dijo que todavía no había recibido comentarios detallados de YC sobre cómo mejorar el proyecto de ley. a16z participó tarde en el proceso legislativo y hasta el momento no ha propuesto ninguna enmienda sustancial.

En esta carta, Wei Shangao respondió a varias preocupaciones fundamentales de los opositores al proyecto de ley:

1、Los desarrolladores no irán a la cárcel por no predecir los riesgos del modelo.En primer lugar, los desarrolladores de nuevas empresas y los académicos no deben preocuparse, ya que el proyecto de ley no se aplica a ellos. En segundo lugar, la cláusula de perjurio del proyecto de ley sólo se aplica a los promotores."deliberadamente"Sólo entra en vigor si se hace una declaración falsa, y los juicios erróneos involuntarios sobre las capacidades de un modelo no activarán la cláusula de perjurio (que ha sido eliminada de las enmiendas de hoy).

2、El proyecto de ley no crea responsabilidades completamente nuevas.Según la ley existente, tanto los desarrolladores de modelos como los desarrolladores individuales pueden ser demandados si un modelo causa daño, y se aplica a modelos de todas las capacidades y todas las personas lesionadas pueden demandar. El nuevo proyecto de ley de California no sóloLimita el alcance de la supervisión., y también limita el derecho a demandar aFiscal General de Californiayconsejo laboralsobre ambas entidades.

3、El proyecto de ley no sofocará la innovación de California.Este proyecto de ley se aplica a todas las empresas que hacen negocios en California. Incluso si trasladan su sede fuera de California, deben cumplir con las regulaciones pertinentes (Nota de Zhixi: California es la quinta economía más grande del mundo según el PIB y tiene un ecosistema tecnológico completo. Tecnología. empresas Es difícil desvincularse de California). Cuando California aprobó leyes de privacidad de datos y leyes de protección ambiental, muchas personas afirmaron que esto obstaculizaría la innovación, pero el hecho es que California sigue liderando la innovación.

4、Los interruptores de apagado y los requisitos de evaluación de seguridad no obstaculizarán el desarrollo de la IA de código abierto.El proyecto de ley ahora ha sido revisado y fortalecido la protección de la IA de código abierto. El requisito de apagado de emergencia del modelo en el proyecto de ley solo se aplica a los modelos bajo el control del desarrollador, excluyendo los modelos de código abierto no controlados. El proyecto de ley también establece un nuevo comité asesor para defender y apoyar los esfuerzos de desarrollo de IA de código abierto seguros y confiables.

Wei Shangao también proporcionó un "paquete vago" para las personas preocupadas por este proyecto de ley, resumiendo 6 puntos clave del proyecto de ley (ver la imagen a continuación).
▲Puntos clave del proyecto de ley (Fuente: safesecureai)

Conclusión: California ha dado un paso importante y el futuro del proyecto de ley no está claro

Aunque un gran número de expertos de la industria se oponen al proyecto de ley de seguridad de la IA de California, los resultados de algunas organizaciones encuestadoras muestran que los residentes de California en general tienen una actitud positiva hacia este proyecto de ley.

Cuando lo logre oficialmente, puede enfrentar desafíos en los tribunales por parte de oponentes decididos como a16z. Eso dejaría el proyecto de ley en suspenso hasta que la Corte Suprema de Estados Unidos se pronuncie.

Recientemente, la Corte Suprema de Estados Unidos anuló la "Doctrina Chevron" que había durado casi 40 años y apoyó la voz de las agencias reguladoras. Este principio requiere que los jueces cedan ante la interpretación de las disposiciones legales que hacen los reguladores gubernamentales cuando éstas no son claras. La abolición de este principio refleja la actitud conservadora general de la actual Corte Suprema de Estados Unidos hacia la regulación tecnológica.