mi información de contacto
correo[email protected]
2024-09-30
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
¡el gobernador de california, gavin newsom, vetó oficialmente el proyecto de ley sb-1047 esta mañana temprano!
vale la pena mencionar que en los últimos 30 días, gavin firmó un total de 17 proyectos de ley sobre la supervisión de modelos grandes y el uso seguro de la ia generativa, pero solo vetó 1047. parece que no es una persona confundida.
en este proceso de rechazo activo, el líder de la industria de la ia, ng enda, el ganador del premio turing, yann lecun, el profesor de stanford, li feifei, etc., desempeñaron un papel importante. ng, en particular, ha hecho grandes contribuciones al pedir a los profesionales de la tecnología que boicoteen el proyecto de ley en muchas ocasiones públicas.
hoy también es un día importante para que los desarrolladores de todo el mundo puedan seguir utilizando grandes modelos de código abierto de las principales empresas tecnológicas estadounidenses como meta y google.
una breve introducción al proyecto de ley sb-1047
"aigc open community" ha escrito sobre el proyecto de ley sb-1047 6 veces en total, y es uno de los medios que más atención presta a este evento en china. permítanme presentarles brevemente este proyecto de ley y explicar por qué traerá mucha resistencia al desarrollo de grandes modelos de código abierto y de ia generativa.
la sb-1047 fue redactada por california el 7 de febrero de este año. su nombre completo es "ley de innovación de seguridad de modelos grandes de ai de frontera sb-1047". se utiliza principalmente para mejorar las regulaciones de seguridad, transparencia y uso de los modelos grandes.
pero hay muchos contenidos irrazonables, por ejemplo, estipula que el costo de desarrollo y capacitación de modelos grandes supera los 100 millones de dólares, como la serie llama-3 de código abierto de meta; si lo usa para hacer algunas cosas ilegales, el desarrollador de la fuente también será severamente castigado.
en términos de supervisión, cuando una gran empresa abre su modelo a usuarios de otros países, debe enviar toda la información del cliente, incluida la identidad del cliente, el número de tarjeta de crédito, el número de cuenta, el identificador del cliente, el identificador de la transacción, el correo electrónico y el número de teléfono.
al mismo tiempo, se debe enviar información una vez al año y se evalúa el comportamiento e intenciones de los usuarios. toda la información del usuario tendrá una copia de seguridad durante 7 años y también se archivará ante la administración de aduanas y fronteras.
hay muchas cláusulas irrazonables similares. las personas que redactaron este proyecto de ley quieren acabar por completo con los modelos grandes de código abierto y la exportación de modelos grandes. por lo tanto, gigantes tecnológicos como openai, meta y google se convertirán en las mayores víctimas del sb-1047.
además, esta zona de california en estados unidos es muy especial en el campo de la ciencia y la tecnología. alberga las sedes de google, meta, openai, apple, intel y tesla. las mejores escuelas de informática del mundo, como stanford, la universidad de california en berkeley, caltech y la universidad del sur de california, se consideran uno de los centros mundiales de innovación científica y tecnológica.
una vez que se implemente este proyecto de ley, no sólo las grandes empresas se verán duramente afectadas, sino que incluso algunas pequeñas empresas emergentes quedarán casi destruidas. cuando salió el proyecto de ley, mucha gente dijo que algunas empresas de tecnología se marcharían.
razones para vetar el proyecto de ley sb-1047
según la información de veto publicada en el sitio web oficial de california, el gobernador gavin dijo que 32 de las 50 principales empresas de ia del mundo están en california y son cruciales para el desarrollo y la innovación de grandes modelos de ia. sb-1047 tiene buenas intenciones, pero tiene serios problemas con su implementación.
al centrarse únicamente en los modelos de ia a gran escala más caros, el sb-1047 establece un marco regulatorio que puede dar al público una falsa sensación de seguridad al controlar esta tecnología en rápida evolución. los modelos más pequeños y especializados pueden ser igual o incluso más peligrosos que los modelos grandes a los que se dirige el sb-1047, lo que obstaculiza la innovación en la tecnología de ia.
además, el sb-1047 carece de flexibilidad y no proporciona suficiente flexibilidad para diferentes tipos de aplicaciones de ia, lo que podría generar confusión e incertidumbre durante la implementación.
gavin señaló que el proyecto de ley no tiene en cuenta si el modelo de ia se implementa en un entorno de alto riesgo, lo cual es muy importante porque es posible que no se requieran las mismas medidas regulatorias estrictas en un entorno de bajo riesgo. al mismo tiempo, el proyecto de ley no aclara qué tipos de decisiones son críticas ni define qué son datos sensibles, lo que puede generar deficiencias en la protección de la privacidad personal y la seguridad de los datos.
gavin enfatizó que un enfoque único como el sb-1047 inhibirá la innovación y el desarrollo de la tecnología de inteligencia artificial en ciertas áreas, y las disposiciones del proyecto de ley pueden ser difíciles de implementar porque no brindan una guía clara para diferentes tipos. de modelos y aplicaciones de ia. la mejor manera de proteger al público de las amenazas reales de la tecnología de ia debería ser más matizada y específica, en lugar de soluciones únicas para todos.
a continuación se presentan las numerosas acusaciones irrazonables hechas por andrew ng, yann lecun, li fei-fei y otros sobre el proyecto de ley sb-1047. también puede consultar las interpretaciones anteriores del proyecto de ley por parte de la "comunidad abierta aigc".