Shi Qian y Xiao Chao | Construyendo una línea de defensa sólida para el sistema de supervisión de seguridad de inteligencia artificial
2024-08-11
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
La imagen muestra el robot Tesla Optimus Prime. Foto de nuestro reportero Yuan Jing.
La Tercera Sesión Plenaria del XX Comité Central del Partido Comunista de China propuso: "Fortalecer la construcción del sistema de seguridad de la red y establecer un sistema de supervisión de seguridad de inteligencia artificial. Este es un despliegue importante realizado por el Comité Central del Partido para coordinar el desarrollo". y seguridad y responder activamente a los riesgos de seguridad de la inteligencia artificial. Para predecir y responder eficazmente a los riesgos derivados del desarrollo de la tecnología de inteligencia artificial, así como al impacto real que trae la aplicación de la inteligencia artificial, y para promover eficazmente la aplicación y el desarrollo de la tecnología de inteligencia artificial, debemos analizar en profundidad Se necesitan predicciones, moderación científica y orientación correcta para construir un sistema integral de gestión de riesgos sociales con inteligencia artificial que tenga en cuenta el desarrollo y la seguridad e inyecte impulso para mejorar las nuevas características de los riesgos sociales causados por la tecnología inteligente. la eficiencia de la gobernanza social.
Cuatro nuevas características de los riesgos sociales en la era de la inteligencia artificial
Actualmente, el mundo ha entrado en una era de "sociedad del riesgo" con gran incertidumbre. La tecnología de inteligencia artificial está cambiando la lógica operativa y las reglas de la sociedad moderna, los valores y comportamientos de la sociedad humana se están reconstruyendo sistemáticamente y los riesgos sociales resultantes. Presenta principalmente cuatro nuevas características: diferencial, cascada, derivada e histéresis:
En primer lugar, la inteligencia artificial ha aumentado la velocidad y el alcance de la difusión de información sobre riesgos, y los riesgos sociales son contagiosos. La tecnología de inteligencia artificial reduce la dificultad de generación de información y aumenta la amplitud y profundidad de la difusión de información. La difusión de información amplía el alcance del impacto de los eventos de riesgo, formando una naturaleza altamente contagiosa. Al mismo tiempo, la inteligencia artificial puede identificar y amplificar las emociones y comportamientos de los usuarios mediante el análisis de sentimientos y la predicción de comportamiento. Si un tipo de evento de riesgo desencadena fuertes reacciones emocionales como pánico e ira, el sistema de inteligencia artificial puede dar prioridad a recomendar y difundir este tipo de información, agravando aún más el sentimiento del público y haciendo que la información de riesgo sea altamente contagiosa y contagiosa. La supervisión y el control eficaces tendrán un gran impacto en la seguridad social y el orden social.
En segundo lugar, la inteligencia artificial desdibuja los límites virtuales y reales de los sistemas sociales, y los riesgos sociales se multiplican. La tecnología de inteligencia artificial hace que personas y personas, personas y cosas, y cosas y cosas estén altamente acopladas. Los límites entre el mundo virtual y el mundo real se vuelven borrosos, formando un sistema de red complejo. Muchas actividades sociales se llevan a cabo a través de plataformas virtuales y se integran en situaciones de la vida real. La fuga de datos en el mundo virtual puede conducir al robo de identidad en el mundo real y la opinión pública en las redes sociales puede afectar rápidamente el comportamiento social y la toma de decisiones en el mundo real. . Por el contrario, los incidentes de seguridad en el mundo real también afectarán la seguridad del mundo virtual a través de la transmisión de datos, y la interacción entre lo virtual y lo real provocará un efecto en cascada de riesgos sociales. Gracias a la tecnología inteligente, los diferentes sistemas sociales están altamente interconectados y muchos procesos de toma de decisiones están automatizados. Sin embargo, las decisiones incorrectas de los sistemas automatizados pueden desencadenar una serie de reacciones en cadena que conduzcan a una propagación en cascada de los riesgos.
En tercer lugar, la inteligencia artificial ha desencadenado una serie de riesgos secundarios y cadenas de riesgo, y los riesgos sociales son derivados. La aplicación de tecnología de inteligencia artificial puede causar riesgos iniciales y, en el proceso de resolver o mitigar los riesgos, causará una serie de riesgos secundarios, formando una cadena de riesgo compleja. Los eventos de riesgo pueden propagarse rápidamente entre diferentes campos y transmitirse en múltiples niveles, formando riesgos secundarios. Por ejemplo, los ciberataques no sólo provocan fugas de información, sino que también pueden causar accidentes en el mundo real, como atascos y fallas en los equipos médicos, al afectar el Internet de las cosas. Los errores de datos o algoritmos inadecuados también pueden dar lugar a una serie de riesgos secundarios. Tomemos como ejemplo el sesgo algorítmico. El mecanismo injusto de toma de decisiones que provoca a menudo conduce a la insatisfacción y al conflicto social. Los eventos de riesgo generalmente causan cambios en el comportamiento y la psicología del público, lo que genera nuevos riesgos secundarios y forma una cadena de riesgo.
En cuarto lugar, la inteligencia artificial oculta el impacto de algunos eventos de riesgo y los riesgos sociales tienen un carácter rezagado. La tecnología de inteligencia artificial se basa en grandes cantidades de datos para la capacitación y las operaciones, y se basa en algoritmos para la toma de decisiones. Es posible que la fuga o el abuso de datos no tengan un impacto obvio inmediato en el proceso de toma de decisiones y en los resultados. , pero con el tiempo, el abuso de datos puede ocurrir y los efectos acumulativos del sesgo algorítmico surgirán con el tiempo. Al mismo tiempo, la tecnología de inteligencia artificial también depende en gran medida de la infraestructura técnica y los sistemas de automatización. Estas fallas del sistema o fallas de diseño pueden no ser fáciles de detectar en el corto plazo, pero con el tiempo, la acumulación gradual de problemas puede generar riesgos sistémicos. . La aplicación de tecnología inteligente tiene un profundo impacto en el comportamiento social y la psicología. Por ejemplo, el uso a largo plazo de sistemas de recomendación inteligentes puede generar un efecto capullo de información, reduciendo la visión del usuario y afectando así a la diversidad y la inclusión de la sociedad.
Cuatro estrategias para lograr una “gobernanza orientada a la IA”
Para responder eficazmente a los riesgos sociales y las nuevas características que pueden ser causados por el desarrollo de la tecnología de inteligencia artificial, el modelo tradicional de gobernanza de riesgos debe cambiarse de manera específica, al tiempo que se utiliza la tecnología de inteligencia artificial para mejorar la eficiencia de la identificación de riesgos y alerta temprana y lograr el objetivo de una "gobernanza basada en inteligencia artificial". Al mismo tiempo, debemos prevenir y advertir eficazmente contra los posibles riesgos causados por la aplicación de tecnología de inteligencia artificial, realizar una "gobernanza orientada a la inteligencia artificial" y construir una lógica de gobernanza bidireccional en la que "la tecnología potencia la gobernanza social y la gobernanza previene el abuso de la tecnología".
En primer lugar, utilizar datos multimodales para identificar relaciones interactivas complejas y mejorar la precisión de la identificación de riesgos y la alerta temprana. Los datos multimodales se refieren a datos obtenidos de diferentes campos o perspectivas para el mismo objeto de descripción y se utilizan para representar diferentes formas de datos o diferentes formatos del mismo formulario. La tecnología de fusión de datos multimodal puede extraer y utilizar completamente información complementaria entre datos, caracterizar de manera más integral las características de los objetos, identificar o inferir relaciones interactivas más complejas y lograr percepción, análisis de correlación y predicción de situaciones en tiempo real de sistemas gigantes sociales complejos. Puede mejorar la precisión de la identificación de riesgos, crear un marco de evaluación de riesgos y alerta temprana más flexible, y lograr una gestión y control de riesgos dinámicos y con visión de futuro. También puede integrar eficazmente los procesos independientes de toma de decisiones en el proceso de alerta y respuesta a los riesgos. Proporcionar diferentes entidades de toma de decisiones para diferentes entidades de toma de decisiones. Proporcionar métodos y herramientas básicos para la colaboración. Por lo tanto, es posible analizar exhaustivamente datos de diferentes modalidades, como texto, imágenes, audio y datos de sensores, integrando diferentes datos modales de diferentes campos, y aplicar tecnologías como el aprendizaje automático y el aprendizaje profundo para identificar relaciones interactivas complejas entre datos. . Promover la colaboración multipartita entre gobiernos, empresas, organizaciones sociales, instituciones académicas, etc., establecer un mecanismo de intercambio de información entre departamentos, integrar recursos de datos multimodales, construir un sistema de alerta temprana en tiempo real y descubrir y advertir oportunamente sobre potenciales. riesgos.
En segundo lugar, desarrollar planes personalizados de gestión de riesgos basados en el nivel de desarrollo y aplicación de tecnología inteligente para prevenir la concentración del estrés por riesgos. Debido a las diferencias en el desarrollo económico y social y los niveles de aplicación de la tecnología de inteligencia artificial entre las diferentes regiones, esto conduce a inconsistencias en las capacidades de respuesta al riesgo y a una distribución y evolución desigual de los riesgos sociales entre las regiones. Es necesario formular planes personalizados de gestión de riesgos basados en el desarrollo regional real, reducir el estrés local a través de la colaboración multiagente y multirregional y evitar daños estructurales al sistema social. Por lo tanto, la gobernanza del riesgo de la tecnología de inteligencia artificial debe primero evaluar el nivel de aplicación de la tecnología de inteligencia artificial en diferentes regiones, analizar las capacidades de respuesta al riesgo, incluidos los recursos de emergencia, la infraestructura técnica y las capacidades de gestión, e identificar las fortalezas y debilidades de la respuesta al riesgo regional. Desarrollar estrategias personalizadas de gestión de riesgos basadas en las condiciones específicas de las diferentes regiones. Por ejemplo, las áreas económicamente desarrolladas pueden centrarse en fortalecer la seguridad técnica y la protección de datos, mientras que las áreas económicamente subdesarrolladas necesitan mejorar la construcción de infraestructura y la popularización de la tecnología. A través del apoyo político y la inversión de capital, promoveremos la mejora del nivel de aplicación de tecnología inteligente en áreas tecnológicamente atrasadas y reduciremos la brecha tecnológica y las capacidades de respuesta a riesgos entre regiones.
En tercer lugar, debemos equilibrar el desarrollo tecnológico y la regulación de riesgos, optimizar el costo total de la gestión de riesgos y garantizar que la tecnología de inteligencia digital sea "manejable" y "flexible". La gobernanza del riesgo de la inteligencia artificial debe tener en cuenta tanto la "seguridad" como el "desarrollo", no sólo para evitar pérdidas económicas y sociales causadas por fallas de gobernanza, sino también para evitar la reducción de los beneficios económicos y sociales causados por una gobernanza excesiva. El costo de la gobernanza de riesgos de la inteligencia artificial incluye muchos factores de costo, como los costos de prevención de riesgos cuando el mecanismo de gobernanza está en vigor y falla, los costos de fracaso social y los costos de pérdida de beneficios sociales. La intensidad de la supervisión se puede ajustar de manera oportuna de acuerdo con la madurez de la tecnología y los escenarios de aplicación. En la etapa inicial de la tecnología, se adopta una supervisión laxa para fomentar la innovación; en la etapa madura de la tecnología, se fortalece la supervisión para garantizar la seguridad y la estandarización. Al formular estrategias de gobernanza de riesgos, es necesario cuantificar diferentes elementos de costos, realizar análisis de costo-beneficio y seleccionar el plan de gobernanza óptimo para controlar eficazmente los riesgos y evitar costos de gobernanza innecesarios. Al mismo tiempo, para reducir eficazmente los costos de gestión de riesgos, se puede proporcionar apoyo político y financiero para alentar a las empresas y a las instituciones de investigación científica a llevar a cabo innovaciones en tecnología de seguridad y, al mismo tiempo que se promueve la innovación en tecnología de inteligencia artificial, garantizar el desarrollo simultáneo de medidas de seguridad. .
Finalmente, debemos estudiar y juzgar de antemano los riesgos sociales que pueden surgir del desarrollo de la tecnología de inteligencia artificial y formular adecuadamente sistemas y estándares de supervisión de riesgos sociales de inteligencia artificial. El rápido desarrollo y la iteración de la tecnología de inteligencia artificial son a menudo más rápidos que la formulación y el ajuste de políticas y leyes, lo que genera un cierto retraso en los estándares de políticas de gobernanza para la inteligencia artificial. Por lo tanto, es necesario incorporar la aplicación de la tecnología de inteligencia artificial en la gobernanza social, formular sistemas de supervisión de seguridad y estándares industriales relevantes para los riesgos sociales de la inteligencia artificial, y garantizar que las políticas y leyes puedan seguir el ritmo del desarrollo tecnológico y al mismo tiempo promover la construcción y el desarrollo de Escenarios de aplicación de tecnología inteligente. Las tendencias de desarrollo de la tecnología de inteligencia artificial deben analizarse periódicamente, se deben realizar evaluaciones integrales desde múltiples dimensiones como la tecnología, la ética, el derecho, la economía y la sociedad, se debe establecer un mecanismo de alerta temprana de riesgos de inteligencia artificial y se deben descubrir los riesgos potenciales que traen las tecnologías emergentes. y pronosticarse de manera oportuna, y se deben llevar a cabo investigaciones y formulación de políticas y regulaciones flexibles y con visión de futuro. Además, debemos participar activamente en la formulación de estándares y regulaciones internacionales, establecer una plataforma de cooperación transnacional, promover la cooperación y los intercambios entre países en la gobernanza de la inteligencia artificial y responder conjuntamente a los riesgos y desafíos tecnológicos globales.
(Afiliación del autor: Facultad de Economía y Gestión, Universidad de Tongji)
autor:
Texto: Shi Qian Xiao Chao Imagen: Yuan Jing Editor: Chen Yu Editor: Yang Yiqi
Indique la fuente al reimprimir este artículo.