nouvelles

Shi Qian et Xiao Chao|Construire une ligne de défense solide pour le système de supervision de la sécurité de l'intelligence artificielle

2024-08-11

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

La photo montre le robot Tesla Optimus Prime. Photo de notre journaliste Yuan Jing
La troisième session plénière du 20e Comité central du Parti communiste chinois a proposé : « Renforcer la construction du système de sécurité des réseaux et établir un système de supervision de la sécurité de l'intelligence artificielle. Il s'agit d'un déploiement important réalisé par le Comité central du Parti pour coordonner le développement. » et la sécurité et réagir activement aux risques liés à la sécurité liés à l’intelligence artificielle. Afin de prévoir et de répondre efficacement aux risques découlant du développement de la technologie de l'intelligence artificielle, ainsi que de l'impact réel apporté par l'application de l'intelligence artificielle, et de promouvoir efficacement l'application et le développement de la technologie de l'intelligence artificielle, nous devons analyser en profondeur Les nouvelles caractéristiques des risques sociaux provoquées par la technologie intelligente et l'anticipation des risques sociaux sont nécessaires pour construire un système complet de gestion des risques sociaux par intelligence artificielle qui prenne en compte le développement et la sécurité et donne une impulsion à l'amélioration. l’efficacité de la gouvernance sociale.
Quatre nouvelles caractéristiques des risques sociaux à l’ère de l’intelligence artificielle
Actuellement, le monde est entré dans une ère de « société du risque » avec une grande incertitude. La technologie de l'intelligence artificielle modifie la logique de fonctionnement et les règles de la société moderne. Les valeurs et les comportements de la société humaine sont systématiquement reconstruits, ainsi que les risques sociaux qui en résultent. Il présente principalement quatre nouvelles caractéristiques : spread, cascade, dérivée et hystérésis :
Premièrement, l’intelligence artificielle a accéléré et étendu la diffusion des informations sur les risques, et les risques sociaux sont contagieux. La technologie de l'intelligence artificielle réduit la difficulté de génération d'informations et augmente l'ampleur et la profondeur de la diffusion de l'information. La diffusion de l'information élargit la portée de l'impact des événements à risque, formant ainsi un caractère hautement contagieux. Dans le même temps, l'intelligence artificielle peut identifier et amplifier les émotions et les comportements des utilisateurs grâce à l'analyse des sentiments et à la prédiction des comportements. Si un type d'événement à risque déclenche de fortes réactions émotionnelles telles que la panique et la colère, le système d'intelligence artificielle peut donner la priorité à la recommandation et à la diffusion de ce type d'informations, aggravant encore l'opinion publique et rendant les informations sur les risques hautement contagieuses et contagieuses. Une supervision et un contrôle efficaces auront un impact considérable sur la sécurité sociale et l’ordre social.
Deuxièmement, l’intelligence artificielle brouille les frontières virtuelles et réelles des systèmes sociaux, et les risques sociaux se multiplient en cascade. La technologie de l'intelligence artificielle rend les personnes et les personnes, les personnes et les choses, et les choses et les choses fortement couplées. Les frontières entre le monde virtuel et le monde réel deviennent floues, formant un système de réseau complexe. De nombreuses activités sociales sont menées via des plateformes virtuelles et intégrées à des situations réelles. Les fuites de données dans le monde virtuel peuvent conduire à un vol d'identité dans le monde réel. L'opinion publique sur les réseaux sociaux peut rapidement affecter le comportement social et la prise de décision dans le monde réel. . Au contraire, les incidents de sécurité dans le monde réel affecteront également la sécurité du monde virtuel à travers la transmission de données, et l'interaction entre virtuel et réel provoquera un effet en cascade de risques sociaux. Grâce à une technologie intelligente, les différents systèmes sociaux sont fortement interconnectés et de nombreux processus de prise de décision sont automatisés. Cependant, des décisions incorrectes prises par des systèmes automatisés peuvent déclencher une série de réactions en chaîne, conduisant à une propagation en cascade des risques.
Troisièmement, l’intelligence artificielle a déclenché une série de risques secondaires et de chaînes de risques, et les risques sociaux en sont dérivés. L'application de la technologie de l'intelligence artificielle peut entraîner des risques initiaux, et dans le processus de résolution ou d'atténuation de ces risques, elle entraînera en outre une série de risques secondaires, formant une chaîne de risques complexe. Les événements à risque peuvent se propager rapidement entre différents domaines et se transmettre à plusieurs niveaux, formant ainsi des risques secondaires. Par exemple, les cyberattaques entraînent non seulement des fuites d’informations, mais peuvent également provoquer des accidents réels tels que des embouteillages et des pannes d’équipements médicaux en affectant l’Internet des objets. Des erreurs de données ou des algorithmes inappropriés peuvent également donner lieu à une série de risques secondaires. Prenons l'exemple des préjugés algorithmiques. Le mécanisme de prise de décision injuste qu'il provoque conduit souvent à l'insatisfaction sociale et aux conflits. Les événements à risque entraînent généralement des changements dans le comportement et la psychologie du public, créant ainsi de nouveaux risques secondaires et formant une chaîne de risques.
Quatrièmement, l’intelligence artificielle masque l’impact de certains événements à risque, et les risques sociaux ont un caractère retardé. La technologie de l'intelligence artificielle s'appuie sur de grandes quantités de données pour la formation et les opérations, et s'appuie sur des algorithmes pour la prise de décision. Les fuites ou les abus de données peuvent ne pas avoir d'impact immédiat et évident sur le processus de prise de décision et ses résultats. , mais avec le temps, des abus de données peuvent survenir et les effets cumulatifs des biais algorithmiques apparaîtront au fil du temps. Dans le même temps, la technologie de l’intelligence artificielle dépend également fortement des infrastructures techniques et des systèmes d’automatisation. Ces défaillances du système ou défauts de conception peuvent ne pas être faciles à détecter à court terme, mais au fil du temps, l’accumulation progressive de problèmes peut entraîner des risques systémiques. . L’application de la technologie intelligente a un impact profond sur le comportement social et la psychologie. Par exemple, l'utilisation à long terme de systèmes de recommandation intelligents peut conduire à un effet de cocon d'informations, rétrécissant la vision de l'utilisateur, affectant ainsi la diversité et l'inclusion de la société.
Quatre stratégies pour parvenir à une « gouvernance orientée IA »
Afin de répondre efficacement aux risques sociaux et aux nouvelles caractéristiques qui peuvent être provoqués par le développement de la technologie de l'intelligence artificielle, le modèle traditionnel de gouvernance des risques doit être modifié de manière ciblée, tout en utilisant la technologie de l'intelligence artificielle pour améliorer l'efficacité de l'identification des risques et alerte précoce et atteindre l'objectif d'une « gouvernance basée sur l'intelligence artificielle ». Dans le même temps, nous devons prévenir et mettre en garde efficacement contre les risques possibles causés par l'application de la technologie de l'intelligence artificielle, réaliser une « gouvernance basée sur l'intelligence artificielle » et construire une une logique de gouvernance bidirectionnelle dans laquelle « la technologie renforce la gouvernance sociale et la gouvernance empêche les abus technologiques ».
Premièrement, utilisez des données multimodales pour identifier des relations interactives complexes et améliorer la précision de l’identification des risques et de l’alerte précoce. Les données multimodales font référence aux données obtenues à partir de différents champs ou perspectives pour le même objet de description et sont utilisées pour représenter différentes formes de données ou différents formats du même formulaire. La technologie de fusion de données multimodales peut exploiter et utiliser pleinement les informations complémentaires entre les données, caractériser de manière plus complète les caractéristiques des objets, identifier ou déduire des relations interactives plus complexes et réaliser une perception en temps réel, une analyse de corrélation et une prévision de la situation de systèmes géants sociaux complexes. Il peut améliorer la précision de l'identification des risques, créer un cadre d'évaluation des risques et d'alerte précoce plus flexible, et parvenir à une gestion et un contrôle des risques prospectifs et dynamiques. Il peut également intégrer efficacement les processus de prise de décision indépendants dans le processus d'alerte et de réponse aux risques. fournir différentes entités décisionnelles pour différentes entités décisionnelles Fournir des méthodes et des outils de base pour la collaboration. Par conséquent, il est possible d'analyser de manière exhaustive les données provenant de différentes modalités telles que le texte, les images, l'audio et les données de capteurs en intégrant différentes données modales provenant de différents domaines, et d'appliquer des technologies telles que l'apprentissage automatique et l'apprentissage profond pour identifier des relations interactives complexes entre les données. . Promouvoir la collaboration multipartite entre les gouvernements, les entreprises, les organisations sociales, les établissements universitaires, etc., établir un mécanisme de partage d'informations entre les départements, intégrer des ressources de données multimodales, créer un système d'alerte précoce en temps réel et découvrir et avertir en temps opportun les potentiels. risques.
Deuxièmement, développer des plans personnalisés de gestion des risques basés sur le niveau de développement et d'application de technologies intelligentes pour prévenir la concentration du stress lié aux risques. En raison des différences de développement économique et social et de niveaux d’application des technologies d’intelligence artificielle entre les différentes régions, cela entraîne des incohérences dans les capacités de réponse aux risques ainsi qu’une répartition et une évolution inégales des risques sociaux entre les régions. Il est nécessaire de formuler des plans personnalisés de gestion des risques basés sur le développement régional réel, de réduire le stress local grâce à une collaboration multi-agents et multi-régionales et d'éviter des dommages structurels au système social. Par conséquent, la gouvernance des risques liés à la technologie de l’intelligence artificielle doit d’abord évaluer le niveau d’application de la technologie de l’intelligence artificielle dans différentes régions, analyser les capacités de réponse aux risques, y compris les ressources d’urgence, l’infrastructure technique et les capacités de gestion, et identifier les forces et les faiblesses de la réponse régionale aux risques. Développer des stratégies personnalisées de gestion des risques basées sur les conditions spécifiques des différentes régions. Par exemple, les zones économiquement développées peuvent se concentrer sur le renforcement de la sécurité technique et de la protection des données, tandis que les zones économiquement sous-développées doivent améliorer la construction d’infrastructures et la vulgarisation technologique. Grâce au soutien politique et aux investissements en capital, nous favoriserons l'amélioration du niveau d'application des technologies intelligentes dans les zones technologiquement en retard et réduirons l'écart technologique et les capacités de réponse aux risques entre les régions.
Troisièmement, nous devons équilibrer le développement technologique et la réglementation des risques, optimiser le coût total de la gestion des risques et garantir que la technologie de l'intelligence numérique soit à la fois « gérable » et « flexible ». La gouvernance des risques liés à l'intelligence artificielle doit prendre en compte à la fois la « sécurité » et le « développement », non seulement pour éviter les pertes économiques et sociales causées par une défaillance de la gouvernance, mais aussi pour empêcher la réduction des avantages économiques et sociaux causée par une gouvernance excessive. Le coût de la gouvernance des risques liés à l’intelligence artificielle comprend de nombreux facteurs de coûts tels que les coûts de prévention des risques lorsque le mécanisme de gouvernance est en vigueur et en cas d’échec, les coûts de l’échec social et les coûts de perte des avantages sociaux. L'intensité de la supervision peut être ajustée en temps opportun en fonction de la maturité de la technologie et des scénarios d'application. Au stade précoce de la technologie, une supervision souple est adoptée pour encourager l'innovation ; au stade de maturité de la technologie, la supervision est renforcée pour garantir la sécurité et la normalisation. Lors de la formulation de stratégies de gouvernance des risques, il est nécessaire de quantifier les différents éléments de coût, de mener une analyse coûts-avantages et de sélectionner le plan de gouvernance optimal pour contrôler efficacement les risques et éviter les coûts de gouvernance inutiles. Dans le même temps, afin de réduire efficacement les coûts de gestion des risques, un soutien politique et financier peut être fourni pour encourager les entreprises et les instituts de recherche scientifique à mener des innovations technologiques en matière de sécurité et, tout en promouvant l'innovation technologique en matière d'intelligence artificielle, à assurer le développement simultané de mesures de sécurité. .
Enfin, nous devons étudier et évaluer à l'avance les risques sociaux qui peuvent découler du développement de la technologie de l'intelligence artificielle, et formuler correctement des systèmes et des normes de surveillance des risques sociaux en matière d'intelligence artificielle. Le développement et l’itération rapides de la technologie de l’intelligence artificielle sont souvent plus rapides que la formulation et l’ajustement des politiques et des lois, ce qui entraîne un certain retard dans les normes politiques de gouvernance de l’intelligence artificielle. Par conséquent, il est nécessaire d’intégrer l’application de la technologie de l’intelligence artificielle dans la gouvernance sociale, de formuler des systèmes de supervision de la sécurité et des normes industrielles pertinents pour les risques sociaux liés à l’intelligence artificielle, et de garantir que les politiques et les lois puissent suivre le développement technologique tout en favorisant la construction et le développement de scénarios d'application de technologies intelligentes. Les tendances du développement de la technologie de l'intelligence artificielle doivent être analysées régulièrement, des évaluations complètes doivent être effectuées dans de multiples dimensions telles que la technologie, l'éthique, le droit, l'économie et la société, un mécanisme d'alerte précoce des risques liés à l'intelligence artificielle doit être établi, les risques potentiels liés aux technologies émergentes doivent être découverts. et prévu en temps opportun, et des recherches et des formulations doivent être menées. Politiques et réglementations flexibles et tournées vers l'avenir. En outre, nous devons participer activement à l'élaboration de normes et de réglementations internationales, établir une plateforme de coopération transnationale, promouvoir la coopération et les échanges entre les pays en matière de gouvernance de l'intelligence artificielle et répondre conjointement aux risques et défis technologiques mondiaux.
(Affiliation de l'auteur : École d'économie et de gestion, Université de Tongji)
auteur:
Texte : Shi Qian Xiao Chao Photo : Yuan Jing Editeur : Chen Yu Editeur : Yang Yiqi
Veuillez indiquer la source lors de la réimpression de cet article.
Rapport/Commentaires