nouvelles

Après avoir rempli le kérosène, mettre de l'huile de cuisson ? L'IA peut faire la différence ! Les académiciens et les experts soulignent que la sécurité de l'intelligence artificielle doit avoir "les gens au courant"

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Résumé:L’intelligence artificielle et la société humaine entretiennent en réalité une relation symbiotique, comprenant des relations auxiliaires, des interactions homme-machine, des relations humaines dans la boucle et des relations compétitives.


Selon certaines informations, le camion-citerne a rempli le camion-citerne de kérosène, n'a pas nettoyé le réservoir, puis l'a rempli d'huile de cuisson. Une opération aussi « approfondie » a remis en question les préoccupations du public en matière de sécurité alimentaire. L'« AI Eye », basé sur l'intelligence artificielle, pourrait être en mesure de superviser de telles violations en temps opportun.

"Utilisation de caméras existantes et nouvellement ajoutées dans les stations-service et utilisation du mode d'analyse vidéo dans le cloud pour identifier les comportements pendant le processus de déchargement, de ravitaillement en carburant, de déchargement, de remplissage de gaz, de déchargement et d'ajout de liquide, d'alarme, de statistiques et d'analyse des actions anormales pour établir des Plate-forme de station-service. Le 2, le 12e Sommet sur l'IA de Shanghai de la Conférence sur la sécurité Internet, qui s'est tenu dans le parc d'innovation sino-israélien du district de Putuo, a révélé qu'en déployant la plate-forme d'analyse intelligente vidéo IA sur les ressources cloud de China Telecom et en la mettant en œuvre dans le domaine de l'énergie. entreprises, l'analyse par 300 IA des comportements dans la zone de déchargement de pétrole à l'aide de flux vidéo routiers permet l'identification des camions-citernes, l'identification des extincteurs, la détection des produits pétroliers et la détection des oléoducs.


Parc d'innovation Chine-Israël (Shanghai).

[La fraude deepfake à l'IA augmente de 3 000 %]

En fait, les grands modèles d’IA renforcent en grande partie la gouvernance sociale, contribuant ainsi à résoudre les problèmes de subsistance des populations et à améliorer leur sentiment de sécurité. Wei Wenbo, directeur général adjoint du département commercial de production de China Telecom Artificial Intelligence Technology Co., Ltd., a donné des exemples, tels que la supervision de la restauration intelligente pour garantir « des cuisines et des poêles lumineux », la sécurité des rues et des villages pour prendre soin des personnes âgées. et prévenir la noyade, ainsi qu'une surveillance intelligente du placement des ordures et du stationnement des véhicules électriques. Grâce à la normalisation, même conduire un vélo électrique sans porter de casque peut « clairement distinguer et différencier ».

Cependant, l’IA elle-même pose inévitablement des problèmes de sécurité. Du changement de visage de l'IA au changement de voix de l'IA, le « Rapport sur la sécurité de l'intelligence artificielle 2024 » montre que l'IA amplifie non seulement les menaces de sécurité des réseaux existantes, mais introduit également de nouvelles menaces, déclenchant une augmentation exponentielle des incidents de sécurité des réseaux. En 2023, la fraude par falsification profonde basée sur l'IA augmentera de 3 000 % et le nombre d'e-mails de phishing basés sur l'IA augmentera de 1 000 %.

Liu Quan, académicien étranger de l'Académie russe des sciences naturelles et ingénieur en chef adjoint de l'Institut de recherche CCID, a cité une enquête menée auprès des leaders de l'industrie informatique sur de grands modèles tels que ChatGPT, qui a montré que 71 % des personnes interrogées pensaient que l'intelligence artificielle générative améliorerait la sécurité des données des entreprises. Afin d’éviter la fuite de données sensibles, des entreprises technologiques telles que Microsoft et Amazon ont même restreint ou interdit à leurs employés l’utilisation d’outils d’intelligence artificielle générative.


Sommet de Shanghai sur l'IA.

["Utilisez des moules pour fabriquer des moules" pour assurer la sécurité dans la "Bataille de centaines de modèles"]

Génération multimodale, émergence de grands modèles. Jusqu'à présent, rien que dans mon pays, le nombre de grands modèles ayant passé avec succès le double enregistrement a atteint 117. Selon les statistiques du « Livre blanc de Pékin sur l'application innovante des grands modèles dans l'industrie de l'intelligence artificielle (2023) », en octobre de l'année dernière, il y avait 254 fournisseurs de grands modèles avec « 1 milliard+ » de paramètres dans mon pays. À l'heure actuelle, des modèles nationaux à grande échelle comportant des centaines de milliards de paramètres sont disponibles, et le nombre de neurones dans le cerveau humain est également de l'ordre de 100 milliards. IDC prévoit que le marché chinois des grands modèles d’IA atteindra 21,1 milliards de dollars d’ici 2026.

Alors que l’intelligence artificielle entre dans une période critique pour une mise en œuvre à grande échelle, ces nouveaux risques, allant des fuites de confidentialité à la discrimination par les algorithmes jusqu’aux biais dans les données, posent également de sérieux défis au développement de haute qualité de l’intelligence artificielle. He Fan, directeur des produits du 360 Digital Intelligence Group, a déclaré qu'à l'ère des grands modèles, il est nécessaire « d'utiliser des moules pour modéliser » pour garantir la sécurité, ce qui signifie utiliser les mégadonnées de sécurité accumulées au cours des 20 dernières années et ajouter connaissances expertes pour former de grands modèles de sécurité de haut niveau.

Chen Xiaohang, directeur général adjoint du département des réseaux d'information de la succursale de China Telecom à Shanghai, a également déclaré au journaliste du Liberation Daily Shangguan News que dans la « bataille de centaines de modèles », les grands modèles sont par nature du « papier vierge » et nécessitent une « éducation » constante. et "formation", ils devraient donc contrôler l'orientation de l'opinion publique à la source et filtrer les informations indésirables dans le processus pour éviter que les grands modèles ne soient "mal orientés".


Conférence ISC sur la sécurité Internet.

[La relation compétitive entre l’homme et la machine nécessite « des gens dans la boucle »]

Comme nous le savons tous, la nature de « boîte noire » des modèles d’IA rend leurs processus décisionnels difficiles à expliquer, ce qui est particulièrement critique dans les domaines à haut risque tels que la finance et les soins médicaux. Les régulateurs et les clients du secteur doivent comprendre le fondement des décisions en matière de modèles afin de garantir la transparence et l’équité de leurs modèles de notation de crédit. Dans le même temps, le modèle d’IA lui-même peut présenter des failles de sécurité. Par exemple, les pirates peuvent attaquer via des échantillons contradictoires, ce qui amène le modèle à produire des sorties incorrectes sous des entrées apparemment normales, entraînant ainsi des risques de sécurité.

Aux yeux de l'académicien Liu Quan, les caractéristiques évidentes de « l'épée à double tranchant » de l'IA ont apporté de nombreux avantages et d'énormes défis à l'humanité. L'intelligence artificielle et la société humaine entretiennent en réalité une relation symbiotique, comprenant des relations auxiliaires, l'interaction homme-machine, relations humaines et compétitives. Il est vrai qu'avec l'évolution rapide d'une intelligence artificielle faible à une intelligence artificielle forte, 90 % des emplois occupés peuvent être remplacés par l'intelligence artificielle en tant qu'« emplois sans personnel ». Et les 10 % de personnes au travail qui ne veulent pas se coucher doivent disposer d’énormes quantités de données et de solides capacités opérationnelles d’intelligence artificielle.

Dans le film "The Wandering Earth 2", le robot MOSS a exprimé le concept de "Human In Loop" et a également eu l'idée de "détruire l'humanité". Cela illustre en outre que seule une itération d’intelligence artificielle dirigée par l’homme peut former un système en boucle fermée homme-machine. En incluant les garanties de sécurité de l’IA, les machines ne peuvent à aucun moment se passer de l’intervention humaine. Liu Quan a déclaré qu'en substance, l'intelligence artificielle ne peut pas remplacer la façon dont les humains pensent, ni complètement les humains. Sinon, le développement de l’IA pourrait perdre son sens originel.