nouvelles

La 12e Conférence sur la sécurité Internet Sommet sur la sécurité numérique s'est tenue

2024-08-05

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Source : Postes et Télécommunications Populaires

Le 31 juillet, le 12e Sommet sur la sécurité numérique de la Conférence sur la sécurité Internet (ISC.AI 2024) s'est tenu à Pékin. Ayant pour thème « Construire un grand modèle de sécurité et mener la révolution de l'industrie de la sécurité », le sommet a appelé l'industrie à utiliser de grands modèles pour remodeler le système de sécurité et protéger le développement constant de l'économie numérique. La conférence a réuni un certain nombre d'académiciens et d'experts, ainsi que des chefs d'entreprise nationaux et étrangers tels que 360, Huawei et Microsoft, pour mener une analyse approfondie des défis de sécurité et des solutions apportées par le développement de la technologie de l'intelligence artificielle. , et d'explorer conjointement de nouvelles voies pour le développement de la sécurité numérique, pilotées par de grands modèles de sécurité.

Les problèmes de sécurité de l’intelligence artificielle ne peuvent être ignorés et il est urgent que l’industrie et la recherche travaillent ensemble pour explorer de nouvelles solutions. L'application généralisée de la technologie de l'intelligence artificielle favorise la transformation et la modernisation de tous les horizons, tout en donnant une forte impulsion au développement du secteur de la sécurité. Wu Shizhong, académicien de l'Académie chinoise d'ingénierie, a déclaré que les nouveaux problèmes de sécurité posés par la technologie de l'IA sont devenus une réalité et que le secteur de la sécurité entrera rapidement dans une nouvelle ère dirigée par l'IA. Cependant, on peut dire que la recherche sur la sécurité sur de grands modèles vient tout juste de commencer. Qu'il s'agisse de la recherche en matière de sécurité ou de l'industrie de la sécurité, nous devons suivre le progrès technologique et l'innovation applicative afin de servir et d'assurer un bon développement.

"Actuellement, il existe un grave déséquilibre entre les responsabilités et les risques en matière de sécurité dans les systèmes d'application de l'IA." Wu Jiangxing, académicien de l'Académie chinoise d'ingénierie et directeur du Centre national de recherche sur l'ingénierie des systèmes de commutation numérique (NDSC), a souligné le dilemme auquel est confronté le pays. système d’IA actuel. Il a proposé que les problèmes de sécurité des systèmes d'application d'IA puissent être découverts ou corrigés sur la base d'une architecture de sécurité endogène. Les systèmes d'application d'IA doivent contenir des structures de sécurité endogènes avec la diversité nécessaire et des axiomes relativement corrects, afin que des résultats relativement crédibles puissent être trouvés dans des processus non fiables. À l’ère de l’intelligence, il est nécessaire de choisir la bonne voie technique pour parvenir à un système d’application d’IA plus sûr.

Avec le développement rapide de la technologie de l'intelligence artificielle, toutes les industries et tous les produits sont en train d'être remodelés, et le secteur de la sécurité est également confronté à une révolution. Zhou Hongyi, fondateur du groupe 360 ​​et président de la conférence ISC, a déclaré que l'essence de l'utilisation de l'IA pour remodeler la sécurité est de faire de la sécurité une « conduite autonome ». 360 est le premier à lancer un grand modèle de sécurité, offrant des capacités standard pour les grands modèles. gratuit pour les utilisateurs qui achètent 360 produits standard, réalisant ainsi une inclusivité des modèles à grande échelle et de nouveaux changements de productivité qualitatifs dans le secteur de la sécurité. En tant que fabricant bénéficiant du double avantage des capacités de sécurité numérique et de la technologie de l'IA, 360 s'appuie sur une technologie sous-jacente profonde à grand modèle, la plus grande base de connaissances en matière de sécurité au monde, la plus grande équipe d'experts en sécurité senior d'Asie et une couverture complète multi-domaines. et de solides capacités pratiques. Grâce à ses capacités de scénarios de sécurité, elle a créé le premier modèle de sécurité nationale « Modèle de sécurité à 360° » et l'a mis en œuvre dans de nombreux scénarios commerciaux tels que les terminaux, les opérations de sécurité et les services de sécurité. À l'heure actuelle, la gamme complète de produits de sécurité de 360 ​​intègre des capacités de sécurité de grand modèle et fournit gratuitement des capacités standard de grand modèle à tous les utilisateurs qui achètent des produits standard 360.

Alors que l’intelligence artificielle générative fait entrer le développement de l’IA dans une nouvelle étape, la gouvernance de l’IA est également devenue une question majeure. Gong Ke, directeur du laboratoire Haihe de calcul avancé et de logiciels critiques (Xinchuang) et directeur exécutif de l'Institut chinois de recherche sur la stratégie de développement de l'intelligence artificielle de nouvelle génération, a souligné dans son discours que la gouvernance de l'IA devrait suivre les trois principes du développement bénéfique, au service des personnes. et basé sur l'éthique. Comprendre clairement les lacunes de la technologie elle-même, ainsi que les risques d'utilisation abusive, d'abus et de mauvaise utilisation de la technologie de l'IA. Il a souligné que pour empêcher l'IA de faire le mal, il est nécessaire d'établir des normes éthiques claires, d'accroître la transparence, de renforcer la responsabilité, d'améliorer les lois et les réglementations et de mettre en place des mécanismes de sécurité. En outre, nous devons adhérer à l’innovation ouverte et développer un écosystème d’IA sûr et contrôlable basé sur la confiance et l’innovation. (Su Deyue)