noticias

¿Después de llenar el queroseno, poner aceite de cocina? ¡La IA puede notar la diferencia! Académicos y expertos destacan que la seguridad de la inteligencia artificial debe tener "gente al tanto"

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Resumen:La inteligencia artificial y la sociedad humana en realidad tienen una relación simbiótica, que incluye relaciones auxiliares, interacción persona-computadora, relaciones humanas involucradas y competitivas.


Según los informes, el camión cisterna llenó el camión con queroseno, no limpió el tanque y luego lo llenó con aceite de cocina. Una operación tan "extensa" desafió las preocupaciones del público sobre la seguridad alimentaria. El "AI Eye", basado en inteligencia artificial, puede supervisar tales violaciones de manera oportuna.

"Usar cámaras existentes y recientemente agregadas en estaciones de servicio y usar el modo de análisis de video en la nube para identificar comportamientos durante el proceso de descarga, repostaje, descarga, llenado de gas, descarga y adición de líquido, alarma, estadísticas y análisis de acciones anormales para establecer sistemas inteligentes Plataforma de gasolineras ". El día 2, la 12.ª Cumbre de IA de la Conferencia de Seguridad de Internet celebrada en Shanghai en el Parque de Innovación China-Israel en el distrito de Putuo reveló que al implementar la plataforma de análisis inteligente de video de IA en los recursos de la nube de China Telecom y su implementación en energía. Para las empresas, 300 análisis de IA de los comportamientos en el área de descarga de petróleo utilizando transmisiones de video en la carretera permiten la identificación de camiones cisterna, la identificación de extintores de incendios, la detección de productos derivados del petróleo y la detección de oleoductos.


Parque de Innovación China-Israel (Shanghai).

[El fraude deepfake con IA aumenta un 3000%]

De hecho, los grandes modelos de IA están potenciando la gobernanza social en grandes cantidades, ayudando a resolver los problemas de subsistencia de las personas y mejorando su sensación de seguridad. Wei Wenbo, subdirector general del departamento de producción de China Telecom Artificial Intelligence Technology Co., Ltd., dio ejemplos, como la supervisión inteligente del catering para garantizar "cocinas y estufas brillantes", la seguridad en las calles y las aldeas para cuidar a los ancianos. y evitar ahogamientos, y una supervisión inteligente de la colocación de basura y del estacionamiento de vehículos eléctricos. Con la estandarización, incluso andar en bicicleta eléctrica sin usar casco puede "distinguir y diferenciar claramente".

Sin embargo, la propia IA inevitablemente también tiene problemas de seguridad. Desde el cambio de rostro de la IA hasta el cambio de voz de la IA, el "Informe de seguridad de la inteligencia artificial de 2024" afirma que la IA no solo amplifica las amenazas a la seguridad de la red existentes, sino que también introduce nuevas amenazas, lo que desencadena un aumento exponencial de los incidentes de seguridad de la red. En 2023, el fraude por falsificación profunda basado en IA aumentará un 3000 % y el número de correos electrónicos de phishing basados ​​en IA aumentará un 1000 %.

Liu Quan, académico extranjero de la Academia Rusa de Ciencias Naturales e ingeniero jefe adjunto del Instituto de Investigación CCID, citó una encuesta realizada entre líderes de la industria de TI en modelos grandes como ChatGPT, que mostró que el 71% de los encuestados creía que la inteligencia artificial generativa mejoraría la seguridad de los datos de las empresas. Para evitar la filtración de datos sensibles, empresas tecnológicas como Microsoft y Amazon incluso han restringido o prohibido a sus empleados el uso de herramientas de inteligencia artificial generativa.


Cumbre de IA de Shanghai.

["Utilice moldes para hacer moldes" para garantizar la seguridad en la "Batalla de cientos de modelos"]

Generación multimodal, aparición de grandes modelos. Hasta ahora, sólo en mi país, el número de modelos grandes que han pasado el doble registro ha llegado a 117. Según las estadísticas del "Libro Blanco de Beijing sobre la aplicación innovadora de modelos grandes en la industria de la inteligencia artificial (2023)", en octubre del año pasado, había 254 proveedores de modelos grandes con parámetros de "más de mil millones" en mi país. En la actualidad, se encuentran disponibles modelos nacionales a gran escala con cientos de miles de millones de parámetros, y el número de neuronas en el cerebro humano también es del orden de 100 mil millones. IDC predice que el mercado de modelos grandes de IA de China alcanzará los 21.100 millones de dólares en 2026.

Cuando la inteligencia artificial entra en un período crítico para su implementación a gran escala, estos nuevos riesgos, que van desde filtraciones de privacidad, discriminación de algoritmos hasta sesgo de datos, también plantean graves desafíos para el desarrollo de alta calidad de la inteligencia artificial. He Fan, director de productos de 360 ​​Digital Intelligence Group, dijo que en la era de los modelos grandes, es necesario "usar moldes para modelar" para garantizar la seguridad, lo que significa utilizar los big data de seguridad acumulados en los últimos 20 años y agregar Conocimiento experto para entrenar grandes modelos de seguridad de alto nivel.

Chen Xiaohang, subdirector general del Departamento de Redes de Información de la sucursal de China Telecom en Shanghai, también dijo al reportero del Liberation Daily Shangguan News que en la "Batalla de cientos de modelos", los modelos grandes son inherentemente "papel en blanco" y requieren "educación" constante. y "capacitación", por lo que deberían controlar la dirección de la opinión pública en la fuente y filtrar la información basura en el proceso para evitar que los modelos grandes sean "mal dirigidos".


Conferencia de seguridad de Internet de ISC.

[La relación competitiva entre el hombre y la máquina requiere “personas al tanto”]

Como todos sabemos, la naturaleza de “caja negra” de los modelos de IA hace que sus procesos de toma de decisiones sean difíciles de explicar, lo cual es especialmente crítico en campos de alto riesgo como las finanzas y la atención médica. Tanto los reguladores como los clientes de la industria necesitan comprender la base de las decisiones sobre modelos para garantizar la transparencia y la equidad de sus modelos de calificación crediticia. Al mismo tiempo, el propio modelo de IA puede tener vulnerabilidades de seguridad. Por ejemplo, los piratas informáticos pueden atacar a través de muestras adversas, lo que hace que el modelo produzca resultados incorrectos bajo entradas aparentemente normales, lo que genera riesgos de seguridad.

A los ojos del académico Liu Quan, las características obvias de "espada de doble filo" de la IA han traído muchos beneficios y enormes desafíos a la humanidad. La inteligencia artificial y la sociedad humana en realidad están en una relación simbiótica, incluidas las relaciones auxiliares, la interacción entre humanos y computadoras. relaciones humanas y competitivas. Es cierto que con el rápido desarrollo de una inteligencia artificial débil a una inteligencia artificial fuerte, el 90% de los trabajos tripulados pueden ser reemplazados por inteligencia artificial como "trabajos no tripulados". Y el 10% de las personas en el trabajo que no se tumbarán deben tener enormes cantidades de datos y sólidas capacidades operativas de inteligencia artificial.

En la película "The Wandering Earth 2", el robot MOSS expresó el concepto de "Human In Loop" y también tuvo la idea de "destruir a la humanidad". Esto ilustra aún más que sólo la iteración de inteligencia artificial dirigida por humanos puede formar un sistema de circuito cerrado hombre-máquina. Incluyendo las garantías de seguridad de la IA, las máquinas no pueden prescindir de la intervención humana en ningún momento. Liu Quan dijo que, en esencia, la inteligencia artificial no puede reemplazar la forma en que piensan los humanos, ni puede reemplazar completamente a los humanos. De lo contrario, el desarrollo de la IA podría perder su significado original.