Nachricht

Nach dem Einfüllen des Kerosins Speiseöl einfüllen? KI kann den Unterschied erkennen! Akademiker und Experten betonen, dass bei der Sicherheit künstlicher Intelligenz „Menschen auf dem Laufenden“ sein müssen.

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Zusammenfassung:Künstliche Intelligenz und die menschliche Gesellschaft stehen tatsächlich in einer symbiotischen Beziehung, einschließlich Hilfsbeziehungen, Mensch-Computer-Interaktion, Human-in-the-Loop und Wettbewerbsbeziehungen.


Berichten zufolge füllte der Tanker den Tanker mit Kerosin, reinigte den Tank nicht und füllte ihn dann mit Speiseöl. Eine solch „umfangreiche“ Operation stellte die Bedenken der Öffentlichkeit hinsichtlich der Lebensmittelsicherheit in Frage. Das auf künstlicher Intelligenz basierende „AI Eye“ könnte solche Verstöße möglicherweise zeitnah überwachen.

„Verwendung bestehender und neu hinzugefügter Kameras an Tankstellen und Nutzung des Cloud-Videoanalysemodus zur Identifizierung von Verhaltensweisen während des Prozesses des Entladens, Auftankens, Entladens, Gasfüllens, Entladens und Hinzufügens von Flüssigkeit, Alarm, Statistiken und Analyse abnormaler Aktionen, um intelligente Maßnahmen zu etablieren.“ Tankstellenplattform.“ Auf der 12. Internet-Sicherheitskonferenz im Shanghai AI Summit im China-Israel Innovation Park im Distrikt Putuo wurde bekannt, dass die KI-Video-Intelligenzanalyseplattform auf den Cloud-Ressourcen von China Telecom eingesetzt und im Energiebereich implementiert wird Unternehmen ermöglichen 300 KI-Analysen des Verhaltens im Ölentladebereich mithilfe von Straßenvideostreams die Identifizierung von Tankwagen, Feuerlöschern, Ölprodukterkennung und Ölpipeline-Erkennung.


China-Israel (Shanghai) Innovationspark.

[KI-Deepfake-Betrug steigt um 3000 %]

Tatsächlich stärken große KI-Modelle die soziale Governance in großem Umfang, tragen dazu bei, die Lebensunterhaltsprobleme der Menschen zu lösen und das Sicherheitsgefühl der Menschen zu verbessern. Wei Wenbo, stellvertretender General Manager der Output-Geschäftsabteilung von China Telecom Artificial Intelligence Technology Co., Ltd., nannte Beispiele wie intelligente Catering-Überwachung, um „helle Küchen und helle Öfen“ zu gewährleisten, und Straßen- und Dorfsicherheit für die Pflege älterer Menschen und Ertrinken verhindern, und intelligente Überwachung der Müllablage und des Parkens von Elektrofahrzeugen Mit der Standardisierung kann auch das Fahren eines Elektrofahrrads ohne Tragen eines Helms „klar unterschieden und unterschieden werden“.

Allerdings weist die KI selbst zwangsläufig auch Sicherheitsprobleme auf. Der „2024 Artificial Intelligence Security Report“ besagt, dass KI nicht nur bestehende Netzwerksicherheitsbedrohungen verstärkt, sondern auch neue Bedrohungen einführt, was zu einem exponentiellen Anstieg von Netzwerksicherheitsvorfällen führt, von der Gesichtsveränderung der KI bis zur Veränderung der Stimme der KI. Im Jahr 2023 wird der KI-basierte Deep-Forgery-Betrug um 3.000 % zunehmen und die Zahl der KI-basierten Phishing-E-Mails wird um 1.000 % steigen.

Liu Quan, ein ausländischer Akademiker der Russischen Akademie der Naturwissenschaften und stellvertretender Chefingenieur des CCID-Forschungsinstituts, zitierte eine Umfrage unter IT-Branchenführern zu großen Modellen wie ChatGPT, aus der hervorging, dass 71 % der Befragten an generative künstliche Intelligenz glaubten würde die Datensicherheit von Unternehmen verbessern. Um den Verlust sensibler Daten zu verhindern, haben Technologieunternehmen wie Microsoft und Amazon ihren Mitarbeitern sogar die Nutzung generativer künstlicher Intelligenz-Tools eingeschränkt oder verboten.


Shanghai AI Summit.

[„Verwenden Sie Formen, um Formen herzustellen“, um die Sicherheit im „Kampf der Hunderte von Modellen“ zu gewährleisten]

Multimodale Generierung, Entstehung großer Modelle. Bisher hat allein in meinem Land die Zahl der großen Modelle, die die Doppelzulassung bestanden haben, 117 erreicht. Laut Statistiken aus dem „Beijing White Paper on the Innovative Application of Large Models in the Artificial Intelligence Industry (2023)“ gab es im Oktober letzten Jahres in meinem Land 254 Anbieter großer Modelle mit „1 Milliarde+“-Parametern. Derzeit sind inländische Großmodelle mit Hunderten von Milliarden Parametern verfügbar, und die Anzahl der Neuronen im menschlichen Gehirn liegt ebenfalls in der Größenordnung von 100 Milliarden. IDC prognostiziert, dass Chinas Markt für große KI-Modelle bis 2026 ein Volumen von 21,1 Milliarden US-Dollar erreichen wird.

Wenn künstliche Intelligenz in eine kritische Phase für die groß angelegte Implementierung eintritt, stellen diese neuen Risiken, die von Datenschutzlecks über Algorithmendiskriminierung bis hin zu Datenverzerrungen reichen, auch große Herausforderungen für die qualitativ hochwertige Entwicklung künstlicher Intelligenz dar. He Fan, Chief Product Officer der 360 Digital Intelligence Group, sagte, dass es im Zeitalter großer Modelle notwendig sei, „Formen zum Modellieren zu verwenden“, um die Sicherheit zu gewährleisten, was bedeutet, die in den letzten 20 Jahren gesammelten Sicherheits-Big Data zu nutzen und hinzuzufügen Expertenwissen zum Trainieren großer Sicherheitsmodelle auf hohem Niveau.

Chen Xiaohang, stellvertretender Generaldirektor der Informationsnetzwerkabteilung der Shanghai-Niederlassung von China Telecom, sagte dem Reporter von Liberation Daily Shangguan News auch, dass große Modelle im „Kampf der Hunderten von Modellen“ von Natur aus „leeres Papier“ seien und einer ständigen „Weiterbildung“ bedürften. und „Schulung“, daher sollten sie die Richtung der öffentlichen Meinung an der Quelle kontrollieren und dabei Junk-Informationen herausfiltern, um zu verhindern, dass große Modelle „fehlgeleitet“ werden.


ISC Internet-Sicherheitskonferenz.

[Das Wettbewerbsverhältnis zwischen Mensch und Maschine erfordert „People in the Loop“]

Wie wir alle wissen, erschwert der „Black-Box“-Charakter von KI-Modellen die Erklärung ihrer Entscheidungsprozesse, was besonders in Hochrisikobereichen wie Finanzen und medizinischer Versorgung von entscheidender Bedeutung ist. Sowohl Regulierungsbehörden als auch Industriekunden müssen die Grundlage für Modellentscheidungen verstehen, um die Transparenz und Fairness ihrer Kreditbewertungsmodelle sicherzustellen. Gleichzeitig kann das KI-Modell selbst Sicherheitslücken aufweisen. Hacker können beispielsweise durch gegnerische Samples angreifen, was dazu führt, dass das Modell unter scheinbar normalen Eingaben falsche Ausgaben erzeugt, was zu Sicherheitsrisiken führt.

In den Augen des Akademikers Liu Quan haben die offensichtlichen „zweischneidigen Schwert“-Eigenschaften der KI der Menschheit viele Vorteile und große Herausforderungen gebracht. Künstliche Intelligenz und die menschliche Gesellschaft stehen tatsächlich in einer symbiotischen Beziehung, einschließlich Hilfsbeziehungen, Mensch-Computer-Interaktion. Human-in-the-Loop und Wettbewerbsbeziehungen. Es stimmt, dass mit der rasanten Entwicklung von schwacher künstlicher Intelligenz zu starker künstlicher Intelligenz 90 % der bemannten Arbeitsplätze durch künstliche Intelligenz als „unbemannte Arbeitsplätze“ ersetzt werden können. Und die 10 % der Menschen am Arbeitsplatz, die sich nicht hinlegen wollen, müssen über riesige Datenmengen und starke Fähigkeiten für den Einsatz künstlicher Intelligenz verfügen.

Im Film „The Wandering Earth 2“ drückte der Roboter MOSS das Konzept des „Human In Loop“ aus und hatte auch die Idee, „die Menschheit zu zerstören“. Dies verdeutlicht weiter, dass nur eine vom Menschen gesteuerte Iteration künstlicher Intelligenz ein geschlossenes Mensch-Maschine-System bilden kann. Einschließlich KI-Sicherheitsgarantien können Maschinen zu keinem Zeitpunkt ohne menschliches Eingreifen auskommen. Liu Quan sagte, dass künstliche Intelligenz im Wesentlichen weder die Denkweise des Menschen ersetzen noch den Menschen vollständig ersetzen könne. Andernfalls könnte die KI-Entwicklung ihre ursprüngliche Bedeutung verlieren.