Νέα

Αφού γεμίσουμε την κηροζίνη, βάζουμε μαγειρικό λάδι; Το AI μπορεί να πει τη διαφορά! Ακαδημαϊκοί και ειδικοί τονίζουν ότι η ασφάλεια της τεχνητής νοημοσύνης πρέπει να έχει «άτομα στο βρόχο»

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Περίληψη:Η τεχνητή νοημοσύνη και η ανθρώπινη κοινωνία έχουν στην πραγματικότητα μια συμβιωτική σχέση, συμπεριλαμβανομένων των βοηθητικών σχέσεων, της αλληλεπίδρασης ανθρώπου-υπολογιστή, του ανθρώπου στον βρόχο και των ανταγωνιστικών σχέσεων.


Σύμφωνα με αναφορές, το δεξαμενόπλοιο γέμισε το βυτιοφόρο με κηροζίνη, δεν καθάρισε τη δεξαμενή και στη συνέχεια το γέμισε με μαγειρικό λάδι. Το «AI Eye» που βασίζεται στην τεχνητή νοημοσύνη μπορεί να είναι σε θέση να επιβλέπει τέτοιες παραβιάσεις εγκαίρως.

"Χρησιμοποιώντας υπάρχουσες και πρόσφατα προστιθέμενες κάμερες σε βενζινάδικα και χρήση λειτουργίας ανάλυσης βίντεο cloud για τον εντοπισμό συμπεριφορών κατά τη διαδικασία εκφόρτωσης, ανεφοδιασμού, εκφόρτωσης, πλήρωσης αερίου, εκφόρτωσης και προσθήκης υγρού, συναγερμού, στατιστικών και ανάλυσης μη φυσιολογικών ενεργειών για δημιουργία έξυπνων ενεργειών Τη 2η, η 12η Διάσκεψη για την Ασφάλεια στο Διαδίκτυο της Σαγκάης που πραγματοποιήθηκε στο Πάρκο Καινοτομίας Κίνας-Ισραήλ στην περιοχή Putuo αποκάλυψε ότι με την ανάπτυξη της έξυπνης πλατφόρμας ανάλυσης βίντεο AI στους πόρους cloud της China Telecom και την εφαρμογή της στην ενέργεια. εταιρειών, 300 AI ανάλυση συμπεριφορών στην περιοχή εκφόρτωσης πετρελαίου χρησιμοποιώντας ροές οδικών βίντεο επιτρέπει την αναγνώριση βυτιοφόρων, την αναγνώριση πυροσβεστήρα, την ανίχνευση προϊόντων πετρελαίου και την ανίχνευση αγωγού πετρελαίου.


Πάρκο Καινοτομίας Κίνας-Ισραήλ (Σαγκάη).

[Η απάτη με AI deepfake αυξάνεται κατά 3000%]

Στην πραγματικότητα, τα μεγάλα μοντέλα τεχνητής νοημοσύνης ενισχύουν σε μεγάλες ποσότητες την κοινωνική διακυβέρνηση, βοηθούν στην επίλυση των προβλημάτων διαβίωσης των ανθρώπων και βελτιώνουν την αίσθηση ασφάλειας των ανθρώπων. Ο Wei Wenbo, αναπληρωτής γενικός διευθυντής του επιχειρηματικού τμήματος παραγωγής της China Telecom Artificial Intelligence Technology Co., Ltd., έδωσε παραδείγματα, όπως η έξυπνη επίβλεψη τροφοδοσίας για τη διασφάλιση "φωτεινές κουζίνες και φωτεινές σόμπες", ασφάλεια στους δρόμους και στα χωριά για τη φροντίδα ηλικιωμένων και αποφυγή πνιγμού και έξυπνη επίβλεψη της τοποθέτησης σκουπιδιών και της στάθμευσης ηλεκτρικών οχημάτων Με την τυποποίηση, ακόμη και η οδήγηση ηλεκτρικού ποδηλάτου χωρίς τη χρήση κράνους μπορεί να «ξεχωρίσει και να διαφοροποιήσει».

Ωστόσο, η ίδια η τεχνητή νοημοσύνη έχει επίσης αναπόφευκτα προβλήματα ασφάλειας. Από την αλλαγή προσώπου στην τεχνητή νοημοσύνη έως την αλλαγή φωνής, η «Έκθεση Ασφάλειας Τεχνητής Νοημοσύνης 2024» δείχνει ότι η τεχνητή νοημοσύνη όχι μόνο ενισχύει τις υπάρχουσες απειλές για την ασφάλεια του δικτύου, αλλά εισάγει και νέες απειλές, πυροδοτώντας μια εκθετική αύξηση των περιστατικών ασφάλειας δικτύου. Το 2023, η απάτη βαθιάς πλαστογραφίας που βασίζεται σε τεχνητή νοημοσύνη θα αυξηθεί κατά 3.000%, και ο αριθμός των email ηλεκτρονικού ψαρέματος που βασίζονται σε τεχνητή νοημοσύνη θα αυξηθεί κατά 1.000%.

Ο Liu Quan, ξένος ακαδημαϊκός της Ρωσικής Ακαδημίας Φυσικών Επιστημών και αναπληρωτής επικεφαλής μηχανικός του Ινστιτούτου Ερευνών CCID, ανέφερε μια έρευνα που διεξήχθη μεταξύ των ηγετών της βιομηχανίας πληροφορικής σε μεγάλα μοντέλα όπως το ChatGPT, η οποία έδειξε ότι το 71% των ερωτηθέντων πίστευε ότι η γενετική τεχνητή νοημοσύνη θα βελτίωνε την ασφάλεια των δεδομένων των επιχειρήσεων. Προκειμένου να αποφευχθεί η διαρροή ευαίσθητων δεδομένων, εταιρείες τεχνολογίας όπως η Microsoft και η Amazon έχουν ακόμη περιορίσει ή απαγορεύσει στους υπαλλήλους τους να χρησιμοποιούν εργαλεία παραγωγής τεχνητής νοημοσύνης.


Σύνοδος Κορυφής AI της Σαγκάης.

["Χρησιμοποιήστε καλούπια για να φτιάξετε καλούπια" για να εξασφαλίσετε ασφάλεια στη "Μάχη των εκατοντάδων μοντέλων"]

Πολυτροπική γενιά, εμφάνιση μεγάλου μοντέλου. Μέχρι στιγμής, μόνο στη χώρα μου, ο αριθμός των μεγάλων μοντέλων που έχουν περάσει από διπλή εγγραφή έχει φτάσει τα 117. Σύμφωνα με στατιστικά στοιχεία από τη «Λευκή Βίβλο του Πεκίνου για την Καινοτόμο Εφαρμογή Μεγάλων Μοντέλων στη Βιομηχανία Τεχνητής Νοημοσύνης (2023)», τον περασμένο Οκτώβριο, υπήρχαν 254 προμηθευτές μεγάλων μοντέλων με παραμέτρους «1 δισεκατομμύριο+» στη χώρα μου. Επί του παρόντος, είναι διαθέσιμα εγχώρια μοντέλα μεγάλης κλίμακας με εκατοντάδες δισεκατομμύρια παραμέτρους και ο αριθμός των νευρώνων στον ανθρώπινο εγκέφαλο είναι επίσης της τάξης των 100 δισεκατομμυρίων. Η IDC προβλέπει ότι η αγορά μεγάλων μοντέλων τεχνητής νοημοσύνης της Κίνας θα φτάσει τα 21,1 δισεκατομμύρια δολάρια ΗΠΑ έως το 2026.

Όταν η τεχνητή νοημοσύνη εισέρχεται σε μια κρίσιμη περίοδο για εφαρμογή μεγάλης κλίμακας, αυτοί οι νέοι κίνδυνοι, που κυμαίνονται από διαρροές απορρήτου, διακρίσεις αλγορίθμων έως μεροληψία δεδομένων, θέτουν επίσης σοβαρές προκλήσεις για την ανάπτυξη υψηλής ποιότητας της τεχνητής νοημοσύνης. Ο He Fan, Chief Product Officer του 360 Digital Intelligence Group, είπε ότι στην εποχή των μεγάλων μοντέλων, είναι απαραίτητο να "χρησιμοποιούμε καλούπια για να μοντελοποιήσουμε" για να διασφαλίσουμε την ασφάλεια, πράγμα που σημαίνει να χρησιμοποιούμε τα μεγάλα δεδομένα ασφαλείας που έχουν συσσωρευτεί τα τελευταία 20 χρόνια και να προσθέτουμε εξειδικευμένες γνώσεις για την εκπαίδευση μεγάλων μοντέλων ασφαλείας υψηλού επιπέδου.

Ο Chen Xiaohang, αναπληρωτής γενικός διευθυντής του Τμήματος Δικτύων Πληροφοριών της China Telecom Shanghai Branch, είπε επίσης στον δημοσιογράφο της Liberation Daily Shangguan ότι στη "Μάχη των εκατοντάδων μοντέλων", τα μεγάλα μοντέλα είναι εγγενώς "κενό χαρτί" και απαιτούν συνεχή "εκπαίδευση". και "εκπαίδευση", επομένως θα πρέπει να ελέγχουν την κατεύθυνση της κοινής γνώμης στην πηγή και να φιλτράρουν τις ανεπιθύμητες πληροφορίες στη διαδικασία για να αποτρέψουν την "λανθασμένη κατεύθυνση" μεγάλων μοντέλων.


Διάσκεψη ISC για την ασφάλεια στο Διαδίκτυο.

[Η ανταγωνιστική σχέση μεταξύ ανθρώπου και μηχανής απαιτεί «άνθρωπους στο βρόχο»]

Όπως όλοι γνωρίζουμε, η φύση του «μαύρου κουτιού» των μοντέλων τεχνητής νοημοσύνης καθιστά τις διαδικασίες λήψης αποφάσεων δύσκολο να εξηγηθούν, κάτι που είναι ιδιαίτερα κρίσιμο σε τομείς υψηλού κινδύνου, όπως τα οικονομικά και η ιατρική περίθαλψη. Οι ρυθμιστικές αρχές και οι πελάτες του κλάδου πρέπει να κατανοήσουν τη βάση για τις αποφάσεις μοντέλων για να διασφαλίσουν τη διαφάνεια και τη δικαιοσύνη των μοντέλων αξιολόγησης πιστοληπτικής ικανότητας. Ταυτόχρονα, το ίδιο το μοντέλο AI μπορεί να έχει ευπάθειες ασφαλείας. Για παράδειγμα, οι χάκερ μπορούν να επιτεθούν μέσω αντιπάλων δειγμάτων, προκαλώντας το μοντέλο να παράγει λανθασμένα αποτελέσματα κάτω από φαινομενικά κανονικές εισόδους, προκαλώντας κινδύνους για την ασφάλεια.

Στα μάτια του ακαδημαϊκού Liu Quan, τα προφανή χαρακτηριστικά του «δικοπμένου μαχαιριού» της τεχνητής νοημοσύνης έχουν φέρει πολλά οφέλη και τεράστιες προκλήσεις στην ανθρωπότητα, η τεχνητή νοημοσύνη και η ανθρώπινη κοινωνία βρίσκονται στην πραγματικότητα σε μια συμβιωτική σχέση, συμπεριλαμβανομένων των βοηθητικών σχέσεων, της αλληλεπίδρασης ανθρώπου-υπολογιστή. ανθρώπινες σχέσεις και ανταγωνιστικές σχέσεις. Είναι αλήθεια ότι με τη ραγδαία εξέλιξη από την αδύναμη τεχνητή νοημοσύνη στην ισχυρή τεχνητή νοημοσύνη, το 90% των επανδρωμένων θέσεων εργασίας μπορεί να αντικατασταθεί από την τεχνητή νοημοσύνη ως «μη επανδρωμένες θέσεις εργασίας». Και το 10% των ανθρώπων στη δουλειά που δεν θα ξαπλώσουν πρέπει να έχουν τεράστιες ποσότητες δεδομένων και ισχυρές δυνατότητες λειτουργίας τεχνητής νοημοσύνης.

Στην ταινία "The Wandering Earth 2", το ρομπότ MOSS εξέφρασε την έννοια του "Human In Loop" και είχε επίσης την ιδέα της "καταστροφής της ανθρωπότητας". Αυτό δείχνει περαιτέρω ότι μόνο η επανάληψη της τεχνητής νοημοσύνης που καθοδηγείται από τον άνθρωπο μπορεί να σχηματίσει ένα σύστημα κλειστού βρόχου ανθρώπου-μηχανής. Συμπεριλαμβανομένων των εγγυήσεων ασφάλειας της τεχνητής νοημοσύνης, τα μηχανήματα δεν μπορούν να κάνουν χωρίς ανθρώπινη παρέμβαση ανά πάσα στιγμή. Ο Liu Quan είπε ότι στην ουσία η τεχνητή νοημοσύνη δεν μπορεί να αντικαταστήσει τον τρόπο που σκέφτονται οι άνθρωποι, ούτε μπορεί να αντικαταστήσει πλήρως τους ανθρώπους. Διαφορετικά, η ανάπτυξη AI μπορεί να χάσει το αρχικό της νόημα.