Νέα

Σε βάθος ανάλυση: Έχει επιτευχθεί η «εθελοντική εποπτεία» που υποσχέθηκαν οι γίγαντες της τεχνητής νοημοσύνης όπως η Google και η Microsoft;

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Πριν από ένα χρόνο, συμπεριλαμβανομένων των Amazon, Microsoft, Google, Meta,OpenAIΕπτά εταιρείες τεχνητής νοημοσύνης, συμπεριλαμβανομένων των Anthropic και Inflection, έχουν αναλάβει οκτώ εθελοντικές δεσμεύσεις με τον Λευκό Οίκο σχετικά με τον τρόπο ανάπτυξης τεχνητής νοημοσύνης με ασφαλή και αξιόπιστο τρόπο.

Αυτές οι δεσμεύσεις περιλαμβάνουν την αύξηση των δοκιμών και της διαφάνειας των συστημάτων τεχνητής νοημοσύνης και την ανταλλαγή πληροφοριών σχετικά με πιθανούς κινδύνους και κινδύνους.

Στην επέτειο ενός έτους από την υπογραφή του Voluntary Pledge, το MIT Technology Review ζήτησε από τις εταιρείες τεχνητής νοημοσύνης που υπέγραψαν τη δέσμευση για ορισμένες λεπτομέρειες σχετικά με το έργο τους μέχρι στιγμής. Οι απαντήσεις τους δείχνουν κάποια πολλά υποσχόμενη πρόοδο για τον κλάδο της τεχνολογίας, αλλά και ορισμένες σημαντικές επιφυλάξεις.

Αυτές οι εθελοντικές δεσμεύσεις γίνονται στογενετικής τεχνητής νοημοσύνης Η κίνηση έρχεται καθώς η φρενίτιδα «μπορεί να είναι η πιο αφρώδης» καθώς οι εταιρείες αγωνίζονται να λανσάρουν τα δικά τους μοντέλα και να τα κάνουν μεγαλύτερα και καλύτερα από αυτά των αντιπάλων τους. Ταυτόχρονα, αρχίζουμε επίσης να βλέπουμε συζητήσεις γύρω από θέματα όπως τα πνευματικά δικαιώματα και τα deepfakes. Ένα λόμπι προσωπικοτήτων τεχνολογίας με επιρροή όπως ο Geoffrey Hinton έχει επίσης εγείρει ανησυχίες ότι η τεχνητή νοημοσύνη θα μπορούσε να θέσει υπαρξιακούς κινδύνους για την ανθρωπότητα. Ξαφνικά, όλοι μιλούν για την επείγουσα ανάγκη να διασφαλιστεί η ασφάλεια της τεχνητής νοημοσύνης και οι ρυθμιστικές αρχές παντού βρίσκονται υπό πίεση να αναλάβουν δράση.

Μέχρι πρόσφατα, η ανάπτυξη της τεχνητής νοημοσύνης ήταν σαν την «Άγρια Δύση». Οι Ηνωμένες Πολιτείες ήταν παραδοσιακά απρόθυμες να ρυθμίσουν τους τεχνολογικούς γίγαντες τους, βασιζόμενοι αντ' αυτού σε αυτούς για να ρυθμίσουν τον εαυτό τους. Οι εθελοντικές δεσμεύσεις είναι ένα καλό παράδειγμα: αυτοί είναι ορισμένοι κανονιστικοί κανόνες για τον τομέα της τεχνητής νοημοσύνης στις Ηνωμένες Πολιτείες, αλλά εξακολουθούν να είναι εθελοντικοί και δεν μπορούν να επιβληθούν. Ο Λευκός Οίκος εξέδωσε αργότερα ένα εκτελεστικό διάταγμα που επέκτεινε αυτές τις δεσμεύσεις και εφαρμόστηκε σε άλλες εταιρείες τεχνολογίας και κυβερνητικούς φορείς.

«Ένα χρόνο μετά, βλέπουμε ορισμένες εταιρείες να υιοθετούν ορισμένες καλές πρακτικές με τα προϊόντα τους, αλλά δεν είναι πουθενά εκεί που πρέπει να είμαστε όσον αφορά τη χρηστή διακυβέρνηση ή την προστασία των βασικών δικαιωμάτων του Κέντρου Τεχνητής Νοημοσύνης και Ψηφιακής Πολιτικής», δήλωσε η Merve Hickok, Πρόεδρος και Διευθυντής Έρευνας. Εξέτασε τις απαντήσεις των εταιρειών κατόπιν αιτήματος του MIT Technology Review. «Πολλές από αυτές τις εταιρείες συνεχίζουν να προωθούν αβάσιμους ισχυρισμούς σχετικά με τα προϊόντα τους, όπως ισχυρισμούς ότι μπορούν να ξεπεράσουν την ανθρώπινη νοημοσύνη και ικανότητες», πρόσθεσε.

Μια τάση που αναδύεται από αυτές τις απαντήσεις εταιρειών τεχνολογίας είναι ότι οι εταιρείες λαμβάνουν περισσότερα βήματα για να επιδιώξουν τεχνικές λύσεις, όπως η αντιπαράθεση κόκκινου-μπλε (όπου οι άνθρωποι εξερευνούν τα ελαττώματα των μοντέλων τεχνητής νοημοσύνης) και προσθέτουν υδατογραφήματα σε περιεχόμενο που δημιουργείται από AI.

Ο Rishi Bommasani, διευθυντής του Κέντρου Θεμελιωδών Μοντελοποίησης στο Πανεπιστήμιο του Στάνφορντ, είπε ότι δεν είναι σαφές ποιες αλλαγές έχουν συμβεί σε αυτές τις δεσμεύσεις ή εάν οι εταιρείες θα εφαρμόσουν τα μέτρα. Εξέτασε επίσης τις απαντήσεις για το MIT Technology Review.

Ένας χρόνος είναι πολύς στον τομέα της τεχνητής νοημοσύνης. Από την υπογραφή της εθελοντικής υπόσχεσης, ο ιδρυτής της Inflection AI Mustafa Suleyman άφησε την εταιρεία για να ενταχθεί στη Microsoft για να ηγηθεί των προσπαθειών που σχετίζονται με την τεχνητή νοημοσύνη. Ο Inflection αρνήθηκε να σχολιάσει.

Ο εκπρόσωπος του Λευκού Οίκου Ρόμπιν Πάτερσον δήλωσε: "Είμαστε ευγνώμονες για την πρόοδο που έχουν σημειώσει κορυφαίες εταιρείες στην εκπλήρωση εθελοντικών δεσμεύσεων πέρα ​​από τις απαιτήσεις του εκτελεστικού διατάγματος. Ωστόσο, ο πρόεδρος συνεχίζει να καλεί το Κογκρέσο να περάσει δικομματική νομοθεσία για την τεχνητή νοημοσύνη."

Η Brandie Nonnecke, διευθύντρια του Εργαστηρίου Πολιτικής CITRIS στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϋ, είπε ότι χωρίς ολοκληρωμένη ομοσπονδιακή νομοθεσία, το μόνο που μπορούν να κάνουν οι Ηνωμένες Πολιτείες τώρα είναι να απαιτούν από τις εταιρείες να εκπληρώσουν αυτές τις εθελοντικές δεσμεύσεις.

Αλλά αυτό που είναι σημαντικό να θυμόμαστε είναι ότι «αυτές οι εταιρείες βασικά μελετούν για το τεστ που τους δίνεται», είπε η Brandie Nonnecke, «άρα πρέπει να εξετάσουμε προσεκτικά για να δούμε αν όντως επικυρώνουν τον εαυτό τους με έναν πραγματικά αυστηρό τρόπο».

Ακολουθεί η αξιολόγησή μας για την πρόοδο που σημείωσαν αυτές οι εταιρείες τεχνητής νοημοσύνης τον περασμένο χρόνο.

Δέσμευση 1. Οι εταιρείες δεσμεύονται να πραγματοποιήσουν εσωτερικές και εξωτερικές δοκιμές ασφαλείας των συστημάτων AI πριν από την κυκλοφορία τους. Αυτή η δοκιμή, η οποία θα διεξαχθεί εν μέρει από ανεξάρτητους εμπειρογνώμονες, προστατεύει από ορισμένες από τις πιο σημαντικές πηγές κινδύνων της τεχνητής νοημοσύνης, όπως η βιοασφάλεια και η ασφάλεια στον κυβερνοχώρο, καθώς και από τις ευρύτερες κοινωνικές επιπτώσεις της.

Δέσμευση 1: Πραγματοποιήστε εσωτερικές και εξωτερικές δοκιμές ασφαλείας συστημάτων AI πριν από την κυκλοφορία τους. Μέρος αυτής της δοκιμής θα διεξαχθεί από ανεξάρτητους εμπειρογνώμονες και έχει σχεδιαστεί για να προστατεύει από ορισμένες από τις πιο σημαντικές πηγές κινδύνων τεχνητής νοημοσύνης, όπως η βιοασφάλεια, η ασφάλεια στον κυβερνοχώρο και οι ευρύτερες κοινωνικές επιπτώσεις.

Όλες οι εταιρείες (εκτός από την Inflection, που επέλεξε να μην σχολιάσει) δήλωσαν ότι διεξήγαγαν αντιπαραθέσεις κόκκινου-μπλε για να αφήσουν εσωτερικούς και εξωτερικούς δοκιμαστές να διερευνήσουν τα ελαττώματα και τους κινδύνους των μοντέλων τους. Η OpenAI είπε ότι διαθέτει ξεχωριστή ομάδα ετοιμότητας που δοκιμάζει μοντέλα κυβερνοασφάλειας, χημικών, βιολογικών, ραδιολογικών και πυρηνικών απειλών, καθώς και εξελιγμένα μοντέλα τεχνητής νοημοσύνης που μπορούν να κάνουν ή να πείσουν ένα άτομο να κάνει πράγματα που θα μπορούσαν να προκαλέσουν βλάβη. Η Anthropic και η OpenAI δήλωσαν επίσης ότι θα πραγματοποιήσουν αυτές τις δοκιμές με εξωτερικούς ειδικούς πριν κυκλοφορήσουν νέα μοντέλα.Για παράδειγμα, προκειμένου να λανσάρει το πιο πρόσφατο μοντέλο της, το Claude 3.5, η Anthropic διεξήγαγε δοκιμές πριν από την ανάπτυξη με ειδικούς από το Βρετανικό Ινστιτούτο Ασφάλειας Τεχνητής Νοημοσύνης, επίσης, επέτρεψε στον μη κερδοσκοπικό ερευνητικό οργανισμό METR να πραγματοποιήσει δοκιμές πριν από την ανάπτυξη του Claude 3.5.Αυτόματος πιλότος Η λειτουργικότητα «εξερευνήθηκε προκαταρκτικά». Η Google είπε ότι διεξάγει επίσης εσωτερικές αντιπαραθέσεις κόκκινου-μπλε στο μοντέλο Gemini για να δοκιμάσει τα όρια του περιεχομένου που σχετίζεται με τις εκλογές, τους κοινωνικούς κινδύνους και τις ανησυχίες για την εθνική ασφάλεια. Η Microsoft δήλωσε ότι έχει συνεργαστεί με τρίτους αξιολογητές από το NewsGuard, έναν οργανισμό που προωθεί τη δημοσιογραφική ακεραιότητα, για να αξιολογήσει τον κίνδυνο και να μετριάσει τον κίνδυνο κακής χρήσης των deepfakes στο εργαλείο μετατροπής κειμένου σε εικόνα της Microsoft. Η Meta είπε ότι εκτός από την αντιπαράθεση κόκκινου-μπλε, αξιολόγησε επίσης το τελευταίο της μοντέλο, το Llama 3, για να δει πώς αποδίδει σε διάφορους τομείς κινδύνου, συμπεριλαμβανομένων των όπλων, των επιθέσεων στον κυβερνοχώρο και της εκμετάλλευσης παιδιών.

«Όταν πρόκειται για δοκιμές, δεν αρκεί απλώς να αναφέρουμε ότι μια εταιρεία αναλαμβάνει δράση», είπε ο Rishi Bommasani. Η Amazon και η Anthropic, για παράδειγμα, δήλωσαν ότι ένωσαν τις δυνάμεις τους με τη μη κερδοσκοπική Thorn για να αντιμετωπίσουν τους κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη για την ασφάλεια των παιδιών. Θα ήθελε να μάθει περισσότερες λεπτομέρειες για το πώς οι παρεμβάσεις που εφαρμόζει η εταιρεία μειώνουν πραγματικά αυτούς τους κινδύνους.

«Θα πρέπει να καταλάβουμε ξεκάθαρα ότι δεν είναι μόνο οι εταιρείες που κάνουν πράγματα, αλλά ότι αυτά τα πράγματα έχουν το επιθυμητό αποτέλεσμα», είπε ο Rishi Bommasani.

αποτέλεσμα: πολύ καλά. Η προώθηση του κόκκινου και του μπλε έναντι και η δοκιμή διαφόρων κινδύνων είναι σημαντική δουλειά. Ωστόσο, η Merve Hickok θα ήθελε να δει ανεξάρτητους ερευνητές να έχουν ευρύτερη πρόσβαση στα μοντέλα της εταιρείας.

Δέσμευση 2. Οι εταιρείες δεσμεύονται να μοιράζονται πληροφορίες σε ολόκληρο τον κλάδο και με τις κυβερνήσεις, την κοινωνία των πολιτών και τον ακαδημαϊκό κόσμο σχετικά με τη διαχείριση των κινδύνων της τεχνητής νοημοσύνης. Αυτό περιλαμβάνει βέλτιστες πρακτικές για την ασφάλεια, πληροφορίες σχετικά με προσπάθειες παράκαμψης διασφαλίσεων και τεχνική συνεργασία.

Δέσμευση 2: Μοιραστείτε πληροφορίες σχετικά με τη διαχείριση των κινδύνων της τεχνητής νοημοσύνης με τη βιομηχανία και την κυβέρνηση, την κοινωνία των πολιτών και τον ακαδημαϊκό κόσμο. Αυτό περιλαμβάνει βέλτιστες πρακτικές ασφαλείας, πληροφορίες σχετικά με προσπάθειες παράκαμψης διασφαλίσεων και τεχνική συνεργασία.

Μετά την υπογραφή της εθελοντικής δέσμευσης, η Google, η Microsoft, η Anthropic και η OpenAI σχημάτισαν το Frontier Model Forum, έναν μη κερδοσκοπικό οργανισμό που έχει σχεδιαστεί για να προωθήσει τη συζήτηση και τη δράση σχετικά με την ασφάλεια και την ευθύνη της τεχνητής νοημοσύνης. Αργότερα, η Amazon και η Meta εντάχθηκαν.

Ο Rishi Bommasani είπε ότι η συνεργασία με μη κερδοσκοπικούς οργανισμούς που χρηματοδοτούν οι ίδιες οι εταιρείες τεχνητής νοημοσύνης μπορεί να μην είναι στο πνεύμα μιας εθελοντικής δέσμευσης. Κατά την άποψή του, το Frontier Model Forum θα μπορούσε να είναι ένας τρόπος για αυτές τις εταιρείες να συνεργαστούν μεταξύ τους και να περάσουν μηνύματα ασφαλείας, κάτι που συχνά δυσκολεύονται να κάνουν ως ανταγωνιστές.

«Ακόμα κι αν δεν αποκαλύψουν πληροφορίες στο κοινό, θα ελπίζατε ότι θα έβρισκαν τουλάχιστον συλλογικά τρόπους για να μειώσουν τον κίνδυνο», είπε ο Rishi Bommasani.

Και οι επτά υπογράφοντες είναι επίσης μέλη του Ινστιτούτου Τεχνητής Νοημοσύνης για την Ασφάλεια (AISIC), που ιδρύθηκε από το Εθνικό Ινστιτούτο Προτύπων και Τεχνολογίας (NIST) για την ανάπτυξη κατευθυντήριων γραμμών και προτύπων για την πολιτική τεχνητής νοημοσύνης και την αξιολόγηση της απόδοσης της τεχνητής νοημοσύνης φορείς του κλάδου. Η Google, η Microsoft και η OpenAI έχουν επίσης εκπροσώπους στη Συμβουλευτική Ομάδα Υψηλού Επιπέδου των Ηνωμένων Εθνών για την Τεχνητή Νοημοσύνη.

Πολλές εταιρείες τόνισαν επίσης τις ερευνητικές τους συνεργασίες με τον ακαδημαϊκό κόσμο. Για παράδειγμα, η Google είναι μέρος του MLCommons, όπου συνεργάζεται με ακαδημαϊκούς για τη διεξαγωγή έρευνας συγκριτικής αξιολόγησης ασφάλειας τεχνητής νοημοσύνης μεταξύ κλάδου. Η Google είπε επίσης ότι συνεισφέρει ενεργά με εργαλεία και πόρους, όπως υπολογιστικές πιστώσεις σε προγράμματα όπως το πιλοτικό πρόγραμμα National Artificial Intelligence Research Resources του Εθνικού Ιδρύματος Επιστημών, το οποίο στοχεύει στον εκδημοκρατισμό της έρευνας τεχνητής νοημοσύνης στις Ηνωμένες Πολιτείες.

Πολλές εταιρείες συνεισφέρουν επίσης στο Partnership on AI, έναν άλλο μη κερδοσκοπικό οργανισμό που συνιδρύθηκε από την Amazon, την Google, τη Microsoft, το Facebook, την DeepMind και την IBM, για την ανάπτυξη των υποκείμενων μοντέλων.

αποτέλεσμα: Χρειάζεται ακόμα περισσότερη δουλειά. Καθώς η βιομηχανία συνεργάζεται για να κάνει τα συστήματα AI ασφαλή και αξιόπιστα, η ανταλλαγή περισσότερων πληροφοριών είναι αναμφίβολα ένα σημαντικό βήμα προς τη σωστή κατεύθυνση. Ωστόσο, δεν είναι σαφές πόσες από τις ανακοινωθείσες προσπάθειες θα οδηγήσουν πραγματικά σε ουσιαστική αλλαγή και πόσες θα είναι απλώς καλλυντικές.

Δέσμευση 3. Οι εταιρείες δεσμεύονται να επενδύσουν στην ασφάλεια στον κυβερνοχώρο και σε εσωτερικές διασφαλίσεις απειλών για την προστασία των ιδιόκτητων και μη δημοσιευμένων βαρών μοντέλων. Αυτά τα βάρη μοντέλων είναι το πιο ουσιαστικό μέρος ενός συστήματος τεχνητής νοημοσύνης και οι εταιρείες συμφωνούν ότι είναι ζωτικής σημασίας τα βάρη μοντέλων να απελευθερώνονται μόνο όταν προορίζονται και όταν λαμβάνονται υπόψη οι κίνδυνοι ασφάλειας.

Δέσμευση 3: Επενδύστε στην ασφάλεια στον κυβερνοχώρο και στα μέτρα προστασίας από εσωτερικές απειλές για την προστασία των ιδιόκτητων και μη δημοσιευμένων βαρών μοντέλων. Αυτά τα βάρη μοντέλων είναι το πιο σημαντικό μέρος ενός συστήματος τεχνητής νοημοσύνης και οι εταιρείες συμφωνούν ότι είναι σημαντικό να απελευθερώνονται μόνο τα βάρη μοντέλων σκόπιμα και έχοντας κατά νου τους κινδύνους ασφαλείας.

Πολλές εταιρείες έχουν εφαρμόσει νέα μέτρα κυβερνοασφάλειας τον περασμένο χρόνο. Για παράδειγμα, η Microsoft ξεκίνησε την «Πρωτοβουλία για το μέλλον της ασφάλειας» για να καταπολεμήσει την αυξανόμενη κλίμακα των κυβερνοεπιθέσεων. Η Microsoft λέει ότι τα βάρη των μοντέλων της είναι κρυπτογραφημένα για να μειώσουν τον πιθανό κίνδυνο κλοπής μοντέλου και εφαρμόζει ισχυρούς ελέγχους ταυτότητας και πρόσβασης κατά την ανάπτυξη εξαιρετικά προσαρμοσμένων μοντέλων.

Η Google ξεκίνησε επίσης ένα πρόγραμμα τεχνητής νοημοσύνης στον κυβερνοχώρο. Τον Μάιο, το OpenAI μοιράστηκε έξι νέα μέτρα που αναπτύσσει για να συμπληρώσει τις υπάρχουσες πρακτικές ασφάλειας στον κυβερνοχώρο, όπως η επέκταση κρυπτογραφικής προστασίας σε υλικό τεχνητής νοημοσύνης, και έχει επίσης ένα πρόγραμμα επιχορήγησης κυβερνοασφάλειας που επιτρέπει στους ερευνητές να χρησιμοποιούν το μοντέλο του για να δημιουργήσουν άμυνες κυβερνοασφάλειας.

Η Amazon είπε ότι έχει λάβει επίσης συγκεκριμένα μέτρα κατά των επιθέσεων που είναι μοναδικές για τη γενετική τεχνητή νοημοσύνη, όπως "δηλητηρίαση δεδομένων" και "ένεση λέξης υπόδειξης", τα οποία ενδέχεται να χρησιμοποιούν υποδείξεις για να καθοδηγούν τα μοντέλα γλώσσας ώστε να αγνοούν προηγούμενες οδηγίες και προστασία ασφαλείας.

Μέρες μετά την υπογραφή της εθελοντικής δέσμευσης, η Anthropic δημοσίευσε λεπτομέρειες σχετικά με τις διασφαλίσεις της, οι οποίες περιλαμβάνουν κοινές πρακτικές κυβερνοασφάλειας, όπως τον έλεγχο του ποιος έχει πρόσβαση σε μοντέλα και βάρη μοντέλων, καθώς και επιθεώρηση και έλεγχο αλυσίδων εφοδιασμού τρίτων. Η εταιρεία συνεργάζεται επίσης με ανεξάρτητους αξιολογητές για να αξιολογήσει εάν οι έλεγχοι που σχεδιάζει ανταποκρίνονται στις ανάγκες κυβερνοασφάλειας.

αποτέλεσμα: πολύ καλά. Όλες οι εταιρείες λένε ότι έχουν λάβει επιπλέον μέτρα για την προστασία των μοντέλων τους, αν και δεν φαίνεται να υπάρχει μεγάλη συναίνεση σχετικά με τους καλύτερους τρόπους προστασίας των μοντέλων τεχνητής νοημοσύνης.

Δέσμευση 4. Οι εταιρείες δεσμεύονται να διευκολύνουν την ανακάλυψη και την αναφορά τρωτών σημείων από τρίτους στα συστήματα τεχνητής νοημοσύνης τους. Ορισμένα ζητήματα ενδέχεται να επιμένουν ακόμη και μετά την κυκλοφορία ενός συστήματος AI και ένας ισχυρός μηχανισμός αναφοράς επιτρέπει την ταχεία εύρεση και επίλυσή τους.

Δέσμευση 4: Διευκολύνετε τρίτα μέρη να ανακαλύψουν και να αναφέρουν τρωτά σημεία στα συστήματα τεχνητής νοημοσύνης τους. Ακόμη και μετά την κυκλοφορία του συστήματος τεχνητής νοημοσύνης, ορισμένα προβλήματα ενδέχεται να εξακολουθούν να υπάρχουν και ένας ισχυρός μηχανισμός αναφοράς μπορεί να επιτρέψει τη γρήγορη ανακάλυψη και έγκαιρη επίλυση προβλημάτων.

Ένας από τους πιο δημοφιλείς τρόπους για να εκπληρωθεί αυτή η υπόσχεση είναι η εφαρμογή ενός προγράμματος "bug bounty", το οποίο ανταμείβει τα άτομα για την ανακάλυψη ελαττωμάτων στα συστήματα AI. Συμπεριλαμβανομένων των Google, Microsoft, Meta, Anthropic και OpenAI έχουν ξεκινήσει τέτοια σχέδια για συστήματα τεχνητής νοημοσύνης. Η Amazon και η Anthropic δήλωσαν επίσης ότι έχουν δημιουργήσει φόρμες στους ιστότοπούς τους όπου οι ερευνητές ασφαλείας μπορούν να υποβάλλουν αναφορές ευπάθειας.

Σύμφωνα με την Brandie Nonnecke, μπορεί να χρειαστούν χρόνια για να καταλάβουμε πώς να κάνουμε καλή δουλειά με έναν έλεγχο τρίτων. «Δεν πρόκειται απλώς για μια τεχνική πρόκληση, αλλά για μια κοινωνικο-τεχνική πρόκληση. Θα μας πάρει χρόνια όχι μόνο για να καταλάβουμε τα τεχνικά πρότυπα για την τεχνητή νοημοσύνη, αλλά και για να καταλάβουμε τα κοινωνικοτεχνικά πρότυπα, τα οποία είναι περίπλοκα και δύσκολα. " είπε. .

Η Brandie Nonnecke είπε ότι ανησυχεί ότι οι πρώτες εταιρείες που θα εφαρμόσουν ελέγχους τρίτων θα μπορούσαν να δημιουργήσουν ένα κακό προηγούμενο για το πώς να σκεφτόμαστε και να αντιμετωπίζουμε τους κοινωνικοτεχνικούς κινδύνους της τεχνητής νοημοσύνης. Για παράδειγμα, ένας έλεγχος μπορεί να ορίσει, να αξιολογήσει και να αντιμετωπίσει ορισμένους κινδύνους, αλλά να αγνοήσει άλλους.

αποτέλεσμα: Χρειάζεται ακόμα περισσότερη δουλειά. Τα bounties για σφάλματα είναι εξαιρετικά, αλλά δεν είναι αρκετά περιεκτικά. Νέοι νόμοι, όπως το νομοσχέδιο της ΕΕ για την τεχνητή νοημοσύνη, θα απαιτήσουν από τις εταιρείες τεχνολογίας να διενεργούν ελέγχους και θα ήταν καλύτερο εάν οι εταιρείες τεχνολογίας μοιράζονταν ιστορίες επιτυχίας τέτοιων ελέγχων.

Δέσμευση 5. Οι εταιρείες δεσμεύονται να αναπτύξουν ισχυρούς τεχνικούς μηχανισμούς για να διασφαλίσουν ότι οι χρήστες γνωρίζουν πότε δημιουργείται περιεχόμενο με τεχνητή νοημοσύνη, όπως ένα σύστημα υδατογράφησης. Αυτή η δράση δίνει τη δυνατότητα να ανθίσει η δημιουργικότητα με την τεχνητή νοημοσύνη, αλλά μειώνει τους κινδύνους απάτης και εξαπάτησης.

Δέσμευση 5:Η ανάπτυξη ισχυρών τεχνικών μηχανισμών για να διασφαλίσει ότι οι χρήστες γνωρίζουν το περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη, όπως τα «συστήματα υδατοσήμανσης», επιτρέπει στη δημιουργικότητα της τεχνητής νοημοσύνης να ανθίσει με ταυτόχρονη μείωση του κινδύνου απάτης και εξαπάτησης.

Πολλές εταιρείες έχουν δημιουργήσει συστήματα υδατογράφησης για περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη. Για παράδειγμα, η Google κυκλοφόρησε το SynthID, ένα εργαλείο υδατογράφησης για εικόνες, ήχο, κείμενο και βίντεο που δημιουργούνται από τους Gemini. Η Meta έχει αναπτύξει ένα εργαλείο υδατογράφησης εικόνων που ονομάζεται "Stable Signature" και ένα εργαλείο υδατογράφησης φωνής που ονομάζεται "AudioSeal". Η Amazon προσθέτει τώρα ένα «αόρατο υδατογράφημα» στις εικόνες που δημιουργούνται από το μοντέλο δημιουργίας εικόνων Titan. Το OpenAI χρησιμοποίησε υδατογραφήματα στο προσαρμοσμένο μοντέλο ομιλίας του Voice Engine και κατασκεύασε έναν ταξινομητή ανίχνευσης εικόνων για εικόνες που δημιουργούνται από το DALL-E 3. Η Anthropic είναι η μόνη εταιρεία που δεν έχει δημιουργήσει ακόμα εργαλείο υδατογράφησης, επειδή η υδατογράφηση είναι κυρίως για εικόνες και το μοντέλο Claude της εταιρείας δεν υποστηρίζει εικόνες.

Όλες οι εταιρείες εκτός από την Inflection, την Anthropic και τη Meta είναι επίσης μέλη της Συμμαχίας Προέλευσης και Αυθεντικότητας Περιεχομένου (C2PA), μιας βιομηχανικής συμμαχίας που θα συζητά ζητήματα σχετικά με το πότε δημιουργήθηκε το περιεχόμενο και εάν δημιουργήθηκε ή επεξεργάστηκε από τεχνητή νοημοσύνη ή ανθρώπους πληροφορίες είναι ενσωματωμένες στα μεταδεδομένα εικόνας. Η Microsoft και το OpenAl προσθέτουν αυτόματα τα μεταδεδομένα πηγής του C2PA σε εικόνες που δημιουργούνται με το DALL-E 3 και βίντεο που δημιουργούνται με το Sora. Αν και η Meta δεν είναι μέλος της συμμαχίας, ανακοίνωσε ότι χρησιμοποιεί το πρότυπο C2PA για τον εντοπισμό εικόνων που δημιουργούνται από AI στην πλατφόρμα της.

«Οι έξι εταιρείες που υπέγραψαν την εθελοντική δέσμευση στρέφονται φυσικά προς τις τεχνολογικές προσεγγίσεις για την αντιμετώπιση των κινδύνων, και αυτό ισχύει ιδιαίτερα με τα συστήματα υδατοσήμανσης», δήλωσε ο Rishi Bommasani.

«Το ερώτημα είναι, μπορούν οι «τεχνολογικές λύσεις» να κάνουν ουσιαστική πρόοδο και να λύσουν τα υποκείμενα κοινωνικά προβλήματα που μας οδηγούν στο να αναρωτιόμαστε αν το περιεχόμενο δημιουργείται από μηχανή;

αποτέλεσμα: πολύ καλά. Συνολικά, αυτό είναι ένα ενθαρρυντικό αποτέλεσμα, και ενώ το σύστημα υδατογράφησης είναι ακόμα πειραματικό και ακόμα αναξιόπιστο, είναι καλό να δούμε την έρευνα γύρω από αυτό και τη δέσμευση στο πρότυπο C2PA. Αυτό είναι καλύτερο από το τίποτα, ειδικά σε μια πολυάσχολη εκλογική χρονιά.

Δέσμευση 6. Οι εταιρείες δεσμεύονται να αναφέρουν δημόσια τις δυνατότητες, τους περιορισμούς και τους τομείς κατάλληλης και ακατάλληλης χρήσης των συστημάτων τους AI. Αυτή η έκθεση θα καλύπτει τόσο τους κινδύνους για την ασφάλεια όσο και τους κοινωνικούς κινδύνους, όπως οι επιπτώσεις στη δικαιοσύνη και την προκατάληψη.

Δέσμευση 6: Δημόσια αναφορά σχετικά με τις δυνατότητες, τους περιορισμούς και τους τομείς στους οποίους τα συστήματα AI τους είναι κατάλληλα για χρήση. Η έκθεση θα καλύπτει τους κινδύνους για την ασφάλεια και τους κοινωνικούς κινδύνους, όπως οι επιπτώσεις στη δικαιοσύνη και την προκατάληψη.

Η υπόσχεση του Λευκού Οίκου αφήνει πολλά περιθώρια για ερμηνεία, για παράδειγμα, οι εταιρείες μπορούν τεχνικά να ανταποκριθούν σε τέτοιες απαιτήσεις δημόσιας γνωστοποίησης εφόσον κινούνται προς αυτή την κατεύθυνση, ενώ τα επίπεδα διαφάνειας μπορεί να ποικίλλουν πολύ.

Εδώ, η πιο κοινή λύση που προσφέρουν οι εταιρείες τεχνολογίας είναι η λεγόμενη «κάρτα μοντέλου». Ενώ κάθε εταιρεία τα αποκαλεί ελαφρώς διαφορετικά, ουσιαστικά χρησιμεύουν ως ένα είδος περιγραφής προϊόντος για το μοντέλο AI. Μπορούν να καλύψουν τα πάντα, από τις δυνατότητες και τους περιορισμούς ενός μοντέλου (συμπεριλαμβανομένου του τρόπου μέτρησης των σημείων αναφοράς δικαιοσύνης και επεξήγησης) έως την αυθεντικότητα, την ευρωστία, τη διακυβέρνηση, το απόρρητο και την ασφάλεια. Η Anthropic είπε ότι θα δοκιμάσει επίσης το μοντέλο για πιθανά ζητήματα ασφάλειας που μπορεί να προκύψουν αργότερα.

Η Microsoft κυκλοφόρησε την ετήσια Έκθεση Διαφάνειας Υπεύθυνης Τεχνητής Νοημοσύνης, η οποία παρέχει πληροφορίες για το πώς η εταιρεία δημιουργεί εφαρμογές που χρησιμοποιούν γενετική τεχνητή νοημοσύνη, λαμβάνει αποφάσεις και επιβλέπει την ανάπτυξη αυτών των εφαρμογών. Η Microsoft είπε επίσης ότι διευκρινίζει πού και πώς χρησιμοποιείται η τεχνητή νοημοσύνη στα προϊόντα της.

αποτέλεσμα: Χρειάζεται ακόμα περισσότερη δουλειά. Η Merve Hickok είπε ότι η αύξηση της διαφάνειας στις δομές διακυβέρνησης και στις οικονομικές σχέσεις μεταξύ των εταιρειών θα ήταν ένας τομέας βελτίωσης για όλες τις εταιρείες και θα ήθελε επίσης να δει τις εταιρείες να είναι πιο διαφανείς σχετικά με τις πηγές δεδομένων, τις διαδικασίες εκπαίδευσης μοντέλων, τα συμβάντα ασφαλείας και τη χρήση ενέργειας.

Δέσμευση 7. Οι εταιρείες δεσμεύονται να δώσουν προτεραιότητα στην έρευνα σχετικά με τους κοινωνικούς κινδύνους που μπορούν να θέτουν τα συστήματα τεχνητής νοημοσύνης, συμπεριλαμβανομένης της αποφυγής επιβλαβών μεροληψιών και διακρίσεων και της προστασίας της ιδιωτικής ζωής. Το ιστορικό της τεχνητής νοημοσύνης δείχνει την ύπουλη και επικράτηση αυτών των κινδύνων και οι εταιρείες δεσμεύονται να αναπτύξουν τεχνητή νοημοσύνη που τους μετριάζει.

Δέσμευση 7: Δώστε προτεραιότητα στην έρευνα σχετικά με τους κοινωνικούς κινδύνους που μπορεί να επιφέρουν τα συστήματα τεχνητής νοημοσύνης, συμπεριλαμβανομένης της αποφυγής επιβλαβών προκαταλήψεων, των διακρίσεων και της προστασίας της ιδιωτικής ζωής. Το ιστορικό της τεχνητής νοημοσύνης δείχνει πόσο ύπουλοι και διάχυτοι είναι αυτοί οι κίνδυνοι και αυτές οι εταιρείες υπόσχονται με τεχνητή νοημοσύνη να τους μετριάσουν.

Οι εταιρείες τεχνολογίας είναι απασχολημένες με τη διεξαγωγή έρευνας ασφάλειας και την ενσωμάτωση των ευρημάτων στα προϊόντα τους. Η Amazon κατασκεύασε «προστατευτικά κιγκλιδώματα» για το «Amazon Bedrock» που μπορούν να ανιχνεύουν παραισθήσεις και επίσης να εφαρμόζουν προστασία ασφάλειας, ιδιωτικότητας και γνησιότητας. Η Anthropic είπε ότι έχει προσλάβει μια ερευνητική ομάδα που επικεντρώνεται στη μελέτη των κοινωνικών κινδύνων και της ιδιωτικής ζωής και κατά τη διάρκεια του περασμένου έτους εισήγαγε αναδυόμενες δυνατότητες για πλαστογράφηση, στρατηγικές μείωσης των διακρίσεων και μοντέλα που παραβιάζουν τον δικό τους κώδικα ή εκτελούν έρευνα. Η OpenAI λέει ότι έχει εκπαιδεύσει τα μοντέλα της να αποφεύγουν "περιεχόμενο μίσους" και να απορρίπτουν περιεχόμενο μίσους ή εξτρεμιστικό, και έχει εκπαιδεύσει το GPT-4V να απορρίπτει πολλά αιτήματα που απαιτούν απαντήσεις βασισμένες σε στερεότυπα. Το Google DeepMind δημοσίευσε επίσης έρευνα για την αξιολόγηση των επικίνδυνων δυνατοτήτων και διεξήγαγε έρευνα σχετικά με την κακή χρήση της γενετικής τεχνητής νοημοσύνης.

Όλες οι εταιρείες επενδύουν πολλά στην έρευνα σε αυτόν τον τομέα. Η Google, για παράδειγμα, έχει επενδύσει εκατομμύρια δολάρια για να δημιουργήσει ένα νέο Ταμείο Ασφάλειας AI για την προώθηση της έρευνας στον τομέα αυτό μέσω φόρουμ μοντελοποίησης αιχμής. Η Microsoft δήλωσε ότι έχει δεσμεύσει 20 εκατομμύρια δολάρια σε χρηματοδότηση για τη μελέτη των κοινωνικών κινδύνων μέσω των εθνικών ερευνητικών πόρων τεχνητής νοημοσύνης και ξεκίνησε ένα πρόγραμμα επιταχυντή έρευνας μοντέλων τεχνητής νοημοσύνης, το πρόγραμμα Accelerating Fundamental Model Research κοινωνιολογία.

αποτέλεσμα: πολύ καλά. Είναι μια υπόσχεση που είναι εύκολο να επιτευχθεί, καθώς οι υπογράφοντες είναι μερικά από τα μεγαλύτερα και πλουσιότερα εταιρικά ερευνητικά εργαστήρια τεχνητής νοημοσύνης στον κόσμο. Ενώ περισσότερη έρευνα για το πώς να γίνουν τα συστήματα τεχνητής νοημοσύνης είναι ένα ευπρόσδεκτο βήμα, οι επικριτές επισημαίνουν ότι η εστίαση στην έρευνα για την ασφάλεια αφαιρεί την προσοχή και τους πόρους από την έρευνα τεχνητής νοημοσύνης, η οποία επικεντρώνεται σε πιο άμεσες βλάβες, όπως οι διακρίσεις και οι προκαταλήψεις.

Δέσμευση 8. Οι εταιρείες δεσμεύονται να αναπτύξουν και να αναπτύξουν προηγμένα συστήματα AI για να βοηθήσουν στην αντιμετώπιση των μεγαλύτερων προκλήσεων της κοινωνίας. Από την πρόληψη του καρκίνου μέχρι τον μετριασμό της κλιματικής αλλαγής μέχρι το ενδιάμεσο, η τεχνητή νοημοσύνη - εάν γίνει σωστή διαχείριση - μπορεί να συμβάλει τα μέγιστα στην ευημερία, την ισότητα και την ασφάλεια όλων.

Δέσμευση 8:Η ανάπτυξη και η ανάπτυξη προηγμένων συστημάτων τεχνητής νοημοσύνης για να βοηθήσουν στην επίλυση των μεγαλύτερων προκλήσεων της κοινωνίας, από την πρόληψη του καρκίνου έως τον μετριασμό της κλιματικής αλλαγής σε πολλούς άλλους τομείς, εάν διαχειριστεί σωστά, η τεχνητή νοημοσύνη μπορεί να προωθήσει σημαντικά την ανθρώπινη ευημερία, ισότητα και ασφάλεια.

Από τότε που έκαναν αυτή την υπόσχεση, οι εταιρείες τεχνολογίας λύνουν διάφορα προβλήματα. Για παράδειγμα, η Pfizer χρησιμοποιεί τον Claude για να αξιολογήσει τις τάσεις στην έρευνα για τη θεραπεία του καρκίνου αφού συλλέξει σχετικά δεδομένα, ενώ η αμερικανική βιοφαρμακευτική εταιρεία Gilead χρησιμοποιεί το γενετικό AI της Amazon Web Services για τη διεξαγωγή αξιολογήσεων σκοπιμότητας κλινικών μελετών και την ανάλυση συνόλων δεδομένων.

Το Google DeepMind έχει ένα ισχυρό ιστορικό στην κυκλοφορία εργαλείων τεχνητής νοημοσύνης που μπορούν να βοηθήσουν τους επιστήμονες. Για παράδειγμα, το AlphaFold 3 μπορεί να προβλέψει τη δομή και τις αλληλεπιδράσεις σχεδόν όλων των ζωντανών μορίων. Το AlphaGeometry λύνει γεωμετρικά προβλήματα σε επίπεδο συγκρίσιμο με αυτό των κορυφαίων μαθητών γυμνασίου. Το GraphCast είναι ένα μοντέλο τεχνητής νοημοσύνης ικανό για πρόγνωση καιρού μεσαίου εύρους. Εν τω μεταξύ, η Microsoft χρησιμοποιεί δορυφορικές εικόνες και τεχνητή νοημοσύνη για να βελτιώσει την απόκριση στις πυρκαγιές στο Μάουι της Χαβάης και να χαρτογραφήσει πληθυσμούς ευάλωτους στις κλιματικές επιπτώσεις, κάτι που βοηθά τους ερευνητές να ανακαλύψουν κινδύνους όπως η επισιτιστική ανασφάλεια, η αναγκαστική μετανάστευση και οι ασθένειες.

Εν τω μεταξύ, το OpenAI ανακοίνωσε συνεργασίες και χρηματοδότηση για πολλά ερευνητικά έργα, όπως ένα για το πώς οι εκπαιδευτικοί και οι επιστήμονες μπορούν να χρησιμοποιούν με ασφάλεια πολυτροπικά μοντέλα AI σε εργαστηριακές ρυθμίσεις. Η εταιρεία χρηματοδοτεί επίσης «hackathons» για να βοηθήσει τους ερευνητές να αναπτύξουν καθαρή ενέργεια στην πλατφόρμα της.

αποτέλεσμα: πολύ καλά. Ορισμένες από τις εργασίες σε τομείς όπως η χρήση τεχνητής νοημοσύνης για τη διευκόλυνση της επιστημονικής ανακάλυψης ή την πρόβλεψη του καιρού είναι πραγματικά συναρπαστικό. Οι εταιρείες τεχνητής νοημοσύνης δεν χρησιμοποιούν ακόμη την τεχνητή νοημοσύνη για την πρόληψη του καρκίνου, κάτι που είναι αρκετά υψηλός πήχης για αρχή.

Συνολικά, υπάρχουν ορισμένες θετικές αλλαγές στον τρόπο κατασκευής της τεχνητής νοημοσύνης, όπως η αντιπαράθεση κόκκινου-μπλε, συστήματα υδατογράφησης και νέοι τρόποι ανταλλαγής βέλτιστων πρακτικών μεταξύ των βιομηχανιών. Ωστόσο, αυτές είναι μόνο μερικές από τις έξυπνες τεχνολογικές λύσεις που έχουν βρεθεί για την αντιμετώπιση του ακατάστατου κοινωνικο-τεχνικού προβλήματος των κινδύνων της τεχνητής νοημοσύνης και υπάρχει πολύ περισσότερη δουλειά που πρέπει να γίνει. Ένα χρόνο αργότερα, η υπόσχεση δίνει ακόμη υπερβολική έμφαση σε έναν συγκεκριμένο τύπο ασφάλειας τεχνητής νοημοσύνης που εστιάζει σε «υποθετικούς κινδύνους», όπως τα βιολογικά όπλα, ενώ δεν κάνει καμία αναφορά στην προστασία των καταναλωτών, τα deepfakes, τα δεδομένα και τα πνευματικά δικαιώματα και το περιβαλλοντικό αποτύπωμα της τεχνητής νοημοσύνης, παραλείψεις που φαίνονται σήμερα εντελώς παράξενο.

Αρχικός σύνδεσμος:

https://www.technologyreview.com/2024/07/22/1095193/ai-companies-promised-the-white-house-to-self-regulate-one-year-ago-whats-changed/