Νέα

Ο Άλτμαν κατηγορήθηκε ότι ήταν ανέντιμος σχετικά με το έργο ασφαλείας του OpenAI

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Το Whip Bull Report, 3 Αυγούστου, σύμφωνα με ξένες αναφορές, μετά από έναν πληροφοριοδότη που ισχυρίστηκε στην Επιτροπή Κεφαλαιαγοράς των ΗΠΑ (SEC) ότι η συμφωνία εμπιστευτικότητας της εταιρείας τεχνητής νοημοσύνης OpenAI εμπόδιζε παράνομα τους υπαλλήλους να αποκαλύψουν σημαντικά ζητήματα ασφάλειας στους νομοθέτες, το OpenAI αντιμετωπίζει αυξανόμενη πίεση. Θα υπάρξει μεγαλύτερη πίεση για να αποδειχθεί ότι δεν κρύβει τους κινδύνους της τεχνητής νοημοσύνης.

Σε μια επιστολή προς το OpenAI χθες, ο γερουσιαστής Chuck Grassley (R-Iowa) ζήτησε στοιχεία ότι η OpenAI δεν απαιτεί πλέον υπογραφές θα μπορούσε να εμποδίσει τους υπαλλήλους της να υποβάλουν αιτήματα στις κυβερνητικές ρυθμιστικές αρχές.

Συγκεκριμένα, ο Grassley ζήτησε από το OpenAI να παράσχει τρέχουσες συμφωνίες απασχόλησης, απόλυσης, μη απαξίωσης και εμπιστευτικότητας για να διαβεβαιώσει το Κογκρέσο ότι οι συμβάσεις δεν εμποδίζουν την αποκάλυψη.

Ο Grassley είπε ότι αυτό είναι κρίσιμο, ώστε να μπορούμε να βασιστούμε σε πληροφοριοδότες που εκθέτουν αναδυόμενες απειλές για να βοηθήσουν στην ανάπτυξη αποτελεσματικών πολιτικών τεχνητής νοημοσύνης που προφυλάσσουν από τους υπάρχοντες κινδύνους τεχνητής νοημοσύνης που προκύπτουν από τις τεχνολογικές εξελίξεις.

Η επιστολή του Grassley ανέφερε ότι προφανώς ζήτησε από το OpenAI δύο φορές αυτά τα αρχεία, αλλά δεν έλαβε καμία απάντηση.

Η εκπρόσωπος του Grassley, Clare Slattery, είπε στην Washington Post ότι μέχρι στιγμής το OpenAI δεν έχει απαντήσει στο τελευταίο αίτημα για έγγραφα.

"Δεν αρκεί να πούμε ότι κάνατε μια ενημέρωση", είπε ο Grassley σε μια δήλωση που δόθηκε στην Ars. "Τα γεγονότα μιλούν πιο δυνατά από τις λέξεις. Ο Άλτμαν πρέπει να παρέχει αρχεία και να ανταποκριθεί στο αίτημα επίβλεψής μου, ώστε το Κογκρέσο να μπορεί να αξιολογήσει με ακρίβεια εάν το OpenAI προστατεύει επαρκώς τους υπαλλήλους και τους χρήστες του."

Εκτός από το ότι ζήτησε από την OpenAI να ενημερώσει πρόσφατα τη συμφωνία εργαζομένων της, η Grassley προέτρεψε επίσης την OpenAI να είναι πιο διαφανής σχετικά με τον συνολικό αριθμό αιτημάτων εργαζομένων που ζητούν ομοσπονδιακές αποκαλύψεις από το 2023.

Οι γερουσιαστές ήθελαν να μάθουν ποιες πληροφορίες ήθελαν να αποκαλύψουν οι υπάλληλοι στους αξιωματούχους και εάν το OpenAI ενέκρινε πράγματι τα αιτήματά τους.

Ομοίως, η Grassley ζήτησε από το OpenAI να επιβεβαιώσει πόσες έρευνες της SEC έχει ανοίξει από το 2023.

Συνολικά, τα έγγραφα θα αποκαλύψουν εάν οι υπάλληλοι του OpenAI εξακολουθούν να απαγορεύεται να κάνουν ομοσπονδιακές αποκαλύψεις, ποιους τύπους αποκαλύψεων αρνείται το OpenAI και τον βαθμό στον οποίο η SEC παρακολουθεί το OpenAI για απόκρυψη κινδύνων ασφαλείας.

Ο Grassley έγραψε στην επιστολή: Η OpenAI πρέπει να διασφαλίσει ότι οι υπάλληλοί της μπορούν να παρέχουν προστατευμένες αποκαλύψεις χωρίς παράνομους περιορισμούς.

Ζήτησε από το OpenAI να απαντήσει έως τις 15 Αυγούστου, ώστε το Κογκρέσο να μπορεί να διεξάγει αντικειμενική και ανεξάρτητη εποπτεία των πρωτοκόλλων ασφαλείας και των συμφωνιών εμπιστευτικότητας του OpenAI.

Το OpenAI δεν απάντησε αμέσως στο αίτημα του Ars για σχόλιο.

Επί .

Επιβεβαίωσε επίσης ότι το OpenAI θέλει οι σημερινοί και πρώην υπάλληλοι να αισθάνονται άνετα εκφράζοντας ανησυχίες.

«Αυτό είναι κρίσιμο για κάθε εταιρεία, αλλά ειδικά για εμάς, όπου αποτελεί σημαντικό μέρος του προγράμματος ασφαλείας μας», έγραψε ο Άλτμαν. Τον Μάιο, καταργήσαμε μια ρήτρα μη απαξίωσης για νυν και πρώην υπαλλήλους, καθώς και μια ρήτρα που έδινε στην OpenAI το δικαίωμα να ακυρώσει το κατοχυρωμένο μετοχικό κεφάλαιο (παρόλο που δεν χρησιμοποιήθηκε ποτέ). Εργαζόμαστε σκληρά για να το διορθώσουμε.

Τον Ιούλιο, ο πληροφοριοδότης είπε στην Επιτροπή Κεφαλαιαγοράς ότι η OpenAI πρέπει να υποχρεωθεί να παρέχει όχι μόνο τις τρέχουσες συμβάσεις εργαζομένων αλλά όλες τις συμβάσεις που περιέχουν συμφωνίες εμπιστευτικότητας για να διασφαλιστεί ότι το OpenAI δεν έχει καλύψει ιστορικές ή τρέχουσες πρακτικές κάλυψης κινδύνων ασφάλειας AI. Θέλουν να ενημερώνονται όλοι οι νυν και πρώην υπάλληλοι για τυχόν συμβάσεις που περιέχουν παράνομες συμφωνίες εμπιστευτικότητας και να επιβάλλεται πρόστιμο στο OpenAI για κάθε παράνομη σύμβαση.

Ο Σαμ Άλτμαν κατηγορήθηκε ότι περιφρονούσε ζητήματα ασφάλειας τεχνητής νοημοσύνης

Ωστόσο, οι εκκλήσεις για περισσότερη διαφάνεια από το OpenAI δεν περιορίζονται στους νομοθέτες. Την ημέρα πριν από την ανοιχτή επιστολή του Grassley, ο Διευθύνων Σύμβουλος του OpenAI, Sam Altman, δημοσίευσε μια δήλωση σχετικά με το The statement was παραπλανητικό και προκάλεσε δημόσια κατακραυγή.

Ο Altman έγραψε: Όπως είπαμε τον περασμένο Ιούλιο, δεσμευτήκαμε να διαθέσουμε τουλάχιστον το 20% των υπολογιστικών μας πόρων στις προσπάθειες ασφάλειας σε ολόκληρη την εταιρεία, γεγονός που προκάλεσε ανησυχίες στην κοινότητα που πολλοί μεροληπτικοί αναγνώστες X θεώρησαν ότι αυτό παρέχει περισσότερο πλαίσιο.

Το κοινοτικό σημείωμα σημειώνει ότι ο Altman αναφερόταν σε ένα ιστολόγιο του Ιουλίου που επιβεβαίωνε ρητά ότι το OpenAI διέθετε το 20% των υπολογιστικών πόρων στην ομάδα του Super Alignment. Με την ομάδα να έχει πλέον διαλυθεί και τον επικεφαλής επιστήμονα που είναι υπεύθυνος για το Hyper-Alignment να εγκαταλείπει την εταιρεία, οι σχολιαστές X λένε ότι οι ισχυρισμοί του Altman παραπλάνησαν το κοινό σχετικά με τους υπολογιστικούς πόρους που διαθέτει το OpenAI στις πλέον αόριστα καθορισμένες προσπάθειες ασφαλείας του.

Ορισμένοι σχολιαστές X ζήτησαν περισσότερες λεπτομέρειες σχετικά με τις τρέχουσες προσπάθειες ασφαλείας του OpenAI. Σε μια επιστολή της 31ης Ιουλίου σε απάντηση σε πέντε άλλους γερουσιαστές σχετικά με θέματα ασφάλειας τεχνητής νοημοσύνης, το OpenAI εξήγησε τις προσπάθειές του για την ασφάλεια με περισσότερες λεπτομέρειες. Η εταιρεία διευκρίνισε επίσης τη δήλωση του Altman ότι ο X το είχε επισημάνει ως απαιτούμενο "περισσότερο πλαίσιο", γράφοντας ότι οι υπολογιστικοί πόροι που αναφέρονται στο ιστολόγιο δεν πρέπει σε καμία περίπτωση να αναφέρονται μόνο στην ομάδα Super Alignment.

Το OpenAI ανέφερε σε επιστολή προς τους γερουσιαστές: Για να προωθήσουμε περαιτέρω το ερευνητικό μας πρόγραμμα για την ασφάλεια, τον περασμένο Ιούλιο δεσμευτήκαμε να διαθέσουμε τουλάχιστον το 20% των υπολογιστικών πόρων στην ασφάλεια AI για μια πολυετή περίοδο. Αυτή η δέσμευση ισχύει πάντα για τις προσπάθειες ασφάλειας σε ολόκληρη την εταιρεία, όχι μόνο για μια συγκεκριμένη ομάδα.

Αυτό προκαλεί σύγχυση σε μερικούς ανθρώπους επειδή το ιστολόγιο του OpenAI δηλώνει ξεκάθαρα ότι το OpenAI θα αφιερώσει το 20% των υπολογιστικών πόρων που έχουμε αποκτήσει μέχρι σήμερα για την επίλυση του προβλήματος συντονισμού της υπερνοημοσύνης τα επόμενα τέσσερα χρόνια. Εκείνη την εποχή, το OpenAI είπε ότι το κύριο θεμελιώδες στοίχημα της έρευνας ήταν η πρώην υπερ-ενορχηστρωμένη ομάδα της, η οποία «χρειάζεται υπολογιστικούς πόρους επειδή το να το κάνουμε καλά είναι κρίσιμο για την επίτευξη της αποστολής μας».

Ενας

Το OpenAI δεν έχει απαντήσει ακόμη στον λογαριασμό meme, αλλά έχει πει στο παρελθόν ότι οι υπερ-ευθυγραμμισμένες ομάδες είναι κρίσιμες για την ασφάλεια της τεχνητής νοημοσύνης επειδή η κοινωνία χρειάζεται επιστημονικές και τεχνολογικές ανακαλύψεις για να καθοδηγήσει και να ελέγξει συστήματα τεχνητής νοημοσύνης που είναι πιο έξυπνα από εμάς.

Το OpenAI αναλύει τις πρωτοβουλίες ασφαλείας

Στην επιστολή του OpenAI προς τους γερουσιαστές, ο επικεφαλής στρατηγικής Jason Kwon είπε στους νομοθέτες ότι το OpenAI προστατεύει από τον κίνδυνο συνεργαζόμενος με εξωτερικούς ειδικούς για να αξιολογήσει και να ομαδοποιήσει τα μοντέλα μας. Αυτό περιλάμβανε διαβούλευση με περισσότερους από 100 εξωτερικούς ειδικούς που βοήθησαν στην αξιολόγηση των κινδύνων που σχετίζονται με το τελευταίο μας μοντέλο, το GPT-4o.

Ο Kwon γράφει: Τα ευρήματα και οι μετριασμούς ασφαλείας από τις δοκιμές της κόκκινης ομάδας είναι δημόσια διαθέσιμα στις κάρτες συστήματος που συνοδεύουν τα μοντέλα μας και το OpenAI δημοσίευσε μια εργασία με θέμα "Μέτρηση χημικών, βιολογικών, ραδιολογικών και πυρηνικών κινδύνων που σχετίζονται με συστήματα τεχνητής νοημοσύνης "Έρευνα που εκτιμά τον βαθμό στον οποίο διαφορετικά επαγγέλματα και κλάδοι μπορεί να επηρεαστούν από τα γλωσσικά μοντέλα, αξιολογεί την επίδραση των γλωσσικών μοντέλων στις λειτουργίες που επηρεάζουν και εξηγεί την ερμηνευσιμότητα των αποφάσεων του συστήματος τεχνητής νοημοσύνης.

Προκειμένου να διασφαλιστεί περαιτέρω η ασφάλεια της τεχνητής νοημοσύνης, ο Kwon είπε ότι το OpenAI θα πραγματοποιήσει επαναληπτική ανάπτυξη, πρώτα απελευθερώνοντας νέα χαρακτηριστικά όπως το μοντέλο βίντεο Sora ή τη μηχανή ομιλίας σε μια περιορισμένη ομάδα και στη συνέχεια θα τα ελευθερώσει ευρέως στο κοινό.

Ο Kwon έγραψε: Αυτή η στρατηγική μας επιτρέπει να λαμβάνουμε σχόλια από άτομα εκτός OpenAI, να ενημερώνουμε τα προστατευτικά κιγκλιδώματα μας όπως χρειάζεται και να ενημερώνουμε το κοινό για τις επερχόμενες λειτουργίες AI πριν ανοίξουμε πλήρως το μοντέλο μας.

Για τους υπαλλήλους που αναπτύσσουν νέα χαρακτηριστικά ή μοντέλα που εξακολουθούν να φοβούνται αντίποινα για την έγερση ανησυχιών για την ασφάλεια, ο Kwon είπε ότι το OpenAI ξεκίνησε μια ανοιχτή γραμμή ακεραιότητας τον Μάρτιο. Αυτό το κανάλι επιτρέπει στους υπαλλήλους να αναφέρουν ανώνυμα ζητήματα, εάν δεν νιώθουν άνετα, εγείροντας προβλήματα μέσω άλλων υπαρχόντων καναλιών.

Ενώ το OpenAI λέει ότι οι εργαζόμενοι είναι ελεύθεροι να μιλήσουν για τυχόν ανησυχίες, είναι σαφές ότι εάν το OpenAI κρίνει ότι ορισμένες πληροφορίες αποτελούν κίνδυνο ασφαλείας, εξακολουθεί να μην μπορεί να κοινοποιηθεί.

Ο Kwon γράφει: Το OpenAI συνεχίζει να κάνει διάκριση μεταξύ της εγείρισης ανησυχιών και της διαρροής εταιρικών εμπορικών μυστικών. Το τελευταίο (προστατευόμενο δικαίωμα αποκάλυψης) παραμένει απαγορευμένο βάσει συμφωνιών εμπιστευτικότητας με νυν και πρώην υπαλλήλους. Πιστεύουμε ότι αυτή η απαγόρευση είναι ιδιαίτερα σημαντική δεδομένου του αντίκτυπου που έχει η τεχνολογία μας στην εθνική ασφάλεια των ΗΠΑ.

Δεδομένου ότι αυτή η εξαίρεση επιτρέπει στο OpenAI να αρνηθεί ορισμένες ομοσπονδιακές αποκαλύψεις, ο Grassley πιθανότατα ήθελε να ανακαλύψει εάν το OpenAI θα μπορούσε να αρνηθεί λανθασμένα τις αποκαλύψεις με βάση την προστασία των εμπορικών μυστικών.

Η επιστολή του Grassley κατέστησε σαφές ότι οι γερουσιαστές ανησυχούσαν για τους κινδύνους για την ασφάλεια της αυτο-αστυνόμευσης των εταιρειών.