Νέα

Η "AI Godmother" Li Feifei έγραψε προσωπικά: Το νομοσχέδιο για την ασφάλεια AI της Καλιφόρνια θα βλάψει το οικοσύστημα των ΗΠΑ|Titanium Media AGI

2024-08-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Σύμφωνα με τα νέα του TMTpost App στις 7 Αυγούστου, η «Νονά της AI», ακαδημαϊκός της Εθνικής Ακαδημίας Μηχανικών, ακαδημαϊκός της Εθνικής Ακαδημίας Ιατρικής, ακαδημαϊκός της Αμερικανικής Ακαδημίας Τεχνών και Επιστημών, ο πρώτος Καθηγητής Έδρας Sequoia στο Πανεπιστήμιο του Στάνφορντ, Ινστιτούτο Τεχνητής Νοημοσύνης με επίκεντρο τον άνθρωπο του Stanford (HAI) ο Dean Feifei Li έγραψε ένα άρθρο στο "Fortune" σήμερα το πρωί και επεσήμανε ότι η επικείμενη εφαρμογή του νόμου για την ασφάλεια της τεχνητής νοημοσύνης στην Καλιφόρνια θα βλάψει τους προγραμματιστές, τον ακαδημαϊκό κόσμο, ακόμη και ολόκληρο Οικοσύστημα AI των ΗΠΑ, αλλά δεν θα λύσει την πιθανή βλάβη της τεχνητής νοημοσύνης.

«Σήμερα, η τεχνητή νοημοσύνη είναι πιο προηγμένη από ποτέ, με μεγάλη ισχύ, οι υπεύθυνοι χάραξης πολιτικής, η κοινωνία των πολιτών και οι φορείς της βιομηχανίας αναζητούν μια προσέγγιση διακυβέρνησης που ελαχιστοποιεί την πιθανή βλάβη και διαμορφώνει μια ασφαλή, ανθρωποκεντρική κοινωνία Ορισμένες από αυτές τις προσπάθειες, αλλά είμαι επιφυλακτικός με άλλες, ο νόμος περί Ασφαλούς Καινοτομίας για Μοντέλα Συνοριακής Νοημοσύνης (εφεξής SB-1047) εμπίπτει σε αυτήν την τελευταία κατηγορία ολόκληρη τη χώρα», είπε ο Λι Φεϊφέι.

Αναφέρεται ότι τον Ιούλιο του τρέχοντος έτους, η Γερουσία της Καλιφόρνια ενέκρινε μια έκδοση του νομοσχεδίου SB-1047, η οποία απαιτεί από τους προγραμματιστές να αποδείξουν ότι τα μοντέλα τεχνητής νοημοσύνης τους δεν θα χρησιμοποιηθούν για να προκαλέσουν βλάβη από τους νομοθέτες των ΗΠΑ φέτος. Πάρα πολλοί περιορισμοί για να τραβήξουμε την προσοχή. Αυτή η εξαιρετικά επιζήμια πρόταση μπορεί να υπογραφεί σε νόμο από τον κυβερνήτη της Καλιφόρνια Gavin Newsom τον Αύγουστο του τρέχοντος έτους.

Σύμφωνα με τον ορισμό του νομοσχεδίου, το Llama-3 του Meta ορίζεται ως ένα «μοντέλο αιχμής» που κοστίζει περισσότερα από 100 εκατομμύρια δολάρια για την εκπαίδευση. Ο Meta θα τιμωρηθεί επίσης αυστηρά εάν κάποιος χρησιμοποιήσει το μοντέλο για παράνομους σκοπούς. Ταυτόχρονα, το άρθρο 22603(a)(3)(4) του νόμου απαιτεί από την "Εξαίρεση περιορισμένου δασμού" να υποβάλει πιστοποίηση σε κρατικές υπηρεσίες και να σταματήσει τη λειτουργία του μοντέλου εάν υπάρχουν σφάλματα, ενώ το άρθρο 22603(β) απαιτεί προγραμματιστές να αναφέρουν πιθανά περιστατικά ασφάλειας AI για οποιοδήποτε μοντέλο. Εάν ένας προγραμματιστής δεν μπορεί να ελέγξει πλήρως τις διάφορες εκδόσεις παραγώγων με βάση το μοντέλο του, εάν συμβεί ένα περιστατικό ασφαλείας, η ευθύνη θα ανήκει στον πρώτο προγραμματιστή——Αυτό ισοδυναμεί με κοινή ευθύνη

Επιπλέον, η ενότητα 22604(α)(β) του νομοσχεδίου ορίζει ότι όταν οι χρήστες χρησιμοποιούν τα "μοντέλα αιχμής" και τους υπολογιστικούς πόρους τους, οι προγραμματιστές πρέπει να υποβάλλουν όλες τις πληροφορίες πελατών, συμπεριλαμβανομένης της ταυτότητας του πελάτη, του αριθμού πιστωτικής κάρτας, του αριθμού λογαριασμού, και αναγνωριστικό ταυτότητας πελάτη, αναγνωριστικό συναλλαγής, email, αριθμό τηλεφώνου. Επιπλέον, οι πληροφορίες πρέπει να υποβάλλονται μία φορά το χρόνο και να αξιολογούνται η συμπεριφορά και οι προθέσεις του χρήστη. Όλα τα στοιχεία χρήστη θα τηρούνται για 7 χρόνια και θα κατατίθενται επίσης στην Τελωνειακή και Συνοριακή Διοίκηση.

Η γεωγραφική θέση της Καλιφόρνια στις Ηνωμένες Πολιτείες είναι πολύ ιδιαίτερη. Είναι το σπίτι σε διάσημα σχολεία όπως το Stanford, το Caltech και το Πανεπιστήμιο της Νότιας Καλιφόρνια, καθώς και η Google, η Apple,OpenAI Φιλοξενεί επίσης τα κεντρικά γραφεία τεχνολογικών κολοσσών όπως η Meta και η Meta. Ως εκ τούτου, από αυτή την άποψη, ο Yann LeCun, νικητής του βραβείου Turing και επικεφαλής επιστήμονας AI της Meta, ο Li Feifei, ο Andreessen Horowitz, ιδρυτικός εταίρος του επενδυτικού ιδρύματος a16z, Τμήμα Επιστήμης Υπολογιστών και Τμήμα Ηλεκτρολόγων Μηχανικών στο Πανεπιστήμιο του Στάνφορντ Επισκέπτης καθηγητής Andrew Ng και άλλοι εξέφρασε αντιρρήσεις.

Μεταξύ αυτών, ο Yang Likun προειδοποίησε ότι η ρήτρα ευθύνης του νομοσχεδίου "θα εκθέσει τις πλατφόρμες τεχνητής νοημοσύνης ανοιχτού κώδικα σε τεράστιους κινδύνους... Η Meta δεν θα επηρεαστεί, αλλά οι νεοσύστατες τεχνολογίες τεχνητής νοημοσύνης θα χρεοκοπήσουν". κακόβουλα από άλλους, το νομοσχέδιο απαιτεί από τους προγραμματιστές AI να φέρουν αστική και ποινική ευθύνη για τα μοντέλα που αναπτύσσουν.

Ο Χόροβιτς πιστεύει ότι, αν και το νομοσχέδιο της Καλιφόρνια κατά της τεχνητής νοημοσύνης είναι καλοπροαίρετο, μπορεί να αποδυναμώσει την τεχνολογική βιομηχανία των ΗΠΑ λόγω παραπληροφόρησης, ακριβώς όταν το μέλλον της τεχνολογίας βρίσκεται σε ένα κρίσιμο σταυροδρόμι. Οι Ηνωμένες Πολιτείες χρειάζονται οι ηγέτες να αναγνωρίσουν ότι τώρα είναι μια κρίσιμη στιγμή για έξυπνη και ενοποιημένη ρυθμιστική δράση για την τεχνητή νοημοσύνη.

Ο Andrew Ng δημοσίευσε ένα άρθρο δηλώνοντας ότι το νομοσχέδιο της Καλιφόρνια SB-1047 θα καταπνίξει την ανάπτυξη μεγάλων μοντέλων ανοιχτού κώδικα. Επεσήμανε περαιτέρω,Είναι οι εφαρμογές τεχνητής νοημοσύνης που πρέπει να ρυθμιστούν, όχι τα ίδια τα μεγάλα μοντέλα

Ο Li Feifei πιστεύει ότι οι πολιτικές τεχνητής νοημοσύνης πρέπει να ενθαρρύνουν την καινοτομία, να θέτουν κατάλληλους περιορισμούς και να μετριάζουν τον αντίκτυπο αυτών των περιορισμών. Οι πολιτικές που αποτυγχάνουν να το κάνουν, στην καλύτερη περίπτωση, θα αποτύχουν να επιτύχουν τους στόχους τους και, στη χειρότερη, θα οδηγήσουν σε ακούσιες και σοβαρές συνέπειες. Εάν το SB-1047 εγκριθεί σε νόμο, θα βλάψει το νεοσύστατο οικοσύστημα τεχνητής νοημοσύνης της Αμερικής, ειδικά εκείνα τα μέρη που βρίσκονται ήδη σε μειονεκτική θέση από τους σημερινούς τεχνολογικούς γίγαντες: τον δημόσιο τομέα, τον ακαδημαϊκό κόσμο και τη «μικρή τεχνολογία». Το SB-1047 θα τιμωρούσε άσκοπα τους προγραμματιστές, θα καταπνίξει την κοινότητά μας ανοιχτού κώδικα και θα παρεμπόδιζε την ακαδημαϊκή έρευνα τεχνητής νοημοσύνης, ενώ θα αποτύγχανε να λύσει τα πραγματικά προβλήματα που έχει σχεδιαστεί να επιλύει.

Ο Λι Φεϊφέι έδωσε τέσσερις λόγους:

Πρώτον, το SB-1047 θα τιμωρούσε αδικαιολόγητα τους προγραμματιστές και θα κατέπνιγε την καινοτομία. Εάν γίνει κατάχρηση ενός μοντέλου τεχνητής νοημοσύνης, το SB-1047 θα θεωρήσει υπεύθυνους τους υπεύθυνους και τους αρχικούς προγραμματιστές του μοντέλου. Είναι αδύνατο για κάθε προγραμματιστή τεχνητής νοημοσύνης (ειδικά για εκκολαπτόμενους προγραμματιστές και επιχειρηματίες) να προβλέψει κάθε πιθανή χρήση του μοντέλου του. Το SB-1047 θα αναγκάσει τους προγραμματιστές να υποχωρήσουν και να αμυνθούν—ακριβώς αυτό που προσπαθούμε να αποφύγουμε.

Δεύτερον, το SB-1047 θα περιορίσει την ανάπτυξη ανοιχτού κώδικα. Το SB-1047 απαιτεί από όλα τα μοντέλα που υπερβαίνουν ένα ορισμένο όριο να περιλαμβάνουν έναν "διακόπτη kill", έναν μηχανισμό που μπορεί να τερματίσει το πρόγραμμα ανά πάσα στιγμή. Οι προγραμματιστές θα είναι ακόμη πιο απρόθυμοι να κωδικοποιήσουν και να συνεργαστούν εάν ανησυχούν ότι τα προγράμματα που κατεβάζουν και δημιουργούν θα διαγραφούν. Αυτός ο διακόπτης kill θα κατέστρεφε την κοινότητα ανοιχτού κώδικα - την πηγή αμέτρητων καινοτομιών, όχι μόνο στην τεχνητή νοημοσύνη αλλά σε οτιδήποτε, από το GPS έως τη μαγνητική τομογραφία μέχρι το ίδιο το Διαδίκτυο.

Τρίτον, το SB-1047 θα αποδυναμώσει την έρευνα της τεχνητής νοημοσύνης στον δημόσιο τομέα και τον ακαδημαϊκό κόσμο. Η ανάπτυξη ανοιχτού κώδικα είναι σημαντική για τον ιδιωτικό τομέα, αλλά είναι επίσης ζωτικής σημασίας για τον ακαδημαϊκό κόσμο, ο οποίος δεν μπορεί να προχωρήσει χωρίς συνεργασία και δεδομένα μοντέλων. Πάρτε, για παράδειγμα, φοιτητές επιστήμης υπολογιστών που εργάζονται σε ανοιχτά μοντέλα AI. Εάν τα ιδρύματά μας δεν έχουν πρόσβαση σε κατάλληλα μοντέλα και δεδομένα, πώς θα εκπαιδεύσουμε την επόμενη γενιά ηγετών της τεχνητής νοημοσύνης; Ένας διακόπτης kill θα υπονόμευε περαιτέρω τις προσπάθειες αυτών των φοιτητών και ερευνητών, οι οποίοι βρίσκονται ήδη σε μειονεκτική θέση όσον αφορά τα δεδομένα και τους υπολογιστές σε σύγκριση με τις μεγάλες εταιρείες τεχνολογίας. Το SB-1047 θα ηχήσει το «κώνο του θανάτου» για τον ακαδημαϊκό κόσμο και την τεχνητή νοημοσύνη του δημόσιου τομέα που θα πρέπει να διπλασιάσει τις επενδύσεις.

Το πιο ανησυχητικό είναι ότι το νομοσχέδιο δεν αντιμετωπίζει τις πιθανές βλάβες της ανάπτυξης της τεχνητής νοημοσύνης, συμπεριλαμβανομένων των μεροληψιών και των ψεύτικα. Αντίθετα, το SB-1047 θέτει ένα αυθαίρετο όριο, ρυθμίζοντας μοντέλα που χρησιμοποιούν ένα ορισμένο ποσό υπολογιστικής ισχύος ή κοστίζουν 100 εκατομμύρια δολάρια για την εκπαίδευση. Αυτό το μέτρο δεν παρέχει προστασία, αλλά θα περιορίσει μόνο την καινοτομία σε διάφορους τομείς, συμπεριλαμβανομένου του ακαδημαϊκού χώρου.

Ο Λι Φεϊφέι επεσήμανε ότι σήμερα, τα μοντέλα τεχνητής νοημοσύνης στον ακαδημαϊκό χώρο είναι κάτω από αυτό το όριο, αλλά εάν οι Ηνωμένες Πολιτείες εξισορροπήσουν τις επενδύσεις στον ιδιωτικό και δημόσιο τομέα τεχνητής νοημοσύνης, η ακαδημαϊκή κοινότητα θα ρυθμιστεί από το SB-1047 και το οικοσύστημα τεχνητής νοημοσύνης των ΗΠΑ θα χειροτερέψει ως αποτέλεσμα . Επομένως, οι Ηνωμένες Πολιτείες πρέπει να κάνουν το αντίθετο.

«Σε πολλές συνομιλίες με τον Πρόεδρο Μπάιντεν τον περασμένο χρόνο, έχω εκφράσει την ανάγκη για μια «νοοτροπία φεγγαριού» για την προώθηση της εκπαίδευσης, της έρευνας και της ανάπτυξης της τεχνητής νοημοσύνης στη χώρα μας. Ωστόσο, οι περιορισμοί του SB-1047 είναι πολύ αυθαίρετοι και δεν θα πλήξουν μόνο Καλιφόρνια Το οικοσύστημα της τεχνητής νοημοσύνης θα έχει επίσης ανησυχητικές επιπτώσεις στην τεχνητή νοημοσύνη σε ολόκληρη τη χώρα." Η Λι Φεϊφέι επεσήμανε ότι δεν είναι αντίθετη στη διακυβέρνηση της τεχνητής νοημοσύνης. Η νομοθεσία είναι ζωτικής σημασίας για την ασφαλή και αποτελεσματική ανάπτυξη της τεχνητής νοημοσύνης. Ωστόσο, η πολιτική τεχνητής νοημοσύνης πρέπει να προωθεί την ανάπτυξη ανοιχτού κώδικα, να προτείνει ενιαίους και λογικούς κανόνες και να οικοδομεί την εμπιστοσύνη των καταναλωτών. Το SB-1047 δεν πληροί αυτά τα πρότυπα.

Η Λι Φεϊφέι τόνισε ότι πρότεινε συνεργασία στον γερουσιαστή Scott Wiener, τον συγγραφέα του νομοσχεδίου: Ας διαμορφώσουμε από κοινού τη νομοθεσία για την τεχνητή νοημοσύνη και ας χτίσουμε πραγματικά μια μελλοντική κοινωνία με επίκεντρο την τεχνολογία.

«Στην πραγματικότητα, το μέλλον της τεχνητής νοημοσύνης εξαρτάται από αυτήν – ως πρωτοπόρος οντότητα και έδρα του πιο ισχυρού οικοσυστήματος τεχνητής νοημοσύνης του έθνους μας – βρίσκεται στο επίκεντρο του κινήματος της τεχνητής νοημοσύνης και οι εξελίξεις στην Καλιφόρνια θα επηρεάσουν την υπόλοιπη χώρα. », είπε στο τέλος ο Λι Φεϊφέι.