νέα

Ο γίγαντας Τούρινγκ χωρίζει ξανά! Το νομοσχέδιο περιορισμού της τεχνητής νοημοσύνης της Καλιφόρνια που υποστηρίζεται από τον Hinton έχει αρχικά ψηφιστεί, LeCun, Li Feifei, Wu En

2024-08-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Νέα Έκθεση Σοφίας

Εκδότης: Τόσο νυσταγμένος

[Εισαγωγή στη Νέα Σοφία]Ο «Νόμος περί περιορισμού της τεχνητής νοημοσύνης» της Καλιφόρνια ψηφίστηκε αρχικά με επιτυχία εν μέσω έντονης αντίθεσης από μεγιστάνες της τεχνητής νοημοσύνης, μεγάλες εταιρείες τεχνολογίας, νεοφυείς επιχειρήσεις και επενδυτές επιχειρηματικών κεφαλαίων.

Όπως όλοι γνωρίζουμε, εκτός από τις ερμηνείες σε διάφορες ταινίες επιστημονικής φαντασίας, η τεχνητή νοημοσύνη δεν έχει σκοτώσει κανέναν στον πραγματικό κόσμο, ούτε έχει εξαπολύσει μεγάλης κλίμακας επιθέσεις στον κυβερνοχώρο.

Ωστόσο, ορισμένοι νομοθέτες των ΗΠΑ εξακολουθούν να ελπίζουν ότι μπορεί να εφαρμοστεί επαρκής ασφάλεια πριν αυτό το δυστοπικό μέλλον γίνει πραγματικότητα.


Μόλις αυτή την εβδομάδα, ο Νόμος Καινοτομίας Ασφάλειας Μοντέλου Τεχνητής Νοημοσύνης της Καλιφόρνια, SB 1047, έκανε για άλλη μια φορά ένα σημαντικό βήμα για να γίνει νόμος.


Με απλά λόγια, το SB 1047 θα αποτρέψει τα συστήματα τεχνητής νοημοσύνης από το να προκαλούν μαζικές απώλειες ή να προκαλούν περιστατικά κυβερνοασφάλειας που κοστίζουν περισσότερα από 500 εκατομμύρια δολάρια, ζητώντας από τους προγραμματιστές να λογοδοτήσουν.

Ωστόσο, η αντίθεση από τον ακαδημαϊκό χώρο και τη βιομηχανία ήταν τόσο έντονη που οι νομοθέτες της Καλιφόρνια συμβιβάστηκαν ελαφρώς προσθέτοντας αρκετές τροπολογίες που πρότειναν η startup AI Anthropic και άλλοι αντίπαλοι.

Σε σύγκριση με την αρχική πρόταση, η τρέχουσα έκδοση μειώνει την εξουσία της κυβέρνησης της Καλιφόρνια να θέτει υπόλογα τα εργαστήρια τεχνητής νοημοσύνης.


Διεύθυνση λογαριασμού: https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047

Αλλά ακόμα κι έτσι, (σχεδόν) σε κανέναν δεν αρέσει το SB 1047.

Γίγαντες της τεχνητής νοημοσύνης όπως οι Yann LeCun, Li Feifei και Ng Enda έχουν επανειλημμένα εκφράσει τη δυσαρέσκειά τους για αυτό το νομοσχέδιο που «πνίγει την τεχνητή νοημοσύνη ανοιχτού κώδικα και αναγκάζει την καινοτομία της τεχνητής νοημοσύνης να ανασταλεί ή ακόμη και να σταματήσει».




Διάφορα κοινά γράμματα εμφανίζονται επίσης το ένα μετά το άλλο:

Όχι μόνο περισσότεροι από 40 ερευνητές από το Πανεπιστήμιο της Καλιφόρνια, το Πανεπιστήμιο της Νότιας Καλιφόρνια, το Πανεπιστήμιο του Στάνφορντ και το Ινστιτούτο Τεχνολογίας της Καλιφόρνια ζήτησαν σθεναρά να μην ψηφιστεί αυτό το νομοσχέδιο.



Και οκτώ μέλη του Κογκρέσου που εκπροσωπούν διάφορες περιφέρειες στην Καλιφόρνια προέτρεψαν επίσης τον κυβερνήτη να ασκήσει βέτο στο νομοσχέδιο.




Ο LeCun αντέγραψε ακόμη και το αρχικό μήνυμα που χρησιμοποίησε όταν ζήτησε μορατόριουμ για την έρευνα για την τεχνητή νοημοσύνη - παρακαλώ ανέστειλε τη νομοθεσία για την τεχνητή νοημοσύνη για έξι μήνες!


Το ερώτημα λοιπόν είναι γιατί το προηγούμενο άρθρο χρησιμοποιούσε το «σχεδόν όλοι»;

Διότι, εκτός από τον ΛεΚούν, οι άλλοι δύο γίγαντες του Τούρινγκ, ο Yoshua Bengio και ο Geoffrey Hinton, υποστηρίζουν σθεναρά την ψήφιση αυτού του νομοσχεδίου.

Νομίζω μάλιστα ότι οι τρέχοντες όροι είναι λίγο πολύ χαλαροί.


Ως ανώτεροι ερευνητές τεχνολογίας και πολιτικής τεχνητής νοημοσύνης, γράφουμε για να εκφράσουμε την ισχυρή υποστήριξή μας στο νομοσχέδιο 1047 της Γερουσίας της Καλιφόρνια. Το SB 1047 περιγράφει τις βασικές απαιτήσεις για αποτελεσματική ρύθμιση αυτής της τεχνολογίας. Δεν εφαρμόζει σύστημα αδειοδότησης, δεν απαιτεί από τις εταιρείες να λάβουν άδεια από κυβερνητικούς φορείς πριν από την εκπαίδευση ή την ανάπτυξη μοντέλων, βασίζεται σε εταιρείες για την αξιολόγηση των κινδύνων από μόνες τους και δεν θεωρεί τις εταιρείες αυστηρά υπεύθυνες ακόμη και σε περίπτωση καταστροφής. Πρόκειται για μια σχετικά επιεική νομοθεσία σε σχέση με την κλίμακα των κινδύνων που αντιμετωπίζουμε. Η αναίρεση των βασικών μέτρων του νομοσχεδίου θα ήταν ένα ιστορικό λάθος - ένα λάθος που θα γίνει ακόμη πιο εμφανές σε ένα χρόνο καθώς θα κυκλοφορήσει η επόμενη γενιά ισχυρότερων συστημάτων AI.

Σήμερα, το SB 1047 πέρασε σχετικά εύκολα στο νομοθετικό σώμα της Καλιφόρνια, παρά την έντονη αντίθεση ορισμένων μελών του Κογκρέσου των ΗΠΑ, γνωστών ερευνητών τεχνητής νοημοσύνης, μεγάλων εταιρειών τεχνολογίας και κεφαλαίων επιχειρηματικού κινδύνου.

Στη συνέχεια, το SB 1047 θα πάει στη Συνέλευση της Καλιφόρνια για τελική ψηφοφορία. Λόγω της προσθήκης των τελευταίων τροπολογιών, μετά την ψήφιση του νομοσχεδίου, θα πρέπει να σταλεί πίσω στη Γερουσία της Καλιφόρνια για ψήφιση.

Εάν και οι δύο ψήφοι περάσουν, το SB 1047 θα σταλεί στον κυβερνήτη για να περιμένει το τελικό βέτο ή την υπογραφή του νόμου.

Ποια μοντέλα και εταιρείες θα περιοριστούν;

Σύμφωνα με τις απαιτήσεις του SB 1047, οι προγραμματιστές ή οι εταιρείες που αναπτύσσουν μοντέλα πρέπει να είναι υπεύθυνοι για την αποτροπή της χρήσης των μοντέλων τεχνητής νοημοσύνης τους για την πρόκληση "σημαντικής βλάβης".

Όπως η δημιουργία όπλων μαζικής καταστροφής ή η έναρξη επιθέσεων στον κυβερνοχώρο που κοστίζουν περισσότερα από 500 εκατομμύρια δολάρια. Παρεμπιπτόντως, το «Παγκόσμιο περιστατικό με μπλε οθόνη των Windows» του CrowdStrike προκάλεσε ζημίες άνω των 5 δισεκατομμυρίων δολαρίων.

Ωστόσο, οι κανόνες του SB 1047 ισχύουν μόνο για πολύ μεγάλα μοντέλα τεχνητής νοημοσύνης—δηλαδή, το κόστος εκπαίδευσης είναι τουλάχιστον 100 εκατομμύρια δολάρια και ο αριθμός των πράξεων κινητής υποδιαστολής υπερβαίνει τις 10^26. (Βασικά με βάση το κόστος εκπαίδευσης του GPT-4)

Λέγεται ότι το ποσό υπολογισμού που απαιτείται από την επόμενη γενιά Llama 4 της Meta θα αυξηθεί κατά 10 φορές και επομένως θα ρυθμιστεί επίσης από το SB 1047.

Για τα μοντέλα ανοιχτού κώδικα και τις τελειοποιημένες εκδόσεις τους, υπεύθυνοι είναι οι αρχικοί προγραμματιστές. Εκτός αν το κόστος αγγίζει το 3πλάσιο του αρχικού μοντέλου.

Από αυτή την άποψη, δεν είναι περίεργο που η αντίδραση του ΛεΚούν ήταν τόσο βίαιη.

Επιπλέον, οι προγραμματιστές πρέπει να δημιουργήσουν διαδικασίες δοκιμών που αντιμετωπίζουν τους κινδύνους μοντέλων τεχνητής νοημοσύνης και πρέπει να προσλαμβάνουν ελεγκτές τρίτων ετησίως για να αξιολογούν τις πρακτικές ασφάλειας τεχνητής νοημοσύνης τους.

Για αυτά τα προϊόντα τεχνητής νοημοσύνης που έχουν κατασκευαστεί με βάση μοντέλα, πρέπει να αναπτυχθούν αντίστοιχα πρωτόκολλα ασφαλείας για την αποφυγή κατάχρησης, συμπεριλαμβανομένου ενός κουμπιού "διακοπή έκτακτης ανάγκης" που κλείνει ολόκληρο το μοντέλο τεχνητής νοημοσύνης.

και τα λοιπά……

Ποια είναι η τρέχουσα λειτουργία του SB 1047;

Σήμερα, το SB 1047 δεν επιτρέπει πλέον στον Γενικό Εισαγγελέα της Καλιφόρνια να μηνύσει εταιρείες τεχνητής νοημοσύνης για αμέλεια μέτρα ασφαλείας πριν συμβεί ένα καταστροφικό γεγονός. (Πρόταση από το Anthropic)

Αντίθετα, ο γενικός εισαγγελέας της Καλιφόρνια θα μπορούσε να ζητήσει διαταγή που απαιτεί από μια εταιρεία να σταματήσει μια επιχείρηση που θεωρεί επικίνδυνη και θα μπορούσε να μηνύσει τους προγραμματιστές τεχνητής νοημοσύνης εάν τα μοντέλα τους οδηγήσουν σε καταστροφικά γεγονότα.

Το SB 1047 δεν ιδρύει πλέον τη νέα κυβερνητική υπηρεσία "Frontier Modeling Division (FMD)" που αρχικά περιλαμβανόταν στο νομοσχέδιο.

Ωστόσο, ο πυρήνας του αφθώδους πυρετού, η Επιτροπή Μοντέλου Συνόρων, εξακολουθούσε να έχει συσταθεί και τοποθετηθεί εντός του υπάρχοντος Οργανισμού Κυβερνητικών Επιχειρήσεων και το μέγεθός του επεκτάθηκε από τα προηγούμενα 5 σε 9 άτομα. Η επιτροπή θα εξακολουθεί να ορίζει υπολογιστικά όρια για καλυμμένα μοντέλα, να εκδίδει οδηγίες για την ασφάλεια και να εκδίδει κανονισμούς για τους ελεγκτές.

Το SB 1047 έχει επίσης πιο χαλαρή διατύπωση όσον αφορά τη διασφάλιση της ασφάλειας των μοντέλων AI.

Τώρα, οι προγραμματιστές χρειάζεται μόνο να παρέχουν «εύλογη φροντίδα» για να διασφαλίσουν ότι τα μοντέλα τεχνητής νοημοσύνης δεν αποτελούν σημαντικό κίνδυνο καταστροφής, παρά την «εύλογη διασφάλιση» που απαιτούνταν προηγουμένως.

Επιπλέον, οι προγραμματιστές χρειάζεται μόνο να υποβάλουν μια δημόσια "δήλωση" που περιγράφει τα μέτρα ασφαλείας τους και δεν χρειάζεται πλέον να υποβάλλουν πιστοποίηση των αποτελεσμάτων των δοκιμών ασφαλείας με την ποινή της ψευδορκίας.

Υπάρχει επίσης ξεχωριστή προστασία για μοντέλα λεπτής ρύθμισης ανοιχτού κώδικα. Εάν κάποιος ξοδέψει λιγότερα από 10 εκατομμύρια δολάρια για τη βελτίωση ενός μοντέλου, δεν θεωρείται προγραμματιστής και η ευθύνη παραμένει στον αρχικό μεγάλο προγραμματιστή του μοντέλου.

Ο Λι Φεϊφέι κάποτε έγραψε προσωπικά ένα άρθρο με κριτική

Ο αντίκτυπος του SB 1047 στη βιομηχανία της τεχνητής νοημοσύνης μπορεί να φανεί στη στήλη της "AI Godmother" Li Feifei στο περιοδικό Fortune:

«Εάν γίνει νόμος, το SB 1047 θα βλάψει το εκκολαπτόμενο οικοσύστημα τεχνητής νοημοσύνης της Αμερικής, ειδικά εκείνα τα μέρη που είναι ήδη σε μειονεκτική θέση: ο δημόσιος τομέας, ο ακαδημαϊκός κόσμος και οι μικρές εταιρείες τεχνολογίας θα τιμωρήσουν άσκοπα τους προγραμματιστές, θα καταπνίξουν την κοινότητα ανοιχτού κώδικα και θα περιορίσουν την ακαδημαϊκή κοινότητα. Η έρευνα επίσης αποτυγχάνει να λύσει το πραγματικό πρόβλημα».


Πρώτον, το SB 1047 θα τιμωρούσε αδικαιολόγητα τους προγραμματιστές και θα κατέπνιγε την καινοτομία.

Σε περιπτώσεις κατά τις οποίες γίνεται κατάχρηση ενός μοντέλου τεχνητής νοημοσύνης, το SB 1047 ρίχνει την ευθύνη στον υπεύθυνο και στον αρχικό προγραμματιστή του μοντέλου. Για κάθε προγραμματιστή τεχνητής νοημοσύνης, ειδικά για εκκολαπτόμενους προγραμματιστές και επιχειρηματίες, η πρόβλεψη κάθε πιθανής χρήσης για τα μοντέλα τους είναι αδύνατη. Το SB 1047 θα αναγκάσει τους προγραμματιστές να λάβουν αμυντικά μέτρα - κάτι που πρέπει να αποφευχθεί πάση θυσία.

Δεύτερον, το SB 1047 θα περιορίσει την ανάπτυξη ανοιχτού κώδικα.

Το SB 1047 απαιτεί όλα τα μοντέλα που υπερβαίνουν ένα συγκεκριμένο όριο να περιλαμβάνουν ένα "κουμπί διακοπής έκτακτης ανάγκης", έναν μηχανισμό που μπορεί να τερματίσει το πρόγραμμα ανά πάσα στιγμή. Εάν οι προγραμματιστές ανησυχούν ότι τα προγράμματα που κατεβάζουν και κατασκευάζουν θα διαγραφούν, θα διστάζουν περισσότερο να κωδικοποιήσουν ή να συνεργαστούν. Αυτό το κουμπί διακοπής έκτακτης ανάγκης θα επηρεάσει σοβαρά την κοινότητα ανοιχτού κώδικα—όχι μόνο στην τεχνητή νοημοσύνη, αλλά σε αμέτρητες πηγές καινοτομίας σε τομείς τόσο διαφορετικούς όπως το GPS, η μαγνητική τομογραφία και το ίδιο το Διαδίκτυο.

Τρίτον, το SB 1047 θα αποδυναμώσει την έρευνα της τεχνητής νοημοσύνης στον δημόσιο τομέα και τον ακαδημαϊκό κόσμο.

Η ανάπτυξη ανοιχτού κώδικα είναι σημαντική στον ιδιωτικό τομέα, αλλά ακόμη περισσότερο στον ακαδημαϊκό χώρο, ο οποίος δεν μπορεί να σημειώσει πρόοδο χωρίς συνεργασία και πρόσβαση σε δεδομένα μοντέλων. Πώς μπορούν οι ερευνητές να εκπαιδεύσουν την επόμενη γενιά ηγετών AI εάν δεν έχουν πρόσβαση σε κατάλληλα μοντέλα και δεδομένα; Ένα κουμπί διακοπής έκτακτης ανάγκης θα αποδυνάμωνε περαιτέρω τον ακαδημαϊκό κόσμο, ο οποίος βρίσκεται ήδη σε μειονεκτική θέση δεδομένων και υπολογιστών. Το SB 1047 θα επιφέρει ένα θανατηφόρο πλήγμα στην ακαδημαϊκή τεχνητή νοημοσύνη σε μια εποχή που θα έπρεπε να επενδύουμε περισσότερο στην τεχνητή νοημοσύνη του δημόσιου τομέα.

Το πιο ανησυχητικό είναι ότι το SB 1047 δεν αντιμετωπίζει τους πιθανούς κινδύνους της προόδου της τεχνητής νοημοσύνης, συμπεριλαμβανομένων των προκαταλήψεων και των πλαστών. Αντίθετα, θέτει ένα πολύ αυθαίρετο όριο - ένα ορισμένο ποσό υπολογιστικής ισχύος ή ένα μοντέλο που κοστίζει 100 εκατομμύρια δολάρια για την εκπαίδευση. Αυτό το μέτρο όχι μόνο δεν παρέχει προστασία, αλλά θα περιορίσει την καινοτομία σε διάφορους τομείς, συμπεριλαμβανομένου του ακαδημαϊκού χώρου.

Η Li Feifei είπε ότι δεν είναι αντίθετη στη διακυβέρνηση της AI. Η νομοθεσία είναι κρίσιμη για την ασφαλή και αποτελεσματική ανάπτυξη της τεχνητής νοημοσύνης. Ωστόσο, η πολιτική τεχνητής νοημοσύνης πρέπει να υποστηρίζει την ανάπτυξη ανοιχτού κώδικα, να θέτει ενιαίους και λογικούς κανόνες και να χτίζει την εμπιστοσύνη των καταναλωτών.

Σαφώς, το SB 1047 δεν πληροί αυτά τα πρότυπα.

Παραπομπές:

https://techcrunch.com/2024/08/15/california-weakens-bill-to-prevent-ai-disasters-before-final-vote-taking-advice-from-anthropic/

https://techcrunch.com/2024/08/15/california-ai-bill-sb-1047-aims-to-prevent-ai-disasters-but-silicon-valley-warns-it-will-cause-one/

https://fortune.com/2024/08/06/godmother-of-ai-says-californias-ai-bill-will-harm-us-ecosystem-tech-politics/