νέα

η openai και η anthropic συμφωνούν να αφήσουν την κυβέρνηση των ηπα να αξιολογήσει την ασφάλεια πριν από την κυκλοφορία του νέου μοντέλου

2024-08-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

το it house ανέφερε στις 30 αυγούστου ότι οι εταιρείες τεχνητής νοημοσύνης openai και anthropic συμφώνησαν να επιτρέψουν στην κυβέρνηση των ηπα να έχει πρόσβαση σε σημαντικά νέα μοντέλα τεχνητής νοημοσύνης πριν αυτές οι εταιρείες κυκλοφορήσουν αυτά τα μοντέλα για να βελτιώσουν την ασφάλειά τους.


πηγή εικόνας pexels

το ινστιτούτο ασφάλειας ai των ηπα ανακοίνωσε την πέμπτη ότι αυτόοι δύο εταιρείες έχουν υπογράψει μνημόνιο κατανόησης με το ινστιτούτο, δεσμεύοντας να παρέχουν πρόσβαση πριν και μετά τη δημόσια κυκλοφορία του μοντέλου. η κυβέρνηση των ηπα είπε ότι η κίνηση θα τις βοηθήσει να αξιολογήσουν από κοινού τους κινδύνους για την ασφάλεια και να μετριάσουν πιθανά προβλήματα. ο οργανισμός είπε ότι θα συνεργαστεί με τον ομόλογό του στο ηνωμένο βασίλειο για την παροχή σχολίων σχετικά με τις βελτιώσεις στην ασφάλεια.

ο επικεφαλής στρατηγικής του openai jason kwon εξέφρασε την υποστήριξή του για τη συνεργασία:

«υποστηρίζουμε σθεναρά την αποστολή του αμερικανικού ινστιτούτου ασφάλειας ai και προσβλέπουμε στη συνεργασία για την ανάπτυξη βέλτιστων πρακτικών και προτύπων για την ασφάλεια των μοντέλων τεχνητής νοημοσύνης ελπίζουμε ότι μέσω της συνεργασίας με το ινστιτούτο, μπορούμε να προσφέρουμε ένα πλαίσιο από το οποίο μπορεί να μάθει ο κόσμος.»

η anthropic δήλωσε επίσης ότι είναι πολύ σημαντικό να καθιερωθεί η ικανότητα αποτελεσματικής δοκιμής μοντέλων τεχνητής νοημοσύνης. ο jack clark, συνιδρυτής και επικεφαλής της πολιτικής της εταιρείας, δήλωσε:

"η διασφάλιση ότι η τεχνητή νοημοσύνη είναι ασφαλής και αξιόπιστη είναι ζωτικής σημασίας για να έχει θετικό αντίκτυπο αυτή η τεχνολογία. μέσω τέτοιων δοκιμών και συνεργασίας, οι κίνδυνοι που φέρει η τεχνητή νοημοσύνη μπορούν να ανακαλυφθούν και να μειωθούν καλύτερα και να προωθηθεί η υπεύθυνη ανάπτυξη της τεχνητής νοημοσύνης. δεσμευόμαστε να είμαστε περήφανοι που συμμετέχω σε αυτό το σημαντικό έργο και ελπίζω να θέσω νέα πρότυπα για την ασφάλεια και την αξιοπιστία της τεχνητής νοημοσύνης».

η κοινή πρόσβαση σε μοντέλα τεχνητής νοημοσύνης είναι ένα σημαντικό βήμα, καθώς οι ομοσπονδιακοί και πολιτειακοί νομοθέτες εξετάζουν πώς να θέσουν όρια στην τεχνολογία χωρίς να καταπνίγουν την καινοτομία. το it house σημείωσε ότι την τετάρτη, οι νομοθέτες της καλιφόρνια ψήφισαν τον νόμο frontier artificial intelligence model security innovation act (sb 1047), ο οποίος απαιτεί από τις εταιρείες τεχνητής νοημοσύνης στην καλιφόρνια να λαμβάνουν συγκεκριμένα μέτρα ασφαλείας πριν από την εκπαίδευση προηγμένων βασικών μοντέλων. αυτό προκάλεσε αντιδράσεις από εταιρείες τεχνητής νοημοσύνης, συμπεριλαμβανομένων των openai και anthropic, οι οποίοι προειδοποίησαν ότι θα μπορούσε να βλάψει μικρότερους προγραμματιστές ανοιχτού κώδικα, αν και το νομοσχέδιο έχει αναθεωρηθεί από τότε και εξακολουθεί να περιμένει την έγκριση του κυβερνήτη της καλιφόρνια gavin newsom.

εν τω μεταξύ, ο λευκός οίκος προσπαθεί να λάβει εθελοντικές δεσμεύσεις από μεγάλες εταιρείες σχετικά με τα μέτρα ασφαλείας της τεχνητής νοημοσύνης. αρκετές κορυφαίες εταιρείες τεχνητής νοημοσύνης έχουν αναλάβει μη δεσμευτικές δεσμεύσεις να επενδύσουν στην έρευνα για την ασφάλεια στον κυβερνοχώρο και τις διακρίσεις και να εργαστούν για την υδατογράφηση περιεχομένου που δημιουργείται από την τεχνητή νοημοσύνη.

η elizabeth kelly, διευθύντρια του εθνικού ινστιτούτου για την ασφάλεια της τεχνητής νοημοσύνης, δήλωσε σε δήλωση ότι αυτές οι νέες συμφωνίες είναι μόνο «η αρχή, αλλά αποτελούν σημαντικό ορόσημο στις προσπάθειές μας να βοηθήσουμε στην υπεύθυνη διαχείριση του μέλλοντος της τεχνητής νοημοσύνης».