τα στοιχεία επικοινωνίας μου
ταχυδρομείο[email protected]
2024-09-17
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
η whips ανέφερε ότι στις 17 σεπτεμβρίου, σύμφωνα με ξένες αναφορές, ο διευθύνων σύμβουλος του openai sam altman θα αποχωρήσει από την εσωτερική επιτροπή που ιδρύθηκε από το openai τον μάιο, η οποία είναι υπεύθυνη για την επίβλεψη βασικών αποφάσεων ασφάλειας που σχετίζονται με τα έργα και τις λειτουργίες της εταιρείας.
το openai ανέφερε σε μια ανάρτηση ιστολογίου σήμερα ότι η επιτροπή ασφάλειας και ασφάλειας θα γίνει μια ανεξάρτητη ομάδα εποπτείας του διοικητικού συμβουλίου της οποίας θα προεδρεύει ο καθηγητής του πανεπιστημίου carnegie mellon zico kolter, με μέλη όπως τον διευθύνοντα σύμβουλο της quora adam d'angelo, τον συνταξιούχο στρατηγό των ηπα paul nakasone και τον πρώην εκτελεστικό αντιπρόεδρο της sony. πρόεδρος νικόλ σέλιγκμαν.
είναι όλοι τους σημερινά μέλη του διοικητικού συμβουλίου του openai.
το openai επεσήμανε στην ανάρτηση ότι η επιτροπή διεξήγαγε μια ανασκόπηση ασφαλείας του τελευταίου μοντέλου τεχνητής νοημοσύνης o1 του openai - αν και ο altman εξακολουθεί να εμπλέκεται.η εταιρεία είπε ότι ο όμιλος θα συνεχίσει να λαμβάνει τακτικές ενημερώσεις από την ομάδα ασφαλείας openai και διατηρεί το δικαίωμα να καθυστερήσει την κυκλοφορία μέχρι να επιλυθούν οι ανησυχίες για την ασφάλεια.
το openai έγραψε στην ανάρτηση: στο πλαίσιο των εργασιών του, το συμβούλιο ασφάλειας θα συνεχίσει να λαμβάνει τακτικές εκθέσεις τεχνικής αξιολόγησης για τρέχοντα και μελλοντικά μοντέλα, καθώς και συνεχείς εκθέσεις παρακολούθησης μετά την κυκλοφορία. χτίζουμε ένα ολοκληρωμένο πλαίσιο ασφαλείας με βάση τις διαδικασίες και τις πρακτικές έκδοσης μοντέλων για να προσδιορίσουμε με σαφήνεια τα κριτήρια επιτυχίας για τις εκδόσεις μοντέλων.
η αποχώρηση του άλτμαν από την επιτροπή ασφάλειας και ασφάλειας έρχεται αφότου πέντε γερουσιαστές των ηπα έθεσαν ερωτήματα σχετικά με τις πολιτικές του openai σε επιστολή τους προς τον άλτμαν αυτό το καλοκαίρι.
σχεδόν οι μισοί από τους υπαλλήλους του openai που κάποτε επικεντρώνονταν στους μακροπρόθεσμους κινδύνους της τεχνητής νοημοσύνης έχουν αποχωρήσει και πρώην ερευνητές του openai κατηγόρησαν τον altman ότι αντιτίθεται στην πραγματική ρύθμιση της τεχνητής νοημοσύνης υπέρ των πολιτικών που προωθούν τους εταιρικούς στόχους του openai.
όπως λένε, το openai αύξησε σημαντικά τις δαπάνες του για ομοσπονδιακά λόμπι, με προϋπολογισμό 800.000 $ για τους πρώτους έξι μήνες του 2024, έναντι 260.000 $ για όλο το περασμένο έτος.
νωρίτερα αυτήν την άνοιξη, ο άλτμαν εντάχθηκε επίσης στο συμβούλιο ασφάλειας και ασφάλειας τεχνητής νοημοσύνης του υπουργείου εσωτερικής ασφάλειας των ηπα, το οποίο συμβουλεύει για την ανάπτυξη και την ανάπτυξη τεχνητής νοημοσύνης σε κρίσιμες υποδομές των ηπα.
ακόμα κι αν ο altman απομακρυνθεί, δεν υπάρχουν πολλά σημάδια ότι η επιτροπή ασφάλειας θα λάβει σκληρές αποφάσεις που θα επηρεάσουν σοβαρά τον εμπορικό οδικό χάρτη του openai.
συγκεκριμένα, το openai είπε τον μάιο ότι θα επιδιώξει να αντιμετωπίσει έγκυρες κριτικές για το έργο του μέσω μιας επιτροπής - οι έγκυρες κριτικές, φυσικά, εξαρτώνται από την αντίληψη του θεατή.
τον μάιο, τα πρώην μέλη του διοικητικού συμβουλίου του openai, helen toner και tasha mccauley, δήλωσαν σε ένα άρθρο στο the economist ότι πίστευαν ότι το openai δεν ήταν αξιόπιστο και δεν μπορούσε να αναλάβει την ευθύνη.
γράφουν: με βάση την εμπειρία μας, πιστεύουμε ότι η αυτονομία δεν μπορεί να αντέξει αξιόπιστα την πίεση των κινήτρων κέρδους.
και τα κίνητρα κέρδους του openai εξακολουθούν να αυξάνονται.
η εταιρεία φημολογείται ότι συγκεντρώνει πάνω από 6,5 δισεκατομμύρια δολάρια σε χρηματοδότηση, η οποία θα αποτιμούσε το openai σε πάνω από 150 δισεκατομμύρια δολάρια. για να επιτευχθεί η συμφωνία, το openai πιθανότατα θα εγκαταλείψει την υβριδική μη κερδοσκοπική εταιρική δομή του, η οποία έχει σχεδιαστεί για να περιορίζει τις αποδόσεις των επενδυτών, εν μέρει για να διασφαλίσει ότι το openai παραμένει συνεπές με την ιδρυτική του αποστολή: να αναπτύξει γενική τεχνητή νοημοσύνη που ωφελεί όλη την ανθρωπότητα.