νέα

αποκλειστική συνομιλία με τον ilya sutskever για οκτώ ερωτήσεις της ψυχής, τα πάντα για το ssi

2024-09-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

συγγραφέας| xuushan, εκδότης|manmanzhou

με ένα άτομο που φέρει αποτίμηση 5 δισεκατομμυρίων, τι είδους agi θέλει να κατασκευάσει ο ilya;

στις 5 σεπτεμβρίου, σύμφωνα με το reuters, η safe superintelligence (ssi) ιδρύθηκε από τον ilya sutskever, τον πρώην επικεφαλής επιστήμονα του openai.συγκεντρώθηκαν 1 δισεκατομμύριο δολάρια σε μετρητά. άτομα που γνωρίζουν το θέμα αποκάλυψαν,μετά τη χρηματοδότηση, η αποτίμηση της εταιρείας έφτασε τα 5 δισεκατομμύρια δολάρια ηπα.η εταιρεία σχεδιάζει να χρησιμοποιήσει τα κεφάλαια για να αγοράσει υπολογιστική ισχύ και να προσλάβει κορυφαία ταλέντα για να βοηθήσει στην ανάπτυξη ασφαλών συστημάτων τεχνητής νοημοσύνης που υπερβαίνουν κατά πολύ τις ανθρώπινες δυνατότητες. οι αξιωματούχοι της ssi επιβεβαίωσαν επίσης ότι τα νέα είναι ακριβή.

η ssi ιδρύθηκε τον ιούνιο του 2024. η ιδρυτική ομάδα αποτελείται από τους ilya sutskever, daniel levy και daniel gross. επί του παρόντος, ο ilya sutskever υπηρετεί ως επικεφαλής επιστήμονας, ο daniel levy ως κύριος επιστήμονας και ο daniel gross ως διευθύνων σύμβουλος, υπεύθυνος για την υπολογιστική ισχύ και τη συγκέντρωση κεφαλαίων. η ssi έχει επί του παρόντος 10 υπαλλήλους και λειτουργεί υπό μια συμβατική κερδοσκοπική δομή.

η ssi δεν έχει κυκλοφορήσει κανένα προϊόν και μπόρεσε να λάβει υψηλή χρηματοδότηση και υψηλές αποτιμήσεις όταν ιδρύθηκε πριν από λιγότερους από τέσσερις μήνες. οι επενδυτές είναι πρόθυμοι να κάνουν μεγάλα στοιχήματα σε εξαιρετικά ταλέντα που επικεντρώνονται στη βασική έρευνα τεχνητής νοημοσύνης.

ο ilya sutskever είναι ένας από τους πιο σημαντικούς τεχνικούς εμπειρογνώμονες στον τομέα της τεχνητής νοημοσύνης. σπούδασε κοντά στον geoffrey hinton, γνωστό ως «νονός της τεχνητής νοημοσύνης» και ήταν πρώιμος υποστηρικτής της εκτεταμένης υπόθεσης. αυτή η υπόθεση υποστηρίζει ότι η απόδοση της τεχνητής νοημοσύνης βελτιώνεται με την αύξηση των μεγάλων ποσοτήτων υπολογιστικής ισχύος, η οποία επίσης θέτει τα θεμέλια για την έκρηξη της γενετικής τεχνητής νοημοσύνης.

ο daniel gross ήταν ο επικεφαλής της τεχνολογίας ai στην apple και πρώην συνεργάτης του y combinator, ενώ ο daniel levy είναι πρώην υπάλληλος του openai.

προς το παρόν, η ssi θα επικεντρωθεί στην κατασκευή μιας μικρής ομάδας ερευνητών και μηχανικών με έδρα το palo alto της καλιφόρνια και το τελ αβίβ του ισραήλ.

οι επενδυτές περιλαμβάνουν κορυφαίες εταιρείες επιχειρηματικών κεφαλαίων andreessen horowitz, sequoia capital, dst global και sv angel. συμμετέχει επίσης η nfdg, μια επενδυτική συνεργασία που διευθύνεται από τον nat friedman και τον ceo της ssi, daniel gross.

ο γκρος είπε σε συνέντευξή του: «είναι σημαντικό για εμάς να έχουμε επενδυτές που κατανοούν, σέβονται και υποστηρίζουν την αποστολή μας, η οποία είναι να κινηθούμε απευθείας σε ασφαλή υπερκατασκοπία, ειδικά σεξοδεύουμε αρκετά χρόνια σε έρευνα και ανάπτυξη προτού φέρουμε ένα προϊόν στην αγορά。”

μετά τη δημοσιοποίηση των πληροφοριών χρηματοδότησης της ssi, το reuters είχε αμέσως μια εις βάθος ανταλλαγή απόψεων με τον ilya sutskever, επίσης, σε μια σειρά ερωτήσεων σχετικά με το εάν το ssi είναι ανοιχτού κώδικα και η μελλοντική του ανάπτυξη. από τη συνέντευξη φαίνεται ότι δίνει μεγάλη σημασία στην ασφάλεια του super agi.

το παρακάτω συγκεντρώνεται από το silicon rabbit χωρίς να επηρεάζει το αρχικό κείμενο, απολαύστε!

01

ε: λόγοι ίδρυσης ssi

η ίλια: "βρήκαμε ένα βουνό που είναι λίγο διαφορετικό από αυτό που έχω δουλέψει στο παρελθόν... μόλις ανέβεις στην κορυφή αυτού του βουνού, το παράδειγμα αλλάζει... αυτό που ξέρουμε για την τεχνητή νοημοσύνη θα αλλάξει ξανά. σε αυτό σημαντικό, αυτό που έχει μεγαλύτερη σημασία για την υπερ-έξυπνη ασφάλεια θα είναι σημαντικό».

«το πρώτο μας προϊόν θα αφορά την ασφάλεια υπερκατασκοπίας».

02

ε: θα εφεύρετε την τεχνητή νοημοσύνη τόσο έξυπνη όσο οι άνθρωποι πριν από τη σούπερ νοημοσύνη;

η ίλια: «νομίζω ότι το ερώτημα είναι: είναι ασφαλές; είναι ένα από τα μεγαλύτερα στον κόσμονα είστε ευγενικοίη δύναμη του; νομίζω ότι ο κόσμος θα είναι τόσο διαφορετικός όταν το κάνουμε αυτό που θα είναι δύσκολο να σας δώσουμε ένα σαφές σχέδιο.

μπορώ να σας πω ότι ο κόσμος θα είναι πολύ διαφορετικός. ο κόσμος θα δει τι συμβαίνει στην τεχνητή νοημοσύνη πολύ διαφορετικά και θα είναι δύσκολο να το καταλάβει.αυτή θα είναι μια πιο έντονη συζήτηση. μπορεί να μην εξαρτάται μόνο από τις αποφάσεις που παίρνουμε οι ίδιοι. "

03

ε: πώς το ssi καθορίζει τι είναι η ασφαλής τεχνητή νοημοσύνη;

η ίλια: «για να μπορέσουμε να απαντήσουμε πλήρως στην ερώτησή σας, πρέπει να κάνουμε μια σημαντική έρευνα. ειδικά αν σκέφτεστε όπως εμείς, τα πράγματα πρόκειται να αλλάξουν πολύ... πολλές υπέροχες ιδέες ξυπνούν.

πολλοί άνθρωποι σκέφτονται,καθώς η τεχνητή νοημοσύνη γίνεται πιο ισχυρή, ποια βήματα πρέπει να κάνουμε και ποιες δοκιμές πρέπει να πραγματοποιήσουμε;αυτό είναι λίγο δύσκολο. υπάρχει ακόμη πολλή έρευνα που πρέπει να γίνει. δεν θέλω να πω ότι υπάρχει ξεκάθαρη απάντηση τώρα. αλλά αυτό είναι ένα από τα πράγματα που πρέπει να καταλάβουμε. "

04

ε: σχετικά με τις εκτεταμένες υποθέσεις και την ασφάλεια της τεχνητής νοημοσύνης

η ίλια: «όλοι λένε απλώς "εκτεταμένη υπόθεση". όλοι αμελούν να ρωτήσουντι ακριβώς κλιμακώνουμε;οι σημαντικές ανακαλύψεις στη βαθιά μάθηση την τελευταία δεκαετία βασίστηκαν σε μια ειδική διατύπωση της εκτεταμένης υπόθεσης. αλλά θα αλλάξει...και όσο αλλάζει, θα αυξάνονται οι δυνατότητες του συστήματος. τα θέματα ασφαλείας θα είναι πιο σοβαρά και αυτό πρέπει να αντιμετωπίσουμε. "

05

ε: έρευνα για το ssi ανοιχτού κώδικα

η ίλια:"προς το παρόν,δεν θα είναι όλες οι εταιρείες τεχνητής νοημοσύνης ανοιχτού κώδικα τη δουλειά τους, το ίδιο και εμείς. αλλά νομίζω ότι λόγω ορισμένων παραγόντων, (εμείς) θα έχουμε πολλές ευκαιρίες για εργασίες ασφάλειας που σχετίζονται με την υπερ-κατασκοπεία ανοιχτού κώδικα. ίσως όχι όλα, αλλά σίγουρα κάποιοι. "

06

ε: σχετικά με το ερευνητικό έργο ασφάλειας άλλων εταιρειών τεχνητής νοημοσύνης

η ίλια: "στην πραγματικότητα σκέφτομαι πολύ καλά αυτόν τον κλάδο. νομίζω ότι καθώς οι άνθρωποι προχωρούν, όλες οι διαφορετικές εταιρείες θα το συνειδητοποιήσουν - ίσως σε ελαφρώς διαφορετικούς χρόνους - με βάση τη φύση των προκλήσεων που αντιμετωπίζουν. επομένως, δεν πρόκειται να λέμε δεν πιστεύουμε ότι κανείς μπορεί να το κάνει, αλλά πιστεύουμε ότι μπορούμε να συνεισφέρουμε».

07

ε: σχετικά με τι είδους υπαλλήλους να προσλάβετε;

η ίλια: "μερικοί άνθρωποι μπορούν να εργάζονται πολλές ώρες, αλλά γρήγορα επιστρέφουν στο σωστό δρόμο. αυτό δεν ταιριάζει στο στυλ μας. αλλά αν είστε καλοί σε αυτόκάνε κάτι διαφορετικό, τότε έχετε τη δυνατότητα να κάνετε κάτι ιδιαίτερο (μαζί μας). "

«αυτό που μας ενθουσιάζει είναι όταν ανακαλύπτετε ότι αυτός ο υπάλληλος ενδιαφέρεται για τη δουλειά μας, δεν ενδιαφέρεται για την τάση ή κάποιο διαφημιστικό περιεχόμενο».

«θα αφιερώσουμε ώρες εξετάζοντας τους υποψηφίους για «καλό χαρακτήρα» και θα αναζητούμε άτομα με εξαιρετικές ικανότητες, αντί να δίνουμε υπερβολική έμφαση στα προσόντα και την εμπειρία στον τομέα».

08

ε: σχετικά με τη μελλοντική ανάπτυξη του ssi

η ίλια"θα κλιμακώσουμε με διαφορετικό τρόπο από το openai."

η εταιρεία σχεδιάζει να συνεργαστεί με παρόχους cloud και εταιρείες τσιπ για να χρηματοδοτήσει τις ανάγκες της σε υπολογιστική ισχύ, αλλά δεν έχει αποφασίσει ακόμη με ποιες εταιρείες θα συνεργαστεί.

σύνδεσμοι αναφοράς:

ο ilya sutskever για το πώς θα αλλάξει η τεχνητή νοημοσύνη και η νέα του startup safe superintelligence (reuters)