nouvelles

conversation exclusive avec ilya sutskever sur eight questions of the soul, tout sur ssi

2024-09-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

auteur|xuushan, éditeur|manmanzhou

avec une personne valorisée à 5 milliards, quel type d’agi ilya veut-il construire ?

le 5 septembre, selon reuters, safe superintelligence (ssi) a été fondée par ilya sutskever, l'ancien scientifique en chef d'openai.1 milliard de dollars de liquidités levés. des personnes proches du dossier ont révélé :après financement, la valorisation de l'entreprise a atteint 5 milliards de dollars.l'entreprise prévoit d'utiliser les fonds pour acheter de la puissance de calcul et embaucher les meilleurs talents afin de contribuer au développement de systèmes d'intelligence artificielle sûrs qui dépassent de loin les capacités humaines. les responsables du ssi ont également confirmé que la nouvelle était exacte.

ssi a été créée en juin 2024. l'équipe fondatrice est composée d'ilya sutskever, daniel levy et daniel gross. actuellement, ilya sutskever est scientifique en chef, daniel levy est scientifique principal et daniel gross est pdg, responsable de la puissance de calcul et de la collecte de fonds. ssi compte actuellement 10 employés et opère selon une structure conventionnelle à but lucratif.

ssi n'a lancé aucun produit et a pu obtenir un financement et des valorisations élevés lors de sa création il y a moins de quatre mois. c'est précisément grâce à la solide expérience industrielle de ces trois personnes. les investisseurs sont prêts à miser massivement sur des talents exceptionnels axés sur la recherche fondamentale en ia.

ilya sutskever est l'un des experts techniques les plus influents dans le domaine de l'intelligence artificielle. il a étudié auprès de geoffrey hinton, connu comme le « parrain de l'intelligence artificielle », et a été l'un des premiers partisans de l'hypothèse étendue. selon cette hypothèse, les performances de l’ia s’améliorent avec l’augmentation de grandes quantités de puissance de calcul, ce qui jette également les bases de l’explosion de l’ia générative.

daniel gross était responsable de la technologie ia chez apple et ancien partenaire de y combinator, tandis que daniel levy est un ancien employé d'openai.

pour l’instant, ssi se concentrera sur la constitution d’une petite équipe de chercheurs et d’ingénieurs basée à palo alto, en californie, et à tel aviv, en israël.

les investisseurs comprennent les principales sociétés de capital-risque andreessen horowitz, sequoia capital, dst global et sv angel. nfdg, un partenariat d'investissement dirigé par nat friedman et daniel gross, pdg de ssi, est également impliqué.

gross a déclaré dans une interview : « il est important pour nous d'avoir des investisseurs qui comprennent, respectent et soutiennent notre mission, qui est de passer directement à la superintelligence sécurisée, en particulier dansnous passons plusieurs années en recherche et développement avant de mettre un produit sur le marché。”

après la publication des informations sur le financement de ssi, reuters a immédiatement eu un échange approfondi avec ilya sutskever. ilya a également répondu à une série de questions sur la question de savoir si ssi est open source et son développement futur. il ressort de l'interview qu'il attache une grande importance à la sécurité du super agi.

ce qui suit est compilé par silicon rabbit sans affecter le texte original, profitez-en !

01

q : raisons de la création du ssi

ilya: "nous avons trouvé une montagne un peu différente de ce sur quoi j'ai travaillé auparavant... une fois que vous grimpez au sommet de cette montagne, le paradigme change... ce que nous savons sur l'intelligence artificielle va encore changer. à ce moment-là en fait, ce qui compte le plus : une sécurité ultra-intelligente sera importante.

"notre premier produit portera sur la sécurité de la superintelligence."

02

q : allez-vous inventer une intelligence artificielle aussi intelligente que les humains avant la super intelligence ?

ilya: "je pense que la question est : est-ce sûr ? c'est l'un des plus grandssoyez gentille pouvoir de ? je pense que le monde sera tellement différent lorsque nous ferons cela qu'il sera difficile de vous donner un plan clair.

je peux vous le dire, le monde va être très différent. le monde verra ce qui se passe dans le domaine de l’ia très différemment, et cela sera difficile à comprendre.ce sera une conversation plus intense. cela ne dépend peut-être pas uniquement des décisions que nous prenons nous-mêmes. "

03

q : comment ssi détermine-t-il ce qu’est une intelligence artificielle sûre ?

ilya: "pour pouvoir répondre pleinement à votre question, nous devons faire des recherches importantes. surtout si vous pensez comme nous, les choses vont beaucoup changer... beaucoup de bonnes idées naissent.

beaucoup de gens pensent,à mesure que l’ia devient plus puissante, quelles mesures devons-nous prendre et quels tests devons-nous effectuer ?c'est un peu délicat. il reste encore beaucoup de recherches à faire. je ne veux pas dire qu’il existe une réponse claire maintenant. mais c'est l'une des choses que nous devons comprendre. "

04

q : à propos des hypothèses étendues et de la sécurité de l'intelligence artificielle

ilya: "tout le monde dit simplement 'hypothèse étendue'. tout le monde néglige de poser la questionque mettons-nous à l’échelle exactement ?les avancées majeures en matière d’apprentissage profond au cours de la dernière décennie reposaient sur une formulation particulière de l’hypothèse étendue. mais cela va changer… et à mesure que cela change, les capacités du système vont augmenter. les problèmes de sécurité vont être plus graves, et c’est ce à quoi nous devons nous attaquer. "

05

q : recherche sur le ssi open source

ilya:"à l'heure actuelle,toutes les entreprises d’ia n’ouvriront pas leurs travaux en source libre, nous aussi. mais je pense qu’en raison de certains facteurs, (nous) aurons de nombreuses opportunités de réaliser des travaux de sécurité liés au super-renseignement open source. peut-être pas tous, mais certainement certains. "

06

q : à propos des travaux de recherche sur la sécurité d'autres sociétés d'intelligence artificielle

ilya: "en fait, j'ai une très haute opinion de cette industrie. je pense qu'à mesure que les gens avancent, toutes les différentes entreprises s'en rendront compte - peut-être à des moments légèrement différents - en fonction de la nature des défis auxquels elles sont confrontées. nous n'allons donc pas nous pensons que personne ne peut le faire, mais nous pensons que nous pouvons y contribuer.

07

q : quel type d’employés recruter ?

ilya: "certaines personnes peuvent travailler de longues heures, mais elles se remettent rapidement sur la bonne voie. cela ne correspond pas tout à fait à notre style. mais si vous êtes bon dans ce domainefaire quelque chose de différent, alors vous avez le potentiel de faire quelque chose de spécial (avec nous). "

« ce qui nous passionne, c'est lorsque vous découvrez que cet employé s'intéresse à notre travail, pas à la tendance ou à un contenu à la mode. »

"nous passerons des heures à vérifier la 'bonne moralité' des candidats et à rechercher des personnes dotées de capacités exceptionnelles, plutôt que de trop insister sur les qualifications et l'expérience dans le domaine."

08

q : à propos du développement futur de ssi

ilya"nous évoluerons d'une manière différente de celle d'openai."

la société envisage de s'associer avec des fournisseurs de cloud et des fabricants de puces pour financer ses besoins en puissance de calcul, mais n'a pas encore décidé avec quelles entreprises s'associer.

liens de référence :

ilya sutskever parle de l'évolution de l'ia et de sa nouvelle startup safe superintelligence (reuters)