nachricht

exklusives gespräch mit ilya sutskever über acht fragen der seele, alles über ssi

2024-09-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

autor|xuushan, herausgeber|manmanzhou

welche art von agi möchte ilya aufbauen, wenn eine person einen wert von 5 milliarden hat?

laut reuters wurde safe superintelligence (ssi) am 5. september von ilya sutskever, dem ehemaligen chefwissenschaftler von openai, gegründet.1 milliarde us-dollar in bar eingesammelt. mit der angelegenheit vertraute personen enthüllten,nach der finanzierung erreichte der unternehmenswert 5 milliarden us-dollar.das unternehmen plant, mit den mitteln rechenleistung zu kaufen und top-talente einzustellen, um bei der entwicklung sicherer künstlicher intelligenzsysteme zu helfen, die die menschlichen fähigkeiten bei weitem übertreffen. ssi-beamte haben außerdem bestätigt, dass die nachrichten korrekt sind.

ssi wurde im juni 2024 gegründet. das gründerteam besteht aus ilya sutskever, daniel levy und daniel gross. derzeit fungiert ilya sutskever als leitender wissenschaftler, daniel levy als leitender wissenschaftler und daniel gross als ceo, verantwortlich für rechenleistung und mittelbeschaffung. ssi beschäftigt derzeit 10 mitarbeiter und arbeitet in einer herkömmlichen gewinnorientierten struktur.

ssi hat keine produkte auf den markt gebracht und konnte bei seiner gründung vor weniger als vier monaten eine hohe finanzierung und hohe bewertungen erzielen. dies liegt gerade an dem starken branchenhintergrund dieser drei personen. investoren sind bereit, übergroße wetten auf herausragende talente einzugehen, die sich auf die ki-grundlagenforschung konzentrieren.

ilya sutskever ist einer der einflussreichsten technischen experten auf dem gebiet der künstlichen intelligenz. er studierte bei geoffrey hinton, der als „godfather of artificial intelligence“ bekannt ist, und war ein früher verfechter der erweiterten hypothese. diese hypothese besagt, dass sich die ki-leistung mit zunehmender rechenleistung verbessert, was auch den grundstein für die explosion der generativen ki legt.

daniel gross war leiter der ki-technologie bei apple und ehemaliger y combinator-partner, während daniel levy ein ehemaliger mitarbeiter von openai ist.

vorerst wird sich ssi auf den aufbau eines kleinen teams von forschern und ingenieuren mit sitz in palo alto, kalifornien, und tel aviv, israel, konzentrieren.

zu den investoren zählen die führenden risikokapitalfirmen andreessen horowitz, sequoia capital, dst global und sv angel. beteiligt ist auch nfdg, eine investmentpartnerschaft unter der leitung von nat friedman und ssi-ceo daniel gross.

gross sagte in einem interview: „für uns ist es wichtig, investoren zu haben, die unsere mission verstehen, respektieren und unterstützen, die darin besteht, direkt in die sichere superintelligenz vorzudringen, insbesondere in.“wir verbringen mehrere jahre in forschung und entwicklung, bevor wir ein produkt auf den markt bringen。”

nach der veröffentlichung der ssi-finanzierungsinformationen führte reuters sofort einen ausführlichen austausch mit ilya sutskever. ilya beantwortete auch eine reihe von fragen darüber, ob ssi open source ist und welche zukünftige entwicklung es gibt. aus dem interview geht hervor, dass er großen wert auf die sicherheit von super-agi legt.

das folgende wurde von silicon rabbit zusammengestellt, ohne den originaltext zu beeinträchtigen, viel spaß!

01

f: gründe für die gründung von ssi

ilja: „wir haben einen berg gefunden, der ein wenig anders ist als das, woran ich bisher gearbeitet habe … sobald man den gipfel dieses berges erklimmt, ändert sich das paradigma … was wir über künstliche intelligenz wissen, wird sich erneut ändern. dabei.“ punkt, worauf es am meisten ankommt: superintelligente sicherheit wird wichtig sein.“

„bei unserem ersten produkt geht es um die sicherheit von superintelligenz.“

02

f: werden sie vor der superintelligenz künstliche intelligenz erfinden, die so intelligent ist wie der mensch?

ilja: „ich denke, die frage ist: ist es sicher? es ist eines der größten der welt.“freundlich seindie macht von? ich denke, die welt wird so anders sein, wenn wir das tun, dass es schwierig sein wird, ihnen einen klaren plan zu geben.

ich kann ihnen sagen, die welt wird ganz anders sein. die welt wird das, was in der ki passiert, ganz anders betrachten und es wird schwer zu verstehen sein.dies wird ein intensiveres gespräch sein. es hängt möglicherweise nicht nur von den entscheidungen ab, die wir selbst treffen. "

03

f: wie bestimmt ssi, was sichere künstliche intelligenz ist?

ilja: „um ihre frage vollständig beantworten zu können, müssen wir einige wichtige recherchen durchführen. besonders wenn sie so denken wie wir, werden sich die dinge stark ändern … es entstehen viele großartige ideen.“

viele leute denken,welche schritte müssen wir unternehmen und welche tests müssen wir durchführen, wenn die ki immer leistungsfähiger wird?das ist etwas knifflig. es gibt noch viel forschungsbedarf. ich möchte nicht sagen, dass es jetzt eine klare antwort gibt. aber das ist eines der dinge, die wir herausfinden müssen. "

04

f: über erweiterte annahmen und sicherheit durch künstliche intelligenz

ilja: „jeder sagt nur ‚erweiterte hypothese‘. jeder versäumt zu fragen.“was genau skalieren wir?die großen durchbrüche beim deep learning im letzten jahrzehnt basierten auf einer speziellen formulierung der erweiterten hypothese. aber es wird sich ändern ... und wenn es sich ändert, werden die fähigkeiten des systems zunehmen. die sicherheitsprobleme werden gravierender sein, und das müssen wir angehen. "

05

f: forschung zu open-source-ssi

ilja:"derzeit,nicht alle ki-unternehmen werden ihre arbeit als open source veröffentlichen, wir auch. aber ich denke, dass (wir) aufgrund bestimmter faktoren viele möglichkeiten für open-source-bezogene superintelligenz-sicherheitsarbeit haben werden. vielleicht nicht alle, aber sicherlich einige. "

06

f: über die sicherheitsforschungsarbeit anderer unternehmen für künstliche intelligenz

ilja: „ich halte tatsächlich sehr viel von dieser branche. ich denke, wenn die menschen vorankommen, werden all die verschiedenen unternehmen das erkennen – vielleicht zu etwas unterschiedlichen zeiten – basierend auf der art der herausforderungen, denen sie gegenüberstehen. das werden wir also nicht tun.“ „wir glauben nicht, dass es irgendjemand schaffen kann, aber wir glauben, dass wir einen beitrag leisten können.“

07

f: welche art von mitarbeitern sollen eingestellt werden?

ilja: „manche leute können lange arbeiten, aber sie kommen schnell wieder auf den richtigen weg. das passt nicht ganz zu unserem stil. aber wenn man gut darin ist.“etwas anderes machendann haben sie das potenzial, etwas besonderes (mit uns) zu machen. "

„was uns begeistert, ist, wenn man herausfindet, dass dieser mitarbeiter an unserer arbeit interessiert ist und nicht an trends oder hype-inhalten.“

„wir werden stunden damit verbringen, kandidaten auf ‚guten charakter‘ zu überprüfen und nach menschen mit außergewöhnlichen fähigkeiten zu suchen, anstatt qualifikationen und erfahrung auf diesem gebiet zu sehr zu betonen.“

08

f: über die zukünftige entwicklung von ssi

ilja„wir werden anders skalieren als openai.“

das unternehmen plant, mit cloud-anbietern und chipherstellern zusammenzuarbeiten, um seinen bedarf an rechenleistung zu decken, hat sich jedoch noch nicht entschieden, mit welchen unternehmen es zusammenarbeiten möchte.

referenzlinks:

ilya sutskever über die veränderungen durch ki und sein neues startup safe superintelligence (reuters)