notícias

conversa exclusiva com ilya sutskever sobre oito perguntas da alma, tudo sobre ssi

2024-09-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

autor|xuushan, editor|manmanzhou

com uma pessoa avaliada em 5 bilhões, que tipo de agi ilya deseja construir?

em 5 de setembro, segundo a reuters, a safe superintelligence (ssi) foi fundada por ilya sutskever, ex-cientista-chefe da openai.us$ 1 bilhão em dinheiro arrecadado. pessoas familiarizadas com o assunto revelaram,após o financiamento, a avaliação da empresa chegou a us$ 5 bilhões.a empresa planeja usar os fundos para adquirir poder computacional e contratar os melhores talentos para ajudar a desenvolver sistemas seguros de inteligência artificial que excedem em muito as capacidades humanas. funcionários do ssi também confirmaram que as notícias são precisas.

a ssi foi criada em junho de 2024. a equipe fundadora é composta por ilya sutskever, daniel levy e daniel gross. atualmente, ilya sutskever atua como cientista-chefe, daniel levy atua como cientista principal e daniel gross atua como ceo, responsável pelo poder computacional e captação de recursos. a ssi tem atualmente 10 funcionários e opera sob uma estrutura convencional com fins lucrativos.

a ssi não lançou quaisquer produtos e conseguiu obter financiamentos elevados e avaliações elevadas quando foi criada, há menos de quatro meses. é precisamente devido à forte experiência industrial destas três pessoas. os investidores estão dispostos a fazer apostas exageradas em talentos excepcionais focados na pesquisa básica de ia.

ilya sutskever é um dos especialistas técnicos mais influentes no campo da inteligência artificial. ele estudou com geoffrey hinton, conhecido como o "padrinho da inteligência artificial", e foi um dos primeiros defensores da hipótese estendida. esta hipótese sustenta que o desempenho da ia ​​melhora com o aumento de grandes quantidades de poder computacional, o que também estabelece as bases para a explosão da ia ​​generativa.

daniel gross foi chefe de tecnologia de ia na apple e ex-parceiro da y combinator, enquanto daniel levy é ex-funcionário da openai.

por enquanto, a ssi se concentrará na formação de uma pequena equipe de pesquisadores e engenheiros baseados em palo alto, califórnia, e tel aviv, israel.

os investidores incluem as principais empresas de capital de risco andreessen horowitz, sequoia capital, dst global e sv angel. a nfdg, uma parceria de investimento dirigida por nat friedman e o ceo da ssi, daniel gross, também está envolvida.

gross disse numa entrevista: “é importante para nós termos investidores que entendam, respeitem e apoiem a nossa missão, que é avançar diretamente para uma superinteligência segura, especialmente empassamos vários anos em pesquisa e desenvolvimento antes de lançar um produto no mercado。”

depois que as informações de financiamento do ssi foram divulgadas, a reuters imediatamente teve uma conversa aprofundada com ilya sutskever. ilya também respondeu a uma série de perguntas sobre se o ssi é de código aberto e seu desenvolvimento futuro. pode-se perceber pela entrevista que ele atribui grande importância à segurança do super agi.

o texto a seguir foi compilado por silicon rabbit sem afetar o texto original, divirta-se!

01

p: razões para estabelecer ssi

ilia: "encontramos uma montanha que é um pouco diferente daquela em que estive trabalhando antes... depois de subir ao topo desta montanha, o paradigma muda... o que sabemos sobre inteligência artificial mudará novamente. nesse momento ponto, o que mais importa a segurança superinteligente será importante.”

"nosso primeiro produto será sobre segurança de superinteligência."

02

p: você inventará uma inteligência artificial tão inteligente quanto os humanos antes da superinteligência?

ilia: "acho que a questão é: é seguro? é um dos maioresseja gentilo poder de? acho que o mundo será tão diferente quando fizermos isso que será difícil apresentar um plano claro.

posso garantir que o mundo será muito diferente. o mundo verá o que está acontecendo na ia de maneira muito diferente e será difícil de entender.esta será uma conversa mais intensa. pode não depender apenas das decisões que tomamos. "

03

p: como a ssi determina o que é inteligência artificial segura?

ilia: "para podermos responder plenamente à sua pergunta, precisamos fazer algumas pesquisas importantes. principalmente se você pensa como nós, as coisas vão mudar muito... muitas ideias excelentes estão despertando.

muitas pessoas estão pensando,à medida que a ia se torna mais poderosa, que medidas precisamos de tomar e que testes precisamos de realizar?isso é um pouco complicado. ainda há muita pesquisa a ser feita. não quero dizer que agora haja uma resposta clara. mas essa é uma das coisas que temos que descobrir. "

04

p: sobre suposições estendidas e segurança da inteligência artificial

ilia: "todo mundo apenas diz 'hipótese estendida'. todo mundo deixa de perguntaro que exatamente estamos escalando?os principais avanços na aprendizagem profunda na última década basearam-se numa formulação especial da hipótese alargada. mas isso vai mudar... e à medida que muda, as capacidades do sistema vão aumentar. as questões de segurança serão mais graves e é isso que precisamos resolver. "

05

p: pesquisa sobre ssi de código aberto

ilia:"atualmente,nem todas as empresas de ia abrirão o código de seu trabalho, nós também. mas acho que, devido a certos fatores, teremos muitas oportunidades para trabalhar com segurança de superinteligência relacionada ao código aberto. talvez não todos, mas certamente alguns. "

06

p: sobre o trabalho de pesquisa de segurança de outras empresas de inteligência artificial

ilia: "na verdade, tenho uma grande consideração por esta indústria. acho que à medida que as pessoas avançam, todas as diferentes empresas perceberão isso - talvez em momentos ligeiramente diferentes - com base na natureza dos desafios que enfrentam. portanto, não vamos dizer: não achamos que alguém possa fazer isso, mas achamos que podemos contribuir.”

07

p: sobre que tipo de funcionários recrutar?

ilia: "algumas pessoas podem trabalhar muitas horas, mas rapidamente voltam aos trilhos. isso não combina muito com o nosso estilo. mas se você for bom nissofaça algo diferente, então você tem potencial para fazer algo especial (conosco). "

“o que nos emociona é quando você descobre que esse funcionário está interessado no nosso trabalho, não na tendência ou em algum conteúdo exagerado.”

"passaremos horas examinando candidatos quanto ao 'bom caráter' e procurando pessoas com habilidades excepcionais, em vez de enfatizar demais as qualificações e a experiência na área."

08

p: sobre o desenvolvimento futuro da ssi

ilia“vamos escalar de uma forma diferente da openai.”

a empresa planeja fazer parceria com provedores de nuvem e empresas de chips para financiar suas necessidades de poder computacional, mas ainda não decidiu com quais empresas fará parceria.

links de referência:

ilya sutskever sobre como a ia mudará e sua nova startup safe superintelligence (reuters)