minhas informações de contato
correspondênciaadmin@informação.bz
2024-09-07
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
autor|xuushan, editor|manmanzhou
“
com uma pessoa avaliada em 5 bilhões, que tipo de agi ilya deseja construir?
”
em 5 de setembro, segundo a reuters, a safe superintelligence (ssi) foi fundada por ilya sutskever, ex-cientista-chefe da openai.us$ 1 bilhão em dinheiro arrecadado. pessoas familiarizadas com o assunto revelaram,após o financiamento, a avaliação da empresa chegou a us$ 5 bilhões.a empresa planeja usar os fundos para adquirir poder computacional e contratar os melhores talentos para ajudar a desenvolver sistemas seguros de inteligência artificial que excedem em muito as capacidades humanas. funcionários do ssi também confirmaram que as notícias são precisas.
a ssi foi criada em junho de 2024. a equipe fundadora é composta por ilya sutskever, daniel levy e daniel gross. atualmente, ilya sutskever atua como cientista-chefe, daniel levy atua como cientista principal e daniel gross atua como ceo, responsável pelo poder computacional e captação de recursos. a ssi tem atualmente 10 funcionários e opera sob uma estrutura convencional com fins lucrativos.
a ssi não lançou quaisquer produtos e conseguiu obter financiamentos elevados e avaliações elevadas quando foi criada, há menos de quatro meses. é precisamente devido à forte experiência industrial destas três pessoas. os investidores estão dispostos a fazer apostas exageradas em talentos excepcionais focados na pesquisa básica de ia.
ilya sutskever é um dos especialistas técnicos mais influentes no campo da inteligência artificial. ele estudou com geoffrey hinton, conhecido como o "padrinho da inteligência artificial", e foi um dos primeiros defensores da hipótese estendida. esta hipótese sustenta que o desempenho da ia melhora com o aumento de grandes quantidades de poder computacional, o que também estabelece as bases para a explosão da ia generativa.
daniel gross foi chefe de tecnologia de ia na apple e ex-parceiro da y combinator, enquanto daniel levy é ex-funcionário da openai.
por enquanto, a ssi se concentrará na formação de uma pequena equipe de pesquisadores e engenheiros baseados em palo alto, califórnia, e tel aviv, israel.
os investidores incluem as principais empresas de capital de risco andreessen horowitz, sequoia capital, dst global e sv angel. a nfdg, uma parceria de investimento dirigida por nat friedman e o ceo da ssi, daniel gross, também está envolvida.
gross disse numa entrevista: “é importante para nós termos investidores que entendam, respeitem e apoiem a nossa missão, que é avançar diretamente para uma superinteligência segura, especialmente empassamos vários anos em pesquisa e desenvolvimento antes de lançar um produto no mercado。”
depois que as informações de financiamento do ssi foram divulgadas, a reuters imediatamente teve uma conversa aprofundada com ilya sutskever. ilya também respondeu a uma série de perguntas sobre se o ssi é de código aberto e seu desenvolvimento futuro. pode-se perceber pela entrevista que ele atribui grande importância à segurança do super agi.
o texto a seguir foi compilado por silicon rabbit sem afetar o texto original, divirta-se!
ilia: "encontramos uma montanha que é um pouco diferente daquela em que estive trabalhando antes... depois de subir ao topo desta montanha, o paradigma muda... o que sabemos sobre inteligência artificial mudará novamente. nesse momento ponto, o que mais importa a segurança superinteligente será importante.”
"nosso primeiro produto será sobre segurança de superinteligência."
02
ilia: "acho que a questão é: é seguro? é um dos maioresseja gentilo poder de? acho que o mundo será tão diferente quando fizermos isso que será difícil apresentar um plano claro.
posso garantir que o mundo será muito diferente. o mundo verá o que está acontecendo na ia de maneira muito diferente e será difícil de entender.esta será uma conversa mais intensa. pode não depender apenas das decisões que tomamos. "
03
ilia: "para podermos responder plenamente à sua pergunta, precisamos fazer algumas pesquisas importantes. principalmente se você pensa como nós, as coisas vão mudar muito... muitas ideias excelentes estão despertando.
muitas pessoas estão pensando,à medida que a ia se torna mais poderosa, que medidas precisamos de tomar e que testes precisamos de realizar?isso é um pouco complicado. ainda há muita pesquisa a ser feita. não quero dizer que agora haja uma resposta clara. mas essa é uma das coisas que temos que descobrir. "
ilia: "todo mundo apenas diz 'hipótese estendida'. todo mundo deixa de perguntaro que exatamente estamos escalando?os principais avanços na aprendizagem profunda na última década basearam-se numa formulação especial da hipótese alargada. mas isso vai mudar... e à medida que muda, as capacidades do sistema vão aumentar. as questões de segurança serão mais graves e é isso que precisamos resolver. "
ilia:"atualmente,nem todas as empresas de ia abrirão o código de seu trabalho, nós também. mas acho que, devido a certos fatores, teremos muitas oportunidades para trabalhar com segurança de superinteligência relacionada ao código aberto. talvez não todos, mas certamente alguns. "
ilia: "na verdade, tenho uma grande consideração por esta indústria. acho que à medida que as pessoas avançam, todas as diferentes empresas perceberão isso - talvez em momentos ligeiramente diferentes - com base na natureza dos desafios que enfrentam. portanto, não vamos dizer: não achamos que alguém possa fazer isso, mas achamos que podemos contribuir.”
ilia: "algumas pessoas podem trabalhar muitas horas, mas rapidamente voltam aos trilhos. isso não combina muito com o nosso estilo. mas se você for bom nissofaça algo diferente, então você tem potencial para fazer algo especial (conosco). "
“o que nos emociona é quando você descobre que esse funcionário está interessado no nosso trabalho, não na tendência ou em algum conteúdo exagerado.”
"passaremos horas examinando candidatos quanto ao 'bom caráter' e procurando pessoas com habilidades excepcionais, em vez de enfatizar demais as qualificações e a experiência na área."
ilia:“vamos escalar de uma forma diferente da openai.”
a empresa planeja fazer parceria com provedores de nuvem e empresas de chips para financiar suas necessidades de poder computacional, mas ainda não decidiu com quais empresas fará parceria.
links de referência:
ilya sutskever sobre como a ia mudará e sua nova startup safe superintelligence (reuters)