소식

영혼의 여덟 가지 질문, ssi에 관한 모든 것에 대해 ilya sutskever와 독점 대화

2024-09-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

저자|쉬우산 편집자|만만저우

한 사람의 가치가 50억 달러에 달하는 상황에서 ilya는 어떤 종류의 agi를 구축하고 싶습니까?

9월 5일 로이터 통신에 따르면 ssi(safe superintelligence)는 openai의 수석 과학자였던 ilya sutskever가 설립했습니다.현금 10억 달러 조달. 해당 사건에 정통한 사람들이 공개한 바에 따르면,자금 조달 후 회사의 가치는 50억 달러에 달했습니다.회사는 이 자금을 사용하여 컴퓨팅 성능을 구매하고 최고의 인재를 고용하여 인간의 능력을 훨씬 뛰어 넘는 안전한 인공 지능 시스템을 개발할 계획입니다. ssi 관계자도 해당 뉴스가 정확하다고 확인했습니다.

ssi는 2024년 6월에 설립되었습니다. 창립팀은 ilya sutskever, daniel levy, daniel gross로 구성되어 있습니다. 현재 ilya sutskever가 수석 과학자로, daniel levy가 수석 과학자로, daniel gross가 ceo로 컴퓨팅 능력과 자금 조달을 담당하고 있습니다. ssi는 현재 10명의 직원을 두고 있으며 전통적인 영리 구조로 운영되고 있습니다.

ssi는 설립된 지 4개월도 채 안 되어 어떤 제품도 출시하지 않았고 높은 자금 조달과 높은 가치 평가를 얻을 수 있었던 것은 바로 이 세 사람의 탄탄한 업계 배경 때문이었습니다. 투자자들은 기초 ai 연구에 초점을 맞춘 뛰어난 인재에 대규모 투자를 하려고 합니다.

ilya sutskever는 인공 지능 분야에서 가장 영향력 있는 기술 전문가 중 한 명입니다. 그는 "인공 지능의 대부"로 알려진 geoffrey hinton 밑에서 공부했으며 확장 가설의 초기 옹호자였습니다. 이 가설은 컴퓨팅 파워가 커질수록 ai 성능이 향상되며, 이는 생성적 ai 폭발의 기반이 된다는 것입니다.

daniel gross는 apple의 ai 기술 책임자이자 전 y combinator 파트너였으며 daniel levy는 전 openai 직원이었습니다.

현재 ssi는 캘리포니아주 팔로알토와 이스라엘 텔아비브에 기반을 둔 소규모 연구원 및 엔지니어 팀을 구성하는 데 중점을 둘 예정입니다.

투자자로는 최고의 벤처 캐피털 회사인 andreessen horowitz, sequoia capital, dst global 및 sv angel이 있습니다. nat friedman과 ssi ceo daniel gross가 운영하는 투자 파트너십인 nfdg도 참여하고 있습니다.

gross는 인터뷰에서 다음과 같이 말했습니다. "특히 보안 초지능으로 직접 이동하는 우리의 사명을 이해하고 존중하며 지지하는 투자자가 있는 것이 중요합니다.우리는 제품을 시장에 출시하기 전에 수년간의 연구 개발을 진행합니다.。”

ssi 자금 조달 정보가 공개된 후 reuters는 즉시 ilya sutskever와 심층적인 대화를 나눴습니다. ilya는 또한 ssi가 오픈 소스인지 및 향후 개발에 대한 일련의 질문에 응답했습니다. 그가 슈퍼 agi의 안전성을 매우 중요하게 여긴다는 점은 인터뷰를 통해 알 수 있다.

다음은 원문에 영향을 주지 않고 silicon rabbit이 편집한 것입니다. 즐기세요!

01

q: ssi를 설립한 이유

일리아: "이전까지 작업했던 것과는 조금 다른 산을 발견했습니다... 이 산에 오르면 패러다임이 바뀌고... 인공지능에 대해 우리가 알고 있는 것이 또 바뀌게 됩니다. 그런 데. 가장 중요한 것은 슈퍼스마트 보안이 중요할 것입니다.”

"우리의 첫 번째 제품은 초지능 보안에 관한 것입니다."

02

q: 슈퍼지능 이전에 인간만큼 똑똑한 인공지능을 발명할 것인가?

일리아: "제 생각에 질문은 이것이 안전한가요? 세계에서 가장 큰 것 중 하나입니다.친절하세요의 힘? 그렇게 하면 세상이 너무 달라져서 명확한 계획을 제시하기 어려울 것 같아요.

세상은 매우 달라질 것이라고 말씀드릴 수 있습니다. 세상은 ai에서 일어나는 일을 매우 다르게 볼 것이며 이해하기 어려울 것입니다.좀 더 강렬한 대화가 될 거예요. 그것은 우리가 스스로 내리는 결정에만 달려 있는 것이 아닐 수도 있습니다. "

03

q: ssi는 안전한 인공지능이 무엇인지 어떻게 판단하나요?

일리아: "귀하의 질문에 완전히 대답하려면 중요한 조사가 필요합니다. 특히 우리처럼 생각하면 상황이 많이 바뀔 것입니다... 좋은 아이디어가 많이 깨어납니다.

많은 사람들이 생각하고 있는 것은,ai가 더욱 강력해짐에 따라 우리는 어떤 조치를 취해야 하며 어떤 테스트를 수행해야 합니까?이것은 약간 까다롭습니다. 아직 해야 할 연구가 많이 남아있습니다. 지금은 명확한 답이 있다고 말하고 싶지 않습니다. 하지만 그것은 우리가 알아내야 할 것 중 하나입니다. "

04

q: 확장된 가정과 인공지능 안전성에 대해

일리아: "다들 '확장가설'이라고만 해요. 다들 묻지 않아요.우리가 정확히 무엇을 확장하고 있나요?지난 10년 동안 딥 러닝의 주요 혁신은 확장된 가설의 특별한 공식화에 기반을 두고 있었습니다. 하지만 상황은 변할 것입니다. 그리고 변화함에 따라 시스템의 성능도 향상될 것입니다. 보안 문제는 더욱 심각해질 것이며, 이것이 바로 우리가 해결해야 할 문제입니다. "

05

q: 오픈소스 ssi에 대한 연구

일리아:"현재,모든 ai 회사가 자신의 작업을 오픈소스로 제공하는 것은 아닙니다., 우리도 마찬가지입니다. 하지만 어떤 요인들로 인해 초지능 보안 관련 업무를 오픈소스화할 수 있는 기회가 많아질 것이라고 생각합니다. 전부는 아닐 수도 있지만 확실히 일부는 그렇습니다. "

06

q: 다른 인공지능 기업의 보안 연구 업무에 대해

일리아: "저는 실제로 이 산업을 매우 높이 평가합니다. 사람들이 발전함에 따라 모든 회사는 그들이 직면한 과제의 성격에 따라 조금씩 다른 시기에 이를 깨닫게 될 것이라고 생각합니다. 따라서 우리는 그렇게 하지 않을 것입니다. 누구도 할 수 없다고 생각하지만 우리는 기여할 수 있다고 생각합니다.”

07

q. 어떤 직원을 채용하나요?

일리아: "어떤 사람들은 장시간 일해도 빨리 정상으로 돌아오는 경우가 있어요. 그런 건 우리 스타일에는 별로 안 맞는데, 잘하신다면요.뭔가 다른 일을 해라, 그러면 귀하는 (우리와 함께) 특별한 일을 할 수 있는 잠재력을 갖게 됩니다. "

"우리를 흥분시키는 것은 이 직원이 트렌드나 과장된 내용에는 관심이 없고 우리 업무에 관심이 있다는 것을 알게 되었을 때입니다."

"우리는 현장에서의 자질과 경험을 지나치게 강조하기보다는 '좋은 인품'을 갖춘 후보자를 심사하고 뛰어난 능력을 갖춘 사람을 찾는데 많은 시간을 할애할 것입니다."

08

q: ssi의 향후 개발에 대해

일리아"우리는 openai와 다른 방식으로 확장할 것입니다."

이 회사는 컴퓨팅 성능 요구 사항에 자금을 조달하기 위해 클라우드 제공업체 및 칩 회사와 제휴할 계획이지만 아직 어떤 회사와 제휴할지 결정하지 않았습니다.

참조 링크:

ilya sutskever가 ai가 어떻게 변화할 것인지와 그의 새로운 스타트업 safe superintelligence에 대해 이야기하다(reuters)