новости

эксклюзивный разговор с ильей суцкевером о «восемь вопросах души», все о ssi

2024-09-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

автор|сюушань, редактор|маньманьчжоу

учитывая, что один человек имеет оценку в 5 миллиардов долларов, какой agi хочет построить илья?

5 сентября, по данным reuters, safe superintelligence (ssi) основал илья суцкевер, бывший главный научный сотрудник openai.привлечено $1 млрд наличными. люди, знакомые с ситуацией, рассказали:после финансирования оценка компании достигла 5 миллиардов долларов сша.компания планирует использовать полученные средства для приобретения вычислительных мощностей и найма лучших специалистов для разработки безопасных систем искусственного интеллекта, которые намного превосходят человеческие возможности. представители ssi также подтвердили достоверность этой новости.

ssi была создана в июне 2024 года. в состав учредителей входят илья суцкевер, дэниел леви и дэниел гросс. в настоящее время илья суцкевер является главным научным сотрудником, дэниел леви — главным научным сотрудником, а дэниел гросс — генеральным директором, отвечающим за вычислительные мощности и сбор средств. в настоящее время в ssi работают 10 сотрудников, и она работает в рамках традиционной коммерческой структуры.

ssi не выпустила никаких продуктов и смогла получить большое финансирование и высокую оценку, когда она была создана менее четырех месяцев назад. именно благодаря сильному отраслевому опыту этих трех людей. инвесторы готовы делать большие ставки на выдающиеся таланты, занимающиеся фундаментальными исследованиями в области искусственного интеллекта.

илья суцкевер — один из самых влиятельных технических экспертов в области искусственного интеллекта. он учился у джеффри хинтона, известного как «крестный отец искусственного интеллекта», и был одним из первых сторонников расширенной гипотезы. эта гипотеза утверждает, что производительность ии улучшается с увеличением больших объемов вычислительной мощности, что также закладывает основу для бурного развития генеративного ии.

дэниел гросс был главой отдела технологий искусственного интеллекта в apple и бывшим партнером y combinator, а дэниел леви — бывшим сотрудником openai.

на данный момент ssi сосредоточится на создании небольшой команды исследователей и инженеров, базирующейся в пало-альто, калифорния, и тель-авиве, израиль.

в число инвесторов входят ведущие венчурные компании andreessen horowitz, sequoia capital, dst global и sv angel. nfdg, инвестиционное партнерство, которым управляют нэт фридман и генеральный директор ssi дэниел гросс, также принимает в этом участие.

гросс сказал в интервью: «для нас важно иметь инвесторов, которые понимают, уважают и поддерживают нашу миссию, которая состоит в том, чтобы перейти непосредственно к безопасному сверхразуму, особенно вмы тратим несколько лет на исследования и разработки, прежде чем вывести продукт на рынок.。”

после того, как информация о финансировании ssi была опубликована, агентство reuters немедленно провело подробный диалог с ильей суцкевером. илья также ответил на ряд вопросов о том, является ли ssi открытым исходным кодом и о его будущем развитии. из интервью видно, что он придает большое значение безопасности супер-ии.

следующее скомпилировано silicon rabbit без ущерба для исходного текста, наслаждайтесь!

01

вопрос: причины создания ssi

илья: «мы нашли гору, которая немного отличается от той, над которой я работал раньше… как только вы подниметесь на вершину этой горы, парадигма изменится… то, что мы знаем об искусственном интеллекте, изменится снова. при этом самое главное: суперумная безопасность будет важна».

«наш первый продукт будет посвящен безопасности сверхинтеллекта».

02

вопрос: сможете ли вы изобрести искусственный интеллект, столь же умный, как человек, до появления сверхразума?

илья: «я думаю, вопрос в следующем: безопасно ли это? это один из крупнейших в миребудьте добрысила? я думаю, что мир станет настолько другим, когда мы это сделаем, что будет сложно дать вам четкий план.

я могу вам сказать, мир будет совсем другим. мир посмотрит на то, что происходит в ии совсем по-другому, и это будет сложно понять.это будет более интенсивный разговор. это может зависеть не только от решений, которые мы принимаем сами. "

03

вопрос: как ssi определяет, насколько безопасен искусственный интеллект?

илья: «чтобы полностью ответить на ваш вопрос, нам нужно провести несколько важных исследований. особенно если вы думаете так же, как мы, многое изменится… просыпается много замечательных идей.

многие люди думают,по мере того, как ии становится более мощным, какие шаги нам нужно предпринять и какие тесты нам нужно провести?это немного сложно. предстоит еще много исследований. я не хочу сказать, что сейчас есть четкий ответ. но это одна из вещей, которую нам предстоит выяснить. "

04

вопрос: о расширенных предположениях и безопасности искусственного интеллекта.

илья: «все просто говорят «расширенная гипотеза».что именно мы масштабируем?основные прорывы в глубоком обучении за последнее десятилетие были основаны на специальной формулировке расширенной гипотезы. но оно изменится... и по мере его изменения возможности системы будут увеличиваться. проблемы безопасности станут более серьезными, и это то, что нам нужно решить. "

05

вопрос: исследование ssi с открытым исходным кодом.

илья:"в настоящий момент,не все компании, занимающиеся искусственным интеллектом, откроют исходный код своей работы, мы тоже. но я думаю, что из-за определенных факторов (у нас) будет много возможностей для работы в области безопасности сверхразведки с открытым исходным кодом. может быть, не все, но некоторые наверняка. "

06

вопрос: об исследованиях безопасности других компаний, занимающихся искусственным интеллектом.

илья: «на самом деле я очень высокого мнения об этой отрасли. я думаю, что по мере того, как люди будут двигаться вперед, все компании поймут это — возможно, в несколько разное время — в зависимости от характера проблем, с которыми они сталкиваются. итак, мы не собираемся мы не думаем, что кто-то сможет это сделать, но мы думаем, что можем внести свой вклад».

07

вопрос: каких сотрудников нанимать?

илья: «некоторые люди могут работать сверхурочно, но быстро возвращаются в нужное русло. это не совсем в нашем стиле. но если у тебя это хорошо получаетсясделай что-нибудь другое, то у вас есть потенциал сделать что-то особенное (вместе с нами). "

«что нас волнует, так это когда вы узнаете, что этот сотрудник заинтересован в нашей работе, а не в тренде или каком-то хайповом контенте».

«мы будем часами проверять кандидатов на предмет «хорошего характера» и искать людей с исключительными способностями, а не переоценивать квалификацию и опыт в этой области».

08

вопрос: о будущем развитии ssi

илья«мы будем масштабироваться иначе, чем openai».

компания планирует сотрудничать с поставщиками облачных услуг и компаниями-производителями чипов для финансирования своих потребностей в вычислительной мощности, но еще не решила, с какими компаниями сотрудничать.

справочные ссылки:

илья суцкевер о том, как изменится ии, и его новом стартапе safe superintelligence(reuters)