2024-09-28
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
지난 9월 28일, 남방과기대에서 제4회 '젊은 과학자 50² 포럼'이 열렸고, 국립공정원 외국학자 선샹양(shen xiangyang)이 '우리는 거대 모델을 어떻게 생각해야 하는가'라는 주제로 기조연설을 했다. 일반 인공지능 시대'를 언급하며 대형 모델에 대한 10가지 생각을 밝혔다.
그의 10가지 사상의 구체적인 내용은 다음과 같다.
1. 컴퓨팅 성능이 한계점입니다. 지난 10년 동안 대형 모델의 컴퓨팅 성능 요구 사항이 엄청났습니다. 오늘 우리는 정체가 감정을 상하게 하고 차단이 부족하면 감정이 없다는 것을 의미하는 인공지능의 대형 모델을 만들어 보겠습니다.
2. 데이터에 관한 데이터: gpt-5가 나오면 데이터 양이 200t에 달할 수도 있다. 하지만 인터넷에는 좋은 데이터가 그리 많지 않습니다. 정리 후에는 20t가 거의 최대일 수 있습니다. 따라서 향후 gpt-5를 구축하려면 기존 데이터 외에 더 많은 다중 모드 데이터와 심지어 인위적으로 합성된 데이터도 필요합니다. 필요할 것입니다.
3. 빅 모델의 다음 장: 수행해야 할 다중 모드 과학 연구 작업이 많이 있으며, 다중 모드 이해와 생성의 통합이 매우 중요한 방향이라고 생각합니다.
4. 인공지능의 패러다임 전환: o1이 나온 후 원래의 gpt 사전 학습 아이디어는 추론 단계에서 학습을 강화하고 지속적인 자체 학습을 수행하는 과정인 오늘날의 독립적인 학습 경로로 변경되었습니다. 전체 과정은 인간이 문제를 생각하고 분석하는 방식과 매우 유사하며 컴퓨팅 파워도 많이 필요하다.
5. 대형 모델은 수천 개의 산업을 휩쓸고 있습니다. 중국의 대형 모델 건설의 물결 속에서 점점 더 많은 대형 모델이 산업에서 사용됩니다. 이러한 추세는 확실히 이렇고, 앞으로는 일반 대형 모델의 비중이 점점 작아질 것입니다.
6. ai 에이전트, 비전부터 구현까지: 슈퍼 애플리케이션은 처음부터 존재합니다. 이 슈퍼 애플리케이션은 슈퍼 어시스턴트이자 슈퍼 에이전트입니다.
7. 오픈 소스 vs 폐쇄 소스: meta의 llama는 전통적인 오픈 소스가 아니라고 생각합니다. 이는 단지 모델을 공개할 뿐 원본 코드와 데이터를 제공하지 않습니다. 따라서 오픈 소스 시스템을 사용할 때 우리도 구성해야 합니다. 모델 시스템 폐쇄 소스 작업을 진정으로 이해하는 마음.
8. ai 거버넌스에 주의를 기울이십시오. 인공 지능은 수천 개의 산업과 사회 전체에 큰 영향을 미치며 모두가 함께 직면해야 합니다.
9. 인간-컴퓨터 관계에 대해 다시 생각해 보세요. 인간-컴퓨터 상호 작용을 진정으로 이해해야만 우리는 각 세대의 하이테크 기업에서 진정으로 상업적으로 가치 있는 리더가 될 수 있습니다. 지금 말하세요오픈ai마이크로소프트를 추가한다는 것은 이 시대가 아직 너무 이르다는 뜻이지만, 앞으로는 아직 상상의 여지가 많다는 뜻이다.
10. 지능의 본질: 대형 모델이 모두를 놀라게 했지만, 대형 모델과 딥러닝에 관한 이론은 없습니다. ~에 대한일체 포함문제의 출현에 대해서만 이야기했을 뿐 명확하게 설명되지는 않았습니다.
"젊은 과학자 50² 포럼"은 new cornerstone science foundation의 연례 학술회의입니다.남부 과학 기술 대학교, tencent sustainable social value division 및 new cornerstone science foundation이 공동으로 조직했습니다. new cornerstone science foundation은 tencent가 10년에 걸쳐 100억 위안을 투자하여 설립하고 독립적으로 운영하고 있으며, 현재 중국 최대의 공공 복지 과학 재단 중 하나입니다. 설립 및 운영은 tencent의 장기적인 기술 투자입니다. 좋습니다. 과학 자금 지원을 위한 구체적인 조치입니다.
'젊은 과학자 50² 포럼'은 '과학탐구상' 수상자들을 위한 학제간 학술교류 플랫폼이다. '과학적 탐구 상'은 2018년에 제정되었습니다. 이는 new cornerstone science foundation에서 자금을 지원하고 과학자들이 주도하는 공공 복지 상으로 현재 중국의 젊은 과학 기술 인재를 위한 최대 자금 지원 프로젝트 중 하나입니다. 각 우승자는 자신의 big idea와 최신 탐색 내용을 5년의 자금 지원 기간 동안 적어도 한 번 포럼에 공유하게 됩니다. '50²'는 매년 '과학탐구상'에 선정된 젊은 과학자 50명이 향후 50년 동안 과학기술 혁신에 큰 영향을 미칠 것이라는 의미다.
다음은션샹양이번 포럼의 연설 전문은 다음과 같습니다.
오늘 심천에서 인공지능에 대한 최근 학습과 경험을 여러분과 공유할 수 있는 기회를 갖게 되어 매우 기쁩니다.
계속하겠습니다야오 치지선생님께서 말씀하신 인공지능이라는 주제로, 현재 대형 모델 시대에 우리가 하고 있는 일들, 특히 이 문제를 기술 통합과 산업 전환의 관점에서 바라보는 몇 가지에 대해 말씀드리겠습니다.
사실 인공지능 시대에는 기술 발전의 중요성만 있는 것이 아니다. 인간 발전의 전체 역사는 기술 발전의 역사다. 기술이 없으면 gdp 성장도 없다. 우리는 불을 만들기 위해 나무를 뚫거나 바퀴를 발명한 것과 같은 일을 되돌아보지 않을 것입니다. 단지 지난 100년 동안 물리학의 수많은 놀라운 혁신과 지난 70년 동안 인공 지능 및 컴퓨터 과학의 획기적인 발전만 살펴볼 것입니다. . 많은 발전이 있었음을 알 수 있습니다.
오늘 이야기할 주제는 인공지능과 대형모델입니다. 지난 몇 년간 새로운 인공지능 경험을 차근차근 접해 모두가 충격을 받았을 것이다. 평생 인공지능 분야에서 일해 왔다고 해도 몇 년 전 오늘날의 상황은 상상하기 어려울 것이다.
저는 세 가지 예에 대해 이야기하고 싶습니다. 첫 번째는 텍스트에서 텍스트를 생성하는 것이고, 두 번째는 텍스트에서 그림을 생성하는 것이며, 세 번째는 텍스트에서 비디오를 생성하는 것입니다. 방금 우리는 국제적으로뿐만 아니라 국내에서도 사용 가능한 chatgpt와 같은 인공 지능 시스템에 대해 이야기했습니다. 예를 들어, 오늘 연설하러 오기 전에 chatgpt에 tencent의 young scientists 50² 포럼에 참여하여 내 배경을 고려하여 어떤 주제에 대해 연설해야 하는지 물었습니다. 좀 웃기다고 생각하실 수도 있겠지만, 실제로 사용해보시고 나면 정말 좋다는 생각이 드실 겁니다.
chatgpt는 누구나 잘 알고 있습니다. openai는 2년 전 문단을 입력하면 그래프를 생성하는 시스템을 출시했습니다. 7개월 전 소라(sora)를 출시했는데, 메시지를 보내면 이 도쿄 거리를 걷는 영상과 같은 60초짜리 고화질 영상이 생성된다. (시간 관계상 영상은 보여드리지 않겠습니다.)
이 vincentian 다이어그램의 예를 들어 보겠습니다. 컴퓨터 그래픽을 전공해서 사진이 좋은지 나쁜지에 대한 감각이 있는 것 같아요. 2년 전 이 사진은 인류 역사상 최초의 인공지능이 생성한 사진으로 미국 패션잡지('코스모폴리탄')의 표지를 장식한 바 있다. 샌프란시스코의 한 디지털 아티스트가 openai 시스템을 활용해 질문을 했고, 이런 결과가 나왔습니다. 이 구절은 다음과 같습니다. 별이 총총한 광활한 하늘에서 여성 우주비행사가 화성을 뽐내며 광각 렌즈를 향해 걸어갔습니다. 제가 미술적인 재능은 별로 없는데 이 사진을 보고 많이 놀랐어요. 인공지능이 이런 그림을 그리면 정말 여성 우주인처럼 보이잖아요. 그래서 이 인공지능은 매우 지능적인 수준에 이르렀습니다.
오늘날 우리는 이렇게 놀라운 기술과 놀라운 제품을 보유하고 있으며, 집에서도 열심히 일하고 있으며, 기술부터 모델, 후속 응용까지 모든 측면에서 노력하고 있습니다. 방금 야오 선생님께서 칭화대학의 최신 연구에 대해서도 많이 말씀해 주셨습니다. 그래서 저는 일반 인공지능 시대에 대형 모델에 대해 어떻게 생각해야 하는지 여러분과 공유하고 싶습니다.
첫 번째 생각은 컴퓨팅 성능이 임계점이라는 것입니다.
오늘날의 일반 인공지능, 대형 모델, 딥러닝에서 가장 중요한 것은 최근 몇 년간 인공지능 컴퓨팅 파워의 전반적인 성장입니다.
지난 10년 동안 대형 모델에 사용되는 컴퓨팅 성능은 처음에는 연간 6~7배, 나중에는 연간 4배 이상 증가했습니다. 이제 질문하겠습니다. 1년에 4번 증가한다면 10년 후에는 몇 배 증가할까요? 먼저 생각해보세요. 이 문제는 나중에 다시 다루겠습니다.
이러한 인공지능 발전의 물결로 가장 많은 수혜를 받는 기업은 모두가 알고 있는 사실입니다.엔비디아, nvidia의 출하량은 해마다 증가하고 있으며 컴퓨팅 성능은 점차 증가하고 있으며 회사 전체의 시장 가치는 us $ 3 조 달러의 시장 가치를 지닌 세계 3 대 회사 (microsoft, apple, nvidia) 중 하나가되었습니다. 가장 중요한 것은 매년 컴퓨팅 성능에 대한 모든 사람의 요구 때문입니다. 2024년에 구입한 nvidia 칩의 수는 여전히 빠르게 증가하고 있습니다. 예를 들어 elon musk는 100,000장의 h100 카드로 구성된 클러스터를 구축하고 있습니다. 10,000장의 카드 시스템을 구축하는 것은 더욱 어렵습니다. 시스템 네트워크 요구 사항이 매우 높습니다.
오늘 우리는 컴퓨팅 성능과 대규모 모델에 대해 이야기하고 있습니다. 가장 중요한 것은 확장 법칙(컴퓨팅 성능과 데이터)입니다. 이제 모든 사람이 한계에 도달하지 못했습니다. 불행하게도 전체 데이터 양이 증가할 때 컴퓨팅 파워의 성장은 선형적인 성장이 아니라, 컴퓨팅 파워의 성장은 제곱의 성장에 가깝습니다.
모델이 커지면 모델을 학습시키기 위해 데이터의 양을 늘려야 하기 때문에 상대적으로 말하자면 제곱 성장에 가깝습니다. 따라서 지난 10년 동안 컴퓨팅 성능에 대한 요구 사항이 엄청났습니다. 그래서 한 가지만 말씀드리겠습니다. 오늘은 인공지능의 대형 모형을 만들어 보겠습니다. 막히면 기분이 상할 것입니다.
방금 질문을 드렸습니다. 매년 4배씩 오른다면 10년 뒤에는 몇 배나 오르나요? 컴퓨터를 연구하는 사람들은 모두 "무어의 법칙"이라는 것이 있다는 것을 알고 있습니다. 이는 컴퓨팅 능력이 18개월마다 두 배로 증가한다는 것을 의미합니다. 이것이 intel이 수년에 걸쳐 발전해 온 방식입니다. nvidia가 intel을 능가한 이유는 무엇입니까? 매우 중요한 이유는 성장률이 다르기 때문입니다. 18개월 만에 2배로 늘어난다면 10년 만에 100배로 늘어나는 것도 놀라운 일이고, 매년 4배씩 늘어나면 10년 만에 100만 배로 늘어나는 셈이다. 이렇게 생각해보면 지난 10년 동안 엔비디아의 시장 가치가 이렇게 빠르게 상승한 것은 이해가 됩니다.
두 번째 생각은 데이터에 관한 것입니다.
컴퓨팅 파워, 알고리즘, 데이터는 인공지능의 세 가지 중요한 요소입니다. 앞서 일반 인공지능을 훈련시키기 위해서는 많은 데이터가 필요하다고 말씀드렸습니다. chatgpt3가 나왔을 때는 아직 논문을 출판하는 단계였고, gpt-4가 나올 때쯤에는 2조 개의 토큰 데이터가 필요하다고 했고, gpt-4는 지속적으로 훈련 중이고, 현재 수량은 20t를 초과하는 것으로 추정됩니다. 인공지능에 관심이 있는 사람이라면 모두가 gpt5가 나오기를 그렇게 오랫동안 기다려왔지만 아직 나오지 않았다는 것은 알 것이다. . 돌이켜보면 인터넷에 좋은 데이터가 그렇게 많지는 않은데, 정리해보면 20t가 거의 상위권일 수도 있으니 앞으로 gpt-5를 구축하려면 기존 데이터 외에 추가로 필요한 게 있을 겁니다. 더 많은 다중 모드 데이터, 심지어 인위적으로 합성된 데이터도 가능합니다.
매우 흥미로운 점은 지난 30~40년 동안 모든 사람이 자신의 정보를 온라인으로 공유했다는 것입니다. 과거에는 우리가 검색 엔진을 위해 일하는 줄 알았습니다. 지금 더욱 놀라운 것은 지난 30~40년 동안 우리가 축적한 것입니다. 몇 년 동안 chatgpt처럼 모든 것을 통합하고 강력한 컴퓨팅 성능을 통해 이러한 인공 지능 모델을 학습한 것입니다.
세 번째 생각은 대형 모델의 다음 장입니다.
오늘까지 일했는데, 다음에는 무엇을 해야 할까요? 첫 번째는 언어 모델입니다. chatgpt로 대표되는 기본 기술은 자연어 처리입니다. 오늘날 모두가 작업하고 있는 것은 gpt-4로 대표되는 다중 모드 모델이며, 그 안에 들어 있는 많은 기술은 컴퓨터 비전입니다. 앞으로는 구체화된 지능을 개발해야 합니다. 구체화된 지능의 목적은 무엇입니까? 사실 우리는 멀티모달이라 할지라도 기본 물리적 모델이 없기 때문에 월드 모델을 구축해야 합니다. 세계 모델은 수천 권의 책을 읽어야 할 뿐만 아니라 세상에 대한 더 많은 지식을 뇌에 다시 공급하기 위해 수천 마일을 여행해야 함을 의미합니다. 그래서 우리는 로봇을 만들어야 합니다. 나는 선전이 로봇과 구체화된 지능을 구축하기로 결심해야 한다고 생각한다. 로봇에는 자율주행이라는 특별한 트랙이 있습니다. 자율주행은 특별한 로봇이지만 주어진 경로를 따라 주행합니다.
무엇을 해야 할까요? 앞으로 해야 할 다중 모드 과학 연구 작업이 많이 있으며, 다중 모드 이해와 생성의 통일이 매우 중요한 방향이라고 믿습니다. 소라가 구축되더라도 멀티모듈의 생성과 멀티모듈에 대한 이해가 통일되지는 않습니다. 이 분야에서 우리가 할 수 있는 과학적 연구 작업이 많이 있습니다.
예를 들면, 제 학생들 중 몇몇은 대규모 모델 회사인 step stars를 만들었고, 그들의 다중 모드 이해는 매우 좋았습니다. 인공지능에게 사진을 보여주면 왜 사진 속 행동이 '무효 스킬'인지, ai는 사진을 보면 마치 아이가 땅바닥에 구르는 것처럼 보이지만 엄마는 무관심하다고 설명한다. 그녀는 휴대폰을 보고 술을 마신다. 그래서 아이들의 이런 기술은 무효한 기술이라고 불린다. ai는 이제 그래프를 이해하는 능력이 점점 더 좋아지고 있습니다.
네 번째 생각은 인공지능의 패러다임 전환이다.
2주 전, openai는 최신 모델인 o1을 출시했습니다. 앞서 gpt가 발전해 왔다고 말씀드렸는데, gpt4 이후에는 gpt5가 출시되지 않았습니다. 단지 대형 모델의 매개변수만 증가한 것 뿐이라면 정점에 도달했다고 다들 생각하고 계시죠? 아무도 모르고, 아직 출시되지도 않았고, 중국에서 더 큰 모델을 만든 적도 없습니다.
그런데 이제는 기존의 사전 학습(확장)을 하는 것이 아니라 추론을 할 때 확장을 하는 새로운 차원이 등장했습니다. 원래의 gpt 아이디어에서 오늘날의 독립적 학습 경로로 바뀌었는데, 이는 추론 단계에서 학습을 강화하고 지속적인 자기 학습을 하는 과정입니다.
과거에는 기본적으로 다음 단어가 무엇일지, 다음 토큰이 무엇일지 예측하는 사전 훈련을 했습니다. 이제 새로운 아이디어는 초안을 만들고 이 경로가 올바른지, 저 경로가 올바른지 확인하는 것입니다. 인간의 두뇌처럼 생각에도 빠른 시스템과 느린 시스템이 있습니다. 수학 문제를 풀 때 먼저 초안을 작성하고 생각의 연쇄가 있습니다. 사고의 사슬을 최적화하는 과정에서 기회를 포착합니다. 지금까지 openai만이 이러한 시스템을 출시했습니다. 여기에서 몇 가지 예를 모두 살펴보시기 바랍니다.
가장 중요한 것은 전체 프로세스가 인간이 문제를 생각하고 분석하고, 초안을 작성하고, 확인하고, 오류를 수정하고, 다시 시작하는 방식과 매우 유사하다는 것입니다. 이를 위해서는 많은 컴퓨팅 성능이 필요합니다.
다섯 번째 생각은 대형 모델이 수천 개의 산업 분야를 휩쓸고 있다는 것입니다.
모든 기업은 대형 모델이 가져온 기회에 직면해야 하지만, 모든 기업이 범용 대형 모델을 만들 필요는 없습니다. 카드가 10,000개도 없다면 범용 대형 모델을 만들 가능성은 없습니다. 대형 모델 모델에는 최소 10,000장의 카드가 있어야 합니다.
예를 들어 gpt4가 출시되었을 때 총 훈련량은 2×10^25 flops였습니다. 이렇게 많은 양의 훈련을 통해 이 양에 도달하려면 a100 카드 10,000장을 실행하는 데 1년이 걸립니다. 이 양을 달성하지 못하면 실제 범용 대형 모델은 없을 것입니다. 일반 대형 모델을 사용하면 이를 기반으로 금융 및 보험과 같은 자체 산업 대형 모델을 구축할 수 있으며, 이에 대한 세부 조정도 가능합니다. 기업의 경우 내부 데이터, 고객 데이터 등 자체 데이터가 있는데, 이러한 데이터를 꺼내서 수십, 수백 장의 카드를 활용하면 기업에 매우 좋은 모델을 만들 수 있습니다. 그래서 층층이 쌓이게 됩니다.
물론 제가 매우 좋아하는 또 다른 매우 중요한 차원이 있는데, 그것은 미래의 개인 모델입니다. 오늘날 우리는 점차 pc와 휴대폰을 사용하게 되었고(데이터는 어느 정도 축적되었습니다), 앞으로는 이러한 초지능 ai가 여러분을 도와줄 것이라고 믿습니다. 데이터를 활용하여 나만의 개인 모델을 구축할 수 있습니다. 이는 (개인용)단말기 부분에 있어서 휴대폰은 당연한 것입니다. pc 측면에서는 마이크로소프트, 레노버 등 pc 업체들도 ai pc 개념을 추진하고 있어 그런 기회도 있다.
중국의 대형 모델 건설 물결 속에서 점점 더 많은 업계 대형 모델이 포함되고 있습니다. 예를 들어, 중국의 대형 모델은 온라인에 출시되기 전에 중국 사이버 공간 관리국의 승인을 받아야 하기 때문에 올해 7월 말까지 중국 내 총 197개 모델이 중국 사이버 공간 관리국의 승인을 받았습니다. 그 중 70%는 산업용 대형 모델이고 30%는 일반 대형 모델이었습니다. 이러한 추세는 확실히 이렇고, 앞으로는 일반 대형 모델의 비중이 점점 작아질 것입니다. 예를 들어, 일반 대형 모델을 기반으로 금융 모델을 만들 수 있습니다. 이는 상하이의 한 회사가 금융 고객을 위해 만든 대형 모델입니다. 예를 들어, nvidia의 재무 보고서가 나오면 그 주요 내용과 문제점을 즉시 요약할 수 있습니다.
여섯 번째 생각은 비전부터 구현까지 ai agent입니다.
오늘 우리는 대형 모델의 가장 큰 슈퍼 애플리케이션은 무엇이며 가장 큰 기회는 어디에 있는지 확인합니다. 아직도 많은 사람들이 슈퍼앱을 찾으려고 노력하고 있습니다. 사실, 슈퍼 애플리케이션은 처음부터 존재했습니다. 이 슈퍼 애플리케이션은 슈퍼 조수, 슈퍼 에이전트입니다.
gates와 저는 microsoft에서 수년 동안 함께 일했으며 둘 다 이 문제에 대해 생각하고 있었습니다. 뭐가 그렇게 어렵나요? 실제로 유용한 작업을 하려고 할 때 워크플로를 이해하는 것이 어렵습니다. 질문을 하면 단계별로 나눌 수 있습니다. 오늘 내가 할 수 있는 일은 고객 서비스나 개인 비서처럼 어느 정도 영향력을 미치는 일이다. 하지만 많은 일을 할 수 없습니다. 왜 할 수 없습니까? 당신은 디지털 두뇌가 되어야 합니다. 아래의 대형 모델은 첫 번째 단계에 불과합니다. 대형 모델의 능력은 위의 모든 작업을 단계별로 수행하는 데 도움이 될 만큼 강력하지 않습니다. 그러한 agent를 만들고 싶기 때문에 agent가 어떤 일을 할 수 있도록 하려면 다음과 같은 문제가 무엇인지 이해하고 각 부분에 해당 기술이 있는지 이해해야 합니다.
우리는 이미 오늘날의 모델을 사용하여 많은 좋은 예를 만들었습니다. 예를 들어 ai 건강 컨설턴트가 되어 화장품에 대한 이해를 이야기하고 화장품을 추천할 수 있습니다.
일곱 번째 생각은 오픈 소스와 클로즈 소스입니다.
지난 수십 년 동안 세계 과학 기술의 발전, 특히 중국의 과학 기술 발전에서 두 가지가 매우 중요합니다.
첫 번째는 인터넷의 출현입니다. 인터넷으로 인해 모든 논문과 자료를 온라인에서 찾을 수 있게 되었습니다.
두 번째는 오픈소스입니다. 오픈소스를 사용하면 애플리케이션 제작 시 리더와의 격차를 획기적으로 줄일 수 있습니다. 그러나 오픈 소스의 기능은 이제 폐쇄 소스의 기능과 유사하지만 대규모 모델 및 데이터베이스의 경우 오픈 소스와 동일하지 않습니다. 중국에도 오픈 소스 작업을 수행하는 회사가 많이 있습니다. 오늘날 최고의 오픈 소스 도구는 openai에 가깝다고 주장하는 meta의 llama 3.1입니다. 나는 그것이 전통적인 오픈 소스가 아니라고 생각합니다. 단지 모델을 공개할 뿐 원본 코드와 데이터를 제공하지 않습니다. 대규모 모델의 시스템 폐쇄를 진정으로 이해합니다.
여덟 번째 생각은 ai 거버넌스에 주목하자는 것이다.
ai가 급속도로 발전하고 있기 때문에 세상은 ai의 안전을 매우 중요하게 생각합니다. 이 문제의 영향이 너무 크기 때문입니다. 인공 지능은 수천 개의 산업과 사회 전체에 큰 영향을 미치기 때문에 실제로 전 세계의 발전은 모두가 함께 직면해야 합니다.
아홉 번째 생각은 인간과 기계의 관계를 다시 생각해보자는 것이다.
방금 빈센트의 글과 빈센트의 사진, 빈센트의 영상을 소개했는데, 그 중 얼마나 기계의 지능이, 인간과 컴퓨터의 상호작용이 우리에게 가져다주는 충격이 얼마나 될까요?
약 10년 전, "뉴욕타임스" 칼럼니스트인 존 마코프(john markoff)는 제가 매우 좋아하는 책 "사랑하는 은혜의 기계(machine of loving grace)"를 썼습니다. 이 책은 과거 기술 발전의 두 가지 노선을 요약했습니다. 하나는 인공지능이고, 다른 하나는 ia입니다. 지능형 증강(intelligent augmentation)은 인간과 컴퓨터의 상호작용인 지능의 강화이다. 컴퓨터가 보급된 후 컴퓨터는 사람들이 많은 일을 할 수 있도록 도왔습니다. 체스 게임이 그 한 예입니다.
실제로 인간과 컴퓨터의 상호 작용을 진정으로 이해해야만 우리는 각 세대의 하이테크 기업에서 실질적인 상업적 가치를 지닌 리더가 될 수 있습니다. 오늘날의 인공지능 인터페이스는 대화의 과정으로 매우 명확해졌습니다. 오늘의 대표자는 chatgpt입니다. 하지만 openai와 microsoft를 이야기한다는 것은 이 시대가 아직 너무 이르다는 것을 의미하지만, 미래에는 아직 상상의 여지가 많습니다.
열 번째 생각은 지능의 본질입니다.
오늘날 대형 모델이 모든 사람에게 충격을 주었지만 대형 모델과 딥 러닝에 관한 이론은 없습니다. 오늘날 우리는 기분이 좋아지는 이론을 갖고 싶습니다. 물리학과 달리 물리적인 관점에서 보면 광활한 별이 빛나는 하늘부터 가장 작은 양자까지 모든 것이 아름다운 물리 법칙으로 설명됩니다. 오늘날 설명 가능성이나 견고성이 없는 인공 지능에 대한 이론은 없습니다. 오늘날의 딥러닝 프레임워크는 진정한 일반 인공지능에 도달할 수 없습니다.
인공지능의 출현에 대해 다들 이야기만 할 뿐 명확하게 설명하지는 않았다. 모델이 충분히 클 때 지능이 나타나는 이유는 무엇입니까? 70b 모델이 지능적으로 등장할 수 있는 이유는 무엇일까? 그런 진실은 없습니다. 그래서 우리도 이 문제에 대해 매우 열심히 노력하고 있습니다. 지난 여름 저는 또한 "창발 지능을 위한 수학적 이론"이라는 주제로 홍콩 과학 기술 대학에서 세미나를 조직했습니다. 창발 지능을 논의할 때 몇 가지 과학적이고 수학적 원리를 명확하게 설명해야 하며 이를 기꺼이 받아들이는 더 많은 사람들이 필요합니다. 참여가 필요합니다. 특히 tencent의 '과학 탐사 상' 및 '신규 초석 연구원' 프로젝트가 등장하면서 더 많은 젊은 과학자들이 참여하게 되었고, 그들은 만들기라는 어려운 작업에 깊이 들어갈 수 있는 더 많은 자신감과 믿음을 갖게 되었습니다. 인공지능의 미래 발전을 위한 돌파구가 궁금합니다.
모든 우승자와 젊은 과학자들에게 다시 한 번 축하를 드립니다. 과학기술의 발전은 세대를 거쳐 젊은이들이 이루어져야 하는데, 특히 인공지능은 더욱 그렇습니다. 다시 한번 감사드립니다.