소식

대형 모델은 인간처럼 생각하는 법을 배우기 시작했습니다. agi로 가는 길은 어디입니까?

2024-09-18

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

두 달 전, 대형 모델의 약한 수학적 능력 문제가 널리 주목을 받았습니다. 시장에 나와 있는 많은 대형 모델은 "9.11과 9.9 중 어느 것이 더 큽니까?"라는 간단한 수학적 질문에도 답할 수 없습니다. 두 달이 지난 지금 업계에서는 대형 모델의 수학적 능력의 한계 문제를 점차 해결하고 있습니다.
베이징 시간인 9월 13일 이른 아침, openai는 예고 없이 o1-preview, o1 및 o1-mini 모델을 포함한 새로운 추론 모델 시리즈를 출시했습니다. openai의 오랫동안 소문난 '스트로베리 프로젝트'로 고급 추론 능력을 갖추고 있습니다. openai에 따르면 새로운 모델 시리즈는 데이터 및 코딩 부문에서 우수한 성능을 발휘하여 imo(국제 수학 올림피아드) 자격 시험에서 83%를 기록했습니다.
openai만이 수학적 능력의 한계를 극복하려는 것은 아닙니다. google deepmind 팀은 이전에 복잡한 수학적 문제를 해결하는 데 사용되는 alpha 시스템 alphaproof를 출시했습니다.
수학적 능력의 한계를 뛰어 넘는 것은 ai 기술 진화의 새로운 단계이자 agi(artificial general intelligence)로 가는 길입니다. coventry 대학의 교수이자 nvidia 인공 지능 기술 센터의 글로벌 디렉터인 simon see에 따르면, ai 수학적 능력을 향상하려는 업계의 노력에는 llm(대형 언어 모델)을 다른 기술과 결합하려는 노력이 포함되어 있으며, 다양한 기술에 대한 노력이 근본적인 추진력을 창출하고 있습니다. agi(artificial general intelligence)를 지향합니다.
수학 능력의 한계를 해결하는 방법은 무엇입니까?
"이것은 복잡한 추론 작업에 대한 주요 발전이며 새로운 수준의 인공 지능 기능을 나타냅니다." openai는 o1 시리즈 모델을 소개하면서 썼습니다. openai ceo 샘 알트만(sam altman)도 소셜 플랫폼에서 새로운 모델은 새로운 패러다임의 시작, 즉 ai가 일반적이고 복잡한 추론을 수행할 수 있다고 말했다.
향상된 수학적 기능은 이 모델 시리즈의 중요한 특징입니다. openai는 새로운 모델 시리즈의 업데이트된 성능이 imo(국제 수학 올림피아드) 자격 시험에서 박사 과정 학생이 어려운 벤치마크 과제를 완료하는 것과 유사하다고 소개했습니다. 질문 중 새 모델은 83%를 기록했습니다.
새로운 모델이 더 나은 수학과 프로그래밍 기능을 달성할 수 있는 방법과 관련하여 openai는 회사가 대규모 강화 학습 알고리즘을 사용하여 인간이 생각하는 방식과 유사하게 데이터를 효율적으로 훈련할 때 사고 체인을 사용하여 효율적으로 생각하도록 모델을 "교육"한다고 소개했습니다. 어려운 질문에 대답하기까지 오랜 시간이 걸립니다. 강화 학습이 증가하고 사고 시간이 증가함에 따라 o1 성능은 계속 향상됩니다. openai 연구원 noam brown은 o1이 대규모 모델 스케일링(scaling)을 위한 새로운 차원을 열어 대형 모델이 더 이상 사전 훈련의 병목 현상을 겪지 않고 추론 계산도 확장할 수 있다고 말했습니다. 향상된 추론 기능의 역할에 대해 openai는 의료 분야에서 세포 서열 분석 데이터에 주석을 달고 물리 연구 분야에서 복잡한 수학 공식을 생성하는 데 사용될 수 있다고 밝혔습니다.
google deepmind는 llm 외에 다른 기술을 결합하여 ai 시스템의 최종 성능을 향상시킵니다. alphaproof도 강화 학습을 기반으로 하며 수학적 추론을 위한 시스템입니다. 시스템은 정리를 검증하는 데 사용되는 프로그래밍 언어인 lean 프로그래밍 언어를 증명하기 위해 자체적으로 훈련했으며 훈련 언어 모델과 alphazero 강화 학습 알고리즘을 결합했습니다. google에 따르면 lean을 사용하면 시스템이 수학적 추론 증명의 정확성을 확인할 수 있습니다. 문제에 직면하면 alphaproof는 후보 솔루션을 생성한 다음 lean에서 증명하거나 반증할 수 있는 증명 단계를 검색합니다.
기술적 원리의 유사 여부에 관계없이 alphaproof와 openai o1은 이전 모델에 비해 깊이 생각하는 경향이 있으며 llm의 능력에만 의존하여 다음 토큰(단어 요소)을 예측하고 빠르게 생성하지 않습니다.
agi에 어떻게 가나요?
앞서 한 대형 모델 개발자는 대형 모델의 수학적 능력이 약한 이유 중 하나가 모델 훈련에 고품질의 수학적 데이터가 많이 사용되지 않기 때문이라고 기자들에게 말했다. 능력으로 해결될 수 있습니다. 그러나 업계 분석가들은 llm의 수학적 능력이 떨어지는 이유 외에도 다음 토큰을 예측하는 방법이 실제로 스마트하지 않기 때문이라고 말합니다. 최근 동향으로 볼 때 openai, google deepmind 등 업계에서는 ai 시스템의 운영 메커니즘에서 부족한 수학 및 추론 능력 문제를 해결하고 있으며 실제로 llm 운영 방식의 단점을 보완하기 위해 다양한 기술을 활용하고 있습니다. , 어느 정도 llm이 인간처럼 생각하도록 만드세요.
llm 역량의 한계, 수학적 능력 등의 문제 해결 방법, 기존 llm에서 agi로 전환하는 방법 등에 대해 업계에서는 최근 사우디 데이터(saudi data) 주최로 많은 업계 베테랑들이 컨퍼런스를 열어 여전히 근본 원인과 해결책을 논의하고 있다. gain summit 세계 인공 지능 서밋에서 논의된 인공 지능 기관. 정상회담에서 simon see는 현재 인공지능이 "좁다"고 말했습니다. 많은 사람들은 llm이 agi 실현의 원동력이 될 것이라고 생각하지만 실제로는 어떻게 작동하는지 이해하지 못하고 여전히 llm 개발의 가장자리에 있습니다. 무한한 에너지를 공급할 수 없어 점점 더 큰 모델을 만들 수 없는 등 해결해야 할 문제가 여전히 많다.
"이제 우리는 많은 양의 데이터를 보유하고 있습니다. 모델이 충분히 크게 훈련되면 기능이 나타날 것입니다. 제 생각에는 단일 기술에만 의존하는 것은 불가능합니다. 현재 업계가 진행 중인 방향에는 llm과 다른 기술을 결합하는 것이 포함됩니다. 새로운 기호, 미적분학 등과 같은 지식과 기술을 통해 이해하고 추론할 수 있습니다." simon see는 서로 다른 기술의 결합이 최근 큰 진전을 이루었다고 말했습니다. deepmind의 alphaproof는 lean 프로그래밍 언어, 언어 모델 등을 결합하여 ai가 수학적 증명에 사용됩니다. llm이 다양한 기술을 결합하여 ai 시스템에 agi로 이어질 수 있는 잠재적인 힘을 부여하게 해주세요.
alpha intelligence captal의 공동 창립자이자 관리 파트너인 antoine blondeau도 기계가 결국 인간보다 더 나아질 것이라는 것은 기정사실이지만 이러한 결과를 얻으려면 시간이 좀 걸릴 것이며 여전히 많은 과학적 연구가 필요하다고 믿습니다. 해야 할 일. 그는 ai가 단일 모델이 아니라 여러 모델의 조합이 될 수 있다고 판단했습니다. 기계는 결국 인간처럼 현실 세계에서 관찰하고 증명하거나 반박하고 일반화하고 학습하는 방법을 배울 것입니다.
llm의 현재 메커니즘과 한계에 대해 antoine blondeau는 인간이 삶에서 학습하며 그 중 95%가 "소리가 있는 비디오"에서 학습된다고 믿습니다. 우리 삶의 본질은 기본적으로 "비디오를 켜는 것"이고 나머지 5가지입니다. %는 책과 같은 텍스트에서 가져온 것입니다. 예를 들어, 다섯 개의 손가락이 나타나면 인간일 수도 있고 다른 동물일 수도 있음을 의미합니다. 그러나 기계가 비디오를 통해 학습할 때 그 임무는 인간의 방식이 아닌 다음 픽셀을 예측하는 것입니다. 기계가 인간처럼 학습하도록 만들 수 없다면 기계가 더 높은 수준의 지능에 도달하기 어려울 것입니다.
유명한 기계 학습 과학자이자 대형 모델 스타트업인 boson ai의 창립자이자 ceo인 alex smola는 llm 운영의 한계가 토큰 예측과도 관련이 있다고 지적했습니다. 그는 llm의 다음 토큰(단어 요소)을 예측하는 능력이 이미지, 소리를 이해하고 소리를 만드는 데 사용되었으며 지난 12개월 동안 모든 것이 토큰이 된 것 같다고 말했습니다.
"어느 정도 사용 가능한 토큰의 수가 소진되기 시작했습니다. 대략적인 추정으로는 100조 개의 토큰이 있을 수 있으며 이는 인간이 llm을 구축하는 데 사용할 수 있는 토큰일 수 있습니다. 여전히 많은 비디오 및 오디오 공급 장치가 있습니다. 이것이 작동하는 정도는 nvidia나 이러한 모드를 처리할 수 있는 칩을 생산하는 다른 회사에 달려 있습니다. alex smola는 가까운 미래에 llm의 핵심은 시퀀스 모델링(시퀀스 모델링)이 될 수 있다고 말했습니다. 이제 데이터를 볼 수 있는 , 하드웨어 융합 및 확률 모델도 유사한 구조로 진화하고 있으며 향후 몇 년 동안 관련 탐색이 얼마나 멀리 갈 수 있는지 확인할 수 있습니다.
antoine blondeau는 기술 진보와 미래 전망을 결합하여 agi의 실현이 10~20년 내에 이루어질 수 있으며 진화 속도는 이제 매우 빠르다고 믿습니다. simon see는 agi에 도달하기 위해 프로세스의 80%가 10년 내에 달성될 수 있다고 믿지만 마지막 20%는 매우 어렵고 더 오랜 시간이 걸릴 것이라고 판단합니다.
(이 기사는 중국경제신문에서 발췌한 것입니다)
보고/피드백