소식

teleai는 최초의 국내 생산 wanka wangan 대형 모델 교육, 오픈 소스 telechat2-115b를 완료했습니다.

2024-09-29

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

최근 차이나텔레콤 인공지능연구소(이하 teleai)는 국내에서 제작한 wanka 클러스터 트레이닝(이하 wanka wancan)을 기반으로 중국 최초의 1조 매개변수 대형 모델을 성공적으로 완성했으며, 국내 최초로 공식 오픈소스화했다. 전국적으로 생산되는 wanka 클러스터를 기반으로 제작된 모델인 telechat2-115b는 huawanka 클러스터와 국내 딥러닝 프레임워크로 훈련된 수천억 개의 매개변수를 갖춘 대형 모델인 star semantics의 대형 모델입니다.

이는 china telecom group의 최고 과학자이자 china telecom 인공 지능 연구소 소장인 li xuelong 교수가 이끄는 또 다른 이정표이자 중요한 과학 연구 성과입니다. 이는 국내 대규모 모델 훈련이 실제로 국유화의 대체를 실현했음을 나타냅니다. 국내 생산을 위한 독립적인 혁신, 안전성 및 제어 가능성의 새로운 단계가 공식적으로 시장에 진입했습니다.

telechat2-115b는 china telecom이 자체 개발한 tianyi cloud "통합 지능형 ​​컴퓨팅 서비스 플랫폼"과 인공 지능 회사의 "xinghai ai 플랫폼"을 기반으로 훈련되었습니다. 이 플랫폼은 훈련을 보장하는 동시에 모델 훈련 효율성과 정확성을 향상시키기 위해 다양한 최적화 방법을 사용합니다. 안정성, 동일한 컴퓨팅 성능으로 gpu 컴퓨팅 효율성의 93% 이상을 달성하는 동시에 모델의 유효 교육 시간이 98% 이상을 차지합니다.

telechat2-115b의 오픈 소스는 대형 모델의 국산화를 위한 또 다른 새로운 여정을 의미합니다. 대형 모델을 설계하고 오픈소스화한 최초의 국영 기업인 teleai는 오픈 소스를 통해 대형 모델 기술의 지속적인 발전을 적극적으로 촉진하고 기술 혁신의 산업 구현으로의 신속한 전환을 지속적으로 촉진하고 선도하고 있습니다.

올해 5월 opencampass 테스트 목록에서 telechat 시리즈 모델의 논리적 추론 기능이 오픈 소스 대형 모델 목록에서 1위를 차지했습니다. 차세대 버전인 telechat2-115b는 지난 9월 발표된 최신 c-eval 평가 오픈 액세스 모델 종합 목록에서 86.9점으로 1위를 차지했습니다. 일반적인 기능은 특히 도구 사용, 논리적 추론, 수학적 계산, 코드 생성 및 장문 쓰기 측면에서 telechat 시리즈 모델보다 거의 30% 더 높습니다.

telechat2-115b는 c-eval의 전체 오픈 액세스 모델 목록에서 1위를 차지했습니다.

teleai가 자체 개발한 대규모 의미론적 모델은 다수의 권위 있는 대회에서 1위를 차지한 것으로 파악됩니다. 그 중 ccl2024 컨퍼런스에서 중국 공간 의미 이해 평가, 중국 고대 역사 사건 유형 추출 평가 부문에서 1위를 차지했다. 또한 nlpcc2024 중국 논쟁적 종이 채굴(공유 태스크 5) 챌린지에서 우승을 차지했습니다.

(정보)

보고/피드백