소식

nvidia 오픈 소스 nemotron-mini-4b-instruct 소규모 언어 모델

2024-09-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it하우스뉴스는 9월 15일 기술미디어 마크테크포스트가 어제(9월 14일) 블로그 게시물을 게재했는데,nvidia가 nemotron-mini-4b-instruct ai 모델을 오픈 소스화하여 ai 분야에서 회사 혁신의 새로운 장을 열었다고 합니다.

작은 언어 모델의 큰 잠재력

nemotron-mini-4b-instruct ai 모델은 역할극, 검색 증강 생성(rag) 및 기능 호출과 같은 작업을 위해 설계되었으며 더 큰 nemotron에 의해 정제되고 최적화된 작은 언어 모델(slm)입니다. -4 15b를 얻습니다.

nvidia는 가지치기, 양자화, 증류와 같은 고급 ai 기술을 사용하여 모델을 더 작고 효율적으로 만들며 특히 장치 측 배포에 적합합니다.

이러한 소형화는 롤플레잉 및 함수 호출과 같은 특정 시나리오에서 모델 성능에 영향을 미치지 않으므로 빠른 주문형 응답이 필요한 애플리케이션에 실용적인 선택이 됩니다.

이 모델은 minitron-4b-base 모델에서 미세 조정되었으며 llm 압축 기술을 사용합니다. 가장 중요한 기능 중 하나는 4096 컨텍스트 창 토큰을 처리할 수 있고 더 길고 일관된 응답을 생성할 수 있다는 것입니다.

아키텍처 및 기술 사양

nemotron-mini-4b-instruct는 효율성과 확장성을 보장하는 강력한 아키텍처로 유명합니다.

변환된 벡터의 차원을 결정하는 모델의 embedding size는 3072, multi-head attention은 32, mlp 중간 차원은 9216입니다. 대규모 입력 데이터 세트를 처리하는 경우에도 여전히 높은 정확도로 응답할 수 있습니다. 그리고 관련성.

또한 이 모델은 gqa(group query attention) 및 rope(rotated position embedding) 기술을 사용하여 텍스트 처리 및 이해 능력을 더욱 향상시킵니다.

이 모델은 transformer 디코더 아키텍처를 기반으로 하며 자동 회귀 언어 모델입니다. 즉, 이전 토큰을 기반으로 각 토큰을 생성하므로 일관된 대화 흐름이 중요한 대화 생성과 같은 작업에 이상적입니다.

역할극 및 기능 호출 애플리케이션

nemotron-mini-4b-instruct는 롤플레잉 애플리케이션에 탁월합니다. 대규모 마크업 용량과 최적화된 언어 생성 기능을 통해 ai가 중요한 응답을 생성해야 하는 가상 비서, 비디오 게임 또는 기타 대화형 환경에 내장될 수 있습니다.

nvidia는 모델이 이러한 시나리오, 특히 단일 또는 다중 턴 대화에서 최상의 결과를 출력할 수 있도록 특정 프롬프트 형식을 제공합니다.

또한 이 모델은 ai 시스템이 api 또는 기타 자동화된 프로세스와 상호 작용해야 하는 환경에서 점점 더 중요해지는 함수 호출에 최적화되어 있습니다. 정확하고 기능적인 응답을 생성하는 기능 덕분에 이 모델은 모델이 텍스트를 생성하고 지식 기반에서 정보를 검색 및 제공해야 하는 rag 시나리오에 매우 적합합니다.