uutiset

Tehokas työkalu Llama 3.1 -mallien mukauttamiseen on täällä! NVIDIA rakentaa generatiivisen tekoälyvalimon ja nopeuttaa käyttöönottoa

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


älykkäitä asioita
AuthorZeR0
Toimittaja Mo Ying

Zhidongxi raportoi 24. heinäkuuta, että NVIDIA ilmoitti käynnistävänsä uuden NVIDIA AI Foundry -palvelun ja NVIDIA NIM -päätelmämikropalvelun. Yhdessä äskettäin julkaistun Meta Llama 3.1 -sarjan avoimen lähdekoodin mallien kanssa se tarjoaa vahvan tuen generatiiviselle tekoälylle maailmanlaajuisille yrityksille.

Llama 3.1 -suurkielimallissa on kolme parametrikokoa: 8B, 70B ja 405B. Mallit on koulutettu yli 16 000 NVIDIA Tensor Core -grafiikkasuorittimeen, ja ne on optimoitu NVIDIA-kiihdytettyä laskentaa ja ohjelmistoja varten niin datakeskuksessa, pilvessä kuin paikallisissa työasemissa, joissa on NVIDIA RTX -grafiikkasuorittimet, tai PC:issä, joissa on GeForce RTX -grafiikkasuoritin.

Aivan kuten TSMC on globaalien siruyritysten valimo, NVIDIA on myös rakentanut yritystason tekoälyvalimon, NVIDIA AI Foundryn.

NVIDIA:n perustaja ja toimitusjohtaja Jensen Huang sanoi: "Meta's Llama 3.1 avoimen lähdekoodin malli merkitsee kriittistä hetkeä globaaleille yrityksille generatiivisen tekoälyn käyttöönotossa. Llama 3.1 käynnistää yritysten ja toimialojen aallon, jotka luovat edistyneitä generatiivisia tekoälysovelluksia. NVIDIA AI Foundry Llama 3.1 on on integroitu koko prosessiin ja voi auttaa yrityksiä rakentamaan ja ottamaan käyttöön mukautettuja Llama-supermalleja."


NVIDIA DGX Cloud AI -alustalla toimiva NVIDIA on suunnitellut yhdessä maailman johtavien julkisten pilvien kanssa. NVIDIA AI Foundry tarjoaa päästä päähän -palvelun, jota voidaan käyttää räätälöityjen supermallien nopeaan rakentamiseen. Sen tavoitteena on tarjota yrityksille massiivinen tietojenkäsittely. resurssit edellyttäen Laskentaresursseja voidaan helposti laajentaa tekoälyn tarpeiden muuttuessa.

"NVIDIA AI Foundryn avulla yritykset voivat helposti luoda ja muokata haluamaansa edistyneimmät tekoälypalvelut ja ottaa ne käyttöön NVIDIA NIM:n kautta", sanoi Metan perustaja ja toimitusjohtaja Mark Zuckerberg.

Yritykset, jotka tarvitsevat lisää koulutusdataa verkkotunnuskohtaisten mallien luomiseen, voivat käyttää omia tietojaan sekä Llama 3.1 405B- ja NVIDIA Nemotron Reward -mallien tuottamia synteettisiä tietoja kouluttaakseen näitä supermalleja tarkkuuden parantamiseksi. Asiakkaat, joilla on omat harjoitustiedot, voivat mukauttaa Llama 3.1 -malleja NVIDIA NeMon avulla ja parantaa mallien tarkkuutta entisestään Domain Adaptive Pre-trainingin (DAPT) avulla.

NVIDIA ja Meta työskentelevät myös yhdessä tarjotakseen Llama 3.1:lle tislausmenetelmän, jonka avulla kehittäjät voivat luoda pienempiä mukautettuja Llama 3.1 -malleja generatiivisia tekoälysovelluksia varten. Tämä antaa yrityksille mahdollisuuden käyttää Llama-käyttöisiä tekoälysovelluksia nopeutetussa infrastruktuurissa, kuten tekoälytyöasemissa ja kannettavissa tietokoneissa.

Kun mukautettu malli on luotu, yritykset voivat rakentaa NVIDIA NIM -päätelmämikropalveluja käyttääkseen luokkansa parhaita koneoppimistoimintoja (MLOps) ja tekoälyä haluamallaan pilvialustaan ​​ja NVIDIA-sertifioituihin järjestelmiin maailmanlaajuisilta palvelinvalmistajilta (AIOps) alustat käyttävät näitä malleja tuotannossa.


NIM-mikropalvelut auttavat ottamaan Llama 3.1 -malleja tuotantoon jopa 2,5 kertaa suuremmalla suorituskyvyllä kuin päättelyn suorittaminen ilman NIM:ää.


Tutustu Llama 3.1 -mallien NVIDIA NIM -päätelmämikropalveluihin osoitteessa ai.nvidia.com, jotta Llama 3.1 -mallien käyttöönottoa tuotantotason tekoälyä voidaan nopeuttaa.

Yhdistämällä Llama 3.1 NIM -mikropalvelut uuteen NVIDIA NeMo Retriever NIM -mikropalveluihin, voidaan rakentaa edistyneitä hakutyönkulkuja tekoälyä ohjaaville ohjaajille, avustajille ja digitaalisille ihmishahmoille.


Käyttämällä uutta NVIDIA NeMo Retriever NIM -päätelmämikropalvelua Retrieval Enhanced Generation (RAG) -käyttöön, yritykset voivat ottaa mukautettuja Llama-supermalleja ja Llama NIM -mikropalveluita tuotantoon parantaakseen vastaustarkkuutta.

Kun NeMo Retriever NIM -mikropalvelu yhdistetään Llama 3.1 405B:n NVIDIA NIM-päätelmämikropalveluun, se tarjoaa erittäin korkean hakutarkkuuden avoimiin ja kaupallisiin tekstikysymyksiin vastaamiseen RAG-työnkuluissa.


NVIDIA AI Foundry yhdistää NVIDIA-ohjelmiston, infrastruktuurin ja asiantuntemuksen avoimiin yhteisömalleihin, teknologiaan ja NVIDIA AI -ekosysteemin tukeen. NVIDIA AI Enterprise -asiantuntijat ja globaalit järjestelmäintegraattorikumppanit työskentelevät AI Foundry -asiakkaiden kanssa nopeuttaakseen koko prosessia kehityksestä käyttöönottoon.


Ammattimainen palveluyritys Accenture on ensimmäinen, joka käyttää NVIDIA AI Foundrya Accenture AI Refinery -kehyksen avulla luodakseen mukautettuja Llama 3.1 -malleja itselleen ja asiakkaille, jotka haluavat käyttöönsä luovien tekoälysovellusten heijastavan heidän kulttuuriaan, kieltään ja toimialaansa.

Terveydenhuollon, energian, rahoituspalvelujen, vähittäiskaupan, liikenteen, televiestinnän ja muiden teollisuudenalojen yritykset käyttävät jo Llamalle NVIDIA NIM -mikropalveluja. Ensimmäiset yritykset, jotka käyttivät uusia NIM-mikropalveluja Llama 3.1:lle, ovat Aramco, AT&T, Uber jne.

Sadat NVIDIA NIM -kumppanit, jotka tarjoavat yritys-, data- ja infrastruktuurialustoja, pystyvät nyt integroimaan nämä uudet mikropalvelut tekoälyratkaisuihinsa, mikä tuottaa generatiivisen tekoälyn NVIDIA-yhteisölle, jossa on yli 5 miljoonaa kehittäjää ja 19 000 startup-yritystä. Tarjoa apua.

Tuotantotuki Llama 3.1 NIM- ja NeMo Retriever NIM -mikropalveluille on saatavilla NVIDIA AI Enterprisen kautta. NVIDIA Developer Program -ohjelman jäsenillä on pian ilmainen pääsy NIM-mikropalveluihin, jotta he voivat suorittaa tutkimusta, kehitystä ja testausta haluamallaan infrastruktuurilla.