uutiset

Suurten mallien suunta on muuttunut ja OpenAI Apple on tehnyt u-käännöksen

2024-07-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


älykkäitä asioita
AuthorZeR0
Toimittaja Mo Ying

Generatiivisella tekoälyllä näyttää olevan näkymätön malli: silloin tällöin tapahtuu järkyttävä laaja "autokolari".

Pelkästään tänä vuonna julkaistiin Google Gemini 1.5 Pro -malli, OpenAI-videosukupolvimalli Sora ja OpenAI GPT-4o julkaistiin Google I/O -kehittäjäkonferenssissa, jolloin katsojat ympäri maailmaa voivat haistaa kovaa kilpailua. hegemonia suurten mallien joukossa.

Jos kaikki aikaisemmat yhteensattumat viittaavat siihen, että OpenAI sieppasi Googlen tarkoituksella, niin viime viikolla Hugging Face, OpenAI, Mistral ja Apple julkaisivat peräkkäin tehokkaimmat kevytmallinsa, mikä on ehdottomasti tekoälyteollisuuden uusin trendi.

Nyt suuret tekoälymallit eivät ole enää pelkkää kilpa-ajoa"Isompi ja vahvempi", ja kääritty rajusti"Tee pieniä asioita ja tee hyviä asioita"

GPT-4o:n ylittäminen ei ole enää ainoa KPI. Suuret mallit ovat alkaneet kilpailla markkinoista. Tehdäksemme käyttäjiin vaikutuksen meidän ei tarvitse vain luottaa tekniseen vahvuuteen, vaan myös osoittaa, että omat mallimme ovat kalliimpia -tehokas--Malli on pienempi samalla suorituskyvyllä, ja suorituskyky on korkeampi samoilla parametreilla ja säästää rahaa.


▲ Viime viikolla julkaistut kevyet mallit GPT-4o mini ja Mistral NeMo ovat erittäin johtavia kustannustehokkuuden suhteen (Lähde: Artificial Analysis)

Itse asiassa tämä teknologinen suuntaus, jossa "suuret mallit rullaavat takaisin miniatyrisoitumiseen", alkoivat kehittyä viime vuoden toisella puoliskolla.

Pelinvaihtajia on kaksi yritystä. Yksi on ranskalainen AI-startup Viime vuoden syyskuussa se käytti suurta mallia, jossa oli 7 miljardia parametria, voittaakseen Llama 2:n 13 miljardilla parametrilla. Toinen on kiinalainen tekoäly Face the Wall Intelligence Tämän vuoden helmikuussa lanseerattiin keskittyneempi päätymalli MiniCPM, jonka suorituskyky ylittää Llama 2 13B:n vain 2,4 miljardilla parametrilla.

Molemmat startup-yritykset ovat tunnettuja kehittäjäyhteisössä, ja monet mallit ovat olleet avoimen lähdekoodin hotlistan kärjessä. Erityisesti Wall-Facing Intelligence, joka oli haudottu Tsinghuan yliopiston Natural Language Processing Laboratorysta, aiheutti kohua tänä vuonna, kun sen multimodaalinen malli "kuorittiin" yhdysvaltalaisten huippuyliopistojen toimesta alkuperäinen työ on saanut tunnustusta akateemisissa piireissä kotimaassa ja ulkomailla, joten kotimaiset avoimen lähdekoodin tekoälymallit ovat ylpeitä itsestään.

Apple on myös viime vuodesta lähtien alkanut tutkia päätepuolen malleja, jotka soveltuvat paremmin matkapuhelimiin. OpenAI, joka on seurannut laajaa ja väkivaltaista laajentumista, on suhteellisen yllättävä uusi tulokas. Kevyen mallin GPT-4o minin lanseeraus viime viikolla tarkoittaa, että iso malliveli teki aloitteen astuakseen "alttarilta" ja alkoi seurata alan trendiä yrittäen hyödyntää halvempia ja helpommin hankittavia malleja. laajemmat markkinat.

Vuosi 2024 tulee olemaan kriittinen vuosi suurten mallien "pienennyksen" kannalta!


▲Vuonna 2024 äskettäin julkaistujen kevyiden yleisten kielimallien epätäydelliset tilastot sisältyvät vain yleiseen kielimalliin parametrimäärällä ≤8B, joka voidaan ottaa käyttöön laitepuolella, eikä multimodaalisia malleja ole mukana (lähde: Zhidongxi)

1. "Mooren laki" suurten mallien aikakaudella: vain tehokkuus voi johtaa kestävyyteen

Tällä hetkellä laaja mallitutkimus ja -kehitys on vajoamassa hitaan:Voimakkaasti ihme

Vuonna 2020 OpenAI:n paperi vahvisti, että mallin suorituskyvyn ja mittakaavan välillä on vahva korrelaatio. Niin kauan kuin nielet enemmän korkealaatuista dataa ja harjoittelet suurempaa mallia, voit saada paremman suorituskyvyn.


Tätä yksinkertaista mutta tehokasta polkua seuraten kahden viime vuoden aikana on ollut nopea maailmanlaajuinen kilpailu suurempien mallien tavoittelusta. Tämä piilee algoritmisen hegemonian piilossa Vain joukkueilla, joilla on riittävästi varoja ja laskentatehoa, on pääomaa osallistua kilpailuun pitkään.

Viime vuonna OpenAI:n toimitusjohtaja Sam Altman paljasti, että GPT-4:n koulutuksen hinta on vähintään100 miljoonaa dollaria . Korkean tuoton liiketoimintamallin puuttuessa jopa suurilla teknologiayrityksillä, joilla on syvät taskut, on vaikea varaa pitkäaikaisiin investointeihin kustannuksista riippumatta. Ekologinen ympäristö ei voi sietää tämän pohjattoman rahanpolttopelin sallimista.

Suorituskykyero suurten kielimallien välillä pienenee näkyvästi. Vaikka GPT-4o on vakaasti ensimmäinen, Claude 3 Opuksen ja Gemini 1.5 Pron vertailupisteiden ero pysyy ennallaan. Joissakin ominaisuuksissa kymmenet miljardit suuret mallit voivat jopa saavuttaa paremman suorituskyvyn. Mallin koko ei ole enää ainoa suorituskykyyn vaikuttava tekijä.

Kyse ei ole siitä, että suuret huippumallit olisivat houkuttelemattomia, vaan se, että kevyet mallit ovat kustannustehokkaampia.

Alla oleva kuva on tekoälyinsinööri Karina Ngugenin sosiaalisilla alustoilla tämän vuoden maaliskuun lopussa jakama tekoälyn johtopäätösten kustannustrendikaavio. Se kuvaa selkeästi suurten kielimallien suorituskyvyn MMLU-benchmarkissa ja sen kustannusten välistä suhdetta vuodesta 2022 lähtien: Yli. ajan kuluessa kielimalli saa korkeammat MMLU-tarkkuuspisteet ja siihen liittyvät kustannukset laskevat merkittävästi. Uuden mallin tarkkuus on noin 80 %, kun taas kustannustehokkuus on suuruusluokkaa pienempi kuin vielä muutama vuosi sitten.


Maailma muuttuu erittäin nopeasti, ja viime kuukausina on ollut aalto uusia kustannustehokkaita kevyitä malleja.


▲ Pienemmät mallit voivat saavuttaa erinomaisen suorituskyvyn pienemmillä kustannuksilla (Lähde: Embedded AI)

"Kilpailu suurista kielimalleista kiristyy - taaksepäin AI-teknologiaguru Andrej Karpathy vetoaa: "Nähdään hyvin, hyvin pieniä malleja "ajattelevan" erittäin hyvin ja luotettavasti."

Mallin kyky ÷ laskennassa mukana olevat malliparametrit = tietotiheys , tätä mittausulottuvuutta voidaan käyttää kuvaamaan, että malleilla, joilla on sama parametriasteikko, voi olla vahva älykkyys. Kesäkuussa 2020 julkaistussa suuressa GPT-3-mallissa on 175 miljardia parametria.Tämän vuoden helmikuussa saman suorituskyvyn saavuttaneen seinää päin olevan älykkään MiniCPM-2.4B-mallin parametrikoko on pienennetty 2,4 miljardiin, mikä vastaa tietotiheyden kasvua noin86 kertaa


Näihin suuntauksiin perustuen Liu Zhiyuan, Tsinghuan yliopiston tietojenkäsittelytieteen laitoksen pysyvä apulaisprofessori ja seinäälyn johtava tutkija, esitti äskettäin mielenkiintoisen näkökulman:Suurten mallien aikakaudella on oma "Mooren laki"

erityisesti,Tietojen, laskentatehon ja algoritmien koordinoidun kehittämisen myötä suurten mallien tietotiheys jatkaa kasvuaan ja kaksinkertaistuu keskimäärin kahdeksan kuukauden välein.


▲OpenCompass-luettelon muutoksista voimme nähdä, että pienet parametrit ja korkean suorituskyvyn mallit ovat tulleet trendiksi

Sirun piiritiheyttä nostamalla saman laskentatehon omaavat laskentalaitteet kehittyvät useaan huoneeseen mahtuvista supertietokoneista taskuissa kuljetettaviksi matkapuhelimiksi. Myöhempi suurten mallien kehitys seuraa samaa kaavaa. Liu Zhiyuan nimesi ehdottamansa ohjaavan lain "seinämäiseksi laiksi".

Jos tämä trendi jatkuu,Kouluttaakseen 100 miljardin parametrin mallin se pystyy saavuttamaan 50 miljardin parametrin mallin ominaisuudet kahdeksassa kuukaudessa, se voidaan saavuttaa vain 25 miljardilla parametrilla.

2. Voimat jakautuvat useisiin suuntiin: suljetun lähdekoodin hintasota on täydessä vauhdissa ja avoimen lähdekoodin Kiina, Yhdysvallat ja Eurooppa kilpailevat toisiaan vastaan.

Tällä hetkellä suuren mallin kevytsarjaan osallistuvat pelaajat on jaettu useisiin ryhmiin.

OpenAI, Google ja Anthropic ovat kaikki valinneet suljetun lähdekoodin reitin. Heidän lippulaivamallinsa, kuten GPT-4o, Claude 3.5 Sonnet ja Gemini 1.5 Pro, hallitsevat vahvimmat suorituskykytasot, ja näiden mallien parametriskaala yltää satoihin miljardeihin tai jopa biljooniin.

Kevyt malli on riisuttu versio lippulaivamallistaan. Viime viikolla julkaistun OpenAI:n jälkeen GPT-4o ministä on tullut markkinoiden kustannustehokkain alle 10B:n vaihtoehto, koska se ylittää Gemini Flashin ja Claude Haiku korvasi GPT-3.5:n käyttäjien ilmaiseen käyttöön ToB laski API-hintaa jyrkästi yhden kourallisen, mikä pienensi kynnystä suurten mallien tekniikalle.


Andriy Burkov, "Machine Learning Engineering" -kirjan kirjoittaja, päättelee, että GPT-4o minin parametritiedot ovat noin 7B hintaan perustuen. Seinälle päin oleva Intelligence-toimitusjohtaja Li Dahai spekuloi, että GPT-4o mini on "leveä MoE" -malli, jossa on paljon asiantuntijoita, eikä laitepuolen malli. Se on sijoitettu kustannustehokkaaksi pilvimalliksi, joka vähentää huomattavasti teollisuutta suurten mallien käyttöönottokustannukset.

Avoimen lähdekoodin kevytmallileiri on vieläkin suurempi, ja edustajia on Kiinasta, Yhdysvalloista ja Euroopasta.

Kotimainen Alibaba, Wall-Facing Intelligence, SenseTime ja Shanghai Artificial Intelligence Laboratory ovat kaikki avoimen lähdekoodin kevyitä malleja.Niistä Alibaban Qwen-sarjan malleja käytetään usein kevyiden mallien vertailutesteissä, ja MiniCPM-sarjan seinäälyn mallit ovat myös esimerkkejä pienten parametrien käyttämisestä suurten mallien hyppäämiseen sekunneissa, ja niitä kiitetään avoimen lähdekoodin yhteisössä.

Face Wall Intelligence on eteenpäin katsova yrittäjätiimi Vuonna 2020 se otti johtoaseman suuren mallin käyttöönotossa. Se aloitti tutkimuksen tehokkaan hienosäätötekniikan avulla AI Agentin viime vuoden alussa ja julkaisi yli 100 miljardia AI-agenttia elokuussa Modal suuri malli, soveltaa suuria malli- ja agenttitekniikkaa rahoitukseen, koulutukseen, valtion asioihin, älykkäisiin päätelaitteisiin ja muihin skenaarioihin, muotoile laitteen suunta. pilviyhteistyötä vuoden lopulla ja lanseeraa sitten intensiivisesti useita tehokkaita, vähän energiaa kuluttavia laitepuolen malleja tänä vuonna.

Viimeisen kuuden kuukauden aikana Wallface Intelligence on julkaissut perusmallit MiniCPM 2.4B ja MiniCPM 1.2B, pitkätekstimallin MiniCPM-2B-128k, multimodaalimallin MiniCPM-V 2.0 ja GPT-4V suorituskykytason MiniCPM- Llama3-V 2.5 Hybridi-asiantuntijamalli MiniCPM-MoE-8x2B jne. Toistaiseksi MiniCPM-sarjan latausten kokonaismäärä on saavuttanut lähes 950 000 ja 12 000 tähteä.

Tämä startup otti käyttöön myös energiatehokkaamman MiniCPM-S 1.2B -mallin tehokkaan harvaan arkkitehtuurin avulla: tietotiheys saavutti 2,57 kertaa saman mittakaavan tiheän MiniCPM 1.2B -mallin ja 12,1 kertaa Mistral-7B:n. "seinään päin oleva laki".


▲Seinään päin oleva älykäs MiniCPM-sarjan malli toistuu nopeasti ja parantaa tietotiheyttä

Kevyessä avoimen lähdekoodin mallileirissä Yhdysvalloissa suuret teknologiayritykset, mukaan lukien Meta, Microsoft, Google, Apple, Stability AI jne., osallistuvat runsaasti, ja tarina "takaa aalto lyö aallon eteenpäin" ranta" esitetään usein.

Hugging Face julkaisi viime viikolla myös SmolLM-mallit, joissa on kolme parametria: 135M, 360M ja 1.7B Verrattuna samankokoisiin malleihin, 1.7B-versio on ylittänyt Microsoft Phi-1.5:n useissa vertailutesteissä. , Google MobileLLM-1.5B ja Alibaba Qwen2-1.5B.

Apple, joka on kuuluisa "suljetusta", on tunnettu avoimen lähdekoodin koulu AI:n alalla: se julkaisi Ferretin multimodaalisen mallin viime vuoden lokakuussa tämän vuoden huhtikuussa, se julkaisi neljä OpenELM-esikoulutusta mallit, joiden parametrit vaihtelevat 2,7 miljardista 30 miljardiin ja Uusimpien DCLM-mallien joukossa version 6.9B suorituskyky ylittää Mistral 7B:n ja version 1.4B MMLU-pistemäärä ylittää SmolLM-1.7B:n.


▲ Apple käyttää DCLM-Baselinea mallin kouluttamiseen (oranssi), joka näyttää hyvää suorituskykyä verrattuna suljetun lähdekoodin malleihin (risteykset) ja muihin avoimen lähdekoodin tietojoukkoon ja malleihin (ympyrät)

Edustaja Euroopassa ei ole kukaan muu kuin ranskalainen isomalli yksisarvinen Mistral AI.Se julkaisi juuri viime viikolla Mistral Nemo 12B -pienen kuppimallin, joka tukee 128k-kontekstinkäsittelyä. Sen suorituskyky ylittää Google Gemma 2 9B:n ja Llama 2 8B:n .

Nämä edistysaskeleet osoittavat suurten mallien pienentämisen sovellusmahdollisuudet.

Clem Delangue, Hugging Facen perustaja ja toimitusjohtaja, ennusti: "Pienemmät, halvemmat, nopeammat ja henkilökohtaisemmat mallit kattavat 99 % käyttötapauksista . Et tarvitse miljoonan dollarin Formula 1 -autoa ajaaksesi töihin joka päivä, etkä tarvitse pankin asiakaschatbotia kertomaan sinulle elämän tarkoituksesta! "

3. Miten sinusta tuli suuren malliteollisuuden rahansäästöasiantuntija?

Suurten mallien takaisinkelaus ja pienentäminen on väistämätön trendi, että tekoäly hyödyttää kaikkia.

Kaikki sovellukset eivät vaadi tehokkainta suurta mallia. Yrityskilpailu huomioi kustannustehokkuuden ja painottaa korkeaa laatua ja alhaista hintaa Eri skenaarioissa ja yrityksillä on hyvin erilaisia ​​vaatimuksia tuotannon laadulle ja kustannustehokkuudelle.

Erittäin suuret mallit tuovat kehittäjille jyrkkiä oppimiskustannuksia, ja koulutuksesta käyttöönottoon vie paljon vaivaa. Virtaviivaisempi malli voi alentaa panos-tuotossuhdetta ja käyttää vähemmän varoja, dataa, laitteistoresursseja ja koulutusjaksoja kilpailukykyisten mallien rakentamiseen, mikä vähentää infrastruktuurikustannuksia, auttaa parantamaan käytettävyyttä ja nopeuttamaan mallin käyttöönottoa ja käyttöönottoa.


▲ Apple DataComp-LM -paperin mukaan mitä vähemmän malliparametreja, sitä vähemmän laskentatehoa ja aikaa tarvitaan harjoitteluun.

Tietyissä sovelluksissa kevyet mallit vaativat vähemmän tietoa, joten niitä voidaan helpommin hienosäätää tiettyjä tehtäviä varten tarpeitasi vastaavan suorituskyvyn ja tehokkuuden saavuttamiseksi. Virtaviivaisen arkkitehtuurin ansiosta tämän tyyppinen malli vaatii vähemmän tallennuskapasiteettia ja laskentatehoa. Sen jälkeen, kun suunnittelu on optimoitu päätelaitteen laitteistoa varten, se voi toimia paikallisesti kannettavissa tietokoneissa, älypuhelimissa tai muissa pienissä laitteissa pienellä viiveellä, helpolla pääsyllä ja suojauksella. Tietosuoja- ja turvallisuusedut varmistavat, että henkilötietoja ei siirretä ulkopuolisille.

Vaikka kevyt korkean suorituskyvyn malli on pieni, sen on oltava "Käytä rajoitettua laskentatehoa ja energiankulutusta tiedon tiivistämiseksi malliksi, jolla on pienemmät parametrit"Tekninen kynnys ei ole matala.

Koulutusprosessi onEnsin isommaksi, sitten pienemmäksi , tislaamalla tiedon ydin monimutkaisista suurista malleista. Esimerkiksi Googlen pienkuppi-multimodaalimalli Gemma-2 on jalostettu 27B-mallin tietämyksellä.

Mutta mitä tulee tiettyihin teknisiin reitteihin, eri pelaajilla on erilaisia ​​lähestymistapoja.

Esimerkiksi sisäänharjoitustiedot Toisaalta Meta syötti ylpeänä Llama 3 15T -tokeneita harjoitusdataa. Microsoft, Apple jne. keskittyvät harjoitustietojoukkojen optimointiin ja tietomenetelmien innovaatioon Microsoft Phi-3 käyttää vain 3.3T-tunnuksia, ja Apple DCLM 7B käyttää vain 2.6T-tunnuksia. Apple DataComp-LM -julkaisun mukaanHarjoitustietosarjojen parantaminen voi saavuttaa tasapainon laskennan ja suorituskyvyn välillä, mikä vähentää koulutuskustannuksia . Äskettäin viime viikolla julkaistu Mistral NeMo pakkaa tekstiä ja koodia tehokkaammin kuin aiemmat mallit käyttämällä kehittynyttä Tekken-taggeria.

"Pienentyminen" vaatii edelleenArkkitehtuurin innovaatio . Esimerkiksi Applen OpenELM-malli suorittaa hierarkkisen hienosäätösuunnittelun laitteiston pullonkauloihin parantaakseen käyttötehokkuutta päätypuolella. Seinään päin oleva älykäs MiniCPM-S 1.2B -tehokas malli saavuttaa lähes 88 %:n harvoin, mikä mahdollistaa täyden linkkikerroksen. kulutus pienenee 84 %:iin ja dekoodausnopeus on 2,8 kertaa suurempi kuin vastaavassa tiheässä mallissa suorituskyvystä tinkimättä.


▲Tekninen luokitus resurssitehokkaiden suurten kielimallien toteuttamiseen (Lähde: "Beyond Efficiency: A Systematic Survey of Resource-Efficient Large Language Models" -paperi)

Suuri malli on systemaattinen projekti, jota on tutkittava."tekoäly tiede"Suunta siisJatkuvan iteroinnin avulla teknisiä ratkaisuja, kuten algoritmeja, arkkitehtuuria, tiedonhallintaa ja multimodaalista fuusiota, voimme kouluttaa malleja luotettavammin, ennakoitavammin ja laadukkaammin., parantaa jatkuvasti suurten mallien tietotiheyttä.

Jotta malleja voidaan kouluttaa ja optimoida nopeasti, tarvitaan tehokas tuotantolinja.On tarpeen rakentaa koko prosessin työkalusarja ja muodostaa tehokas ja skaalautuva mallikoulutusstrategia. . Esimerkiksi seinään päin oleva mallihiekkalaatikkomekanismi saavuttaa nopean mallin ominaisuuksien muodostumisen käyttämällä pieniä malleja suurten mallien suorituskyvyn ennustamiseen ja jakamalla hyperparametrikaavioita suurten ja pienten mallien välillä.


▲ MiniCPM 1.2B:n ja MiniCPM-S 1.2B:n päättelyn dekoodausnopeuden todellinen vertailu

Nopeuttaakseen suurten mallien käyttöä älypäätteissä Facewall Intelligence on äskettäin hankkinut avoimen lähdekoodin alan ensimmäisen käyttövalmiin asiakaspuolen suuren mallityökalusarjan "MobileCPM" ja tarjonnut lastenhoitajatyylisiä opetusohjelmia, jotka auttavat kehittäjiä integroimaan suuria malleja. sovelluksiin yhdellä napsautuksella.


▲ Seinään päin oleva älykäs päätepuolen suuri mallityökalusarja "MobileCPM"

Tämä vuosi osuu samaan aikaan laitepuolen tekoälyn räjähdysmäisen kasvun kanssa Sirujättiläisistä, kuten Intel, Nvidia, AMD ja Qualcomm, suuriin AI PC- ja älypuhelinvalmistajiin, ne kaikki mainostavat erilaisia ​​laitepuolen tekoälysovelluksia. Päätevalmistajat ovat alkaneet yhdistää voimansa yleisten mallien valmistajien kanssa edistääkseen kevyiden mallien käyttöönottoa laajassa valikoimassa päätelaitteita.

Päätypuolen sirujen suorituskyvyn vahvistuessa ja mallitiedon tiheyden kasvaessa päätypuolen laitteilla paikallisesti ajettavat mallit kasvavat ja paranevat.Nyt GPT-4V voi toimia terminaalin puolella, Liu Zhiyuan ennustaaSeuraavan vuoden aikana GPT-3.5-tason mallit voidaan ottaa käyttöön laitepuolella ja seuraavan kahden vuoden aikana GPT-4o-tason mallit voidaan ottaa käyttöön päätypuolella.

Johtopäätös: Aloita suuri mallikilpailu, joka ei polta hulluja rahaa

Tekniikan maailmassa historiallinen trendi pienentyä, halventaa ja helpompi käyttää toistuu aina. Keskustietokoneiden aikakaudella tietokoneet olivat huippuluokan luksustuotteita, jotka olivat saatavilla vain rikkaille ja eliittille. Minitietokoneiden aikakauteen tullessa tekniikan kehitys on tehnyt tietokoneista entistä kannettavampia ja helpompia käyttää, ja tietokoneet ja matkapuhelimet ovat tulleet suuren yleisön jokapäiväiseen työhön ja elämään.

Aivan kuten tarvitsemme supertietokoneita, joissa on valtava laskentateho ja matkapuhelimia, jotka tavalliset ihmiset voivat laittaa taskuihinsa, generatiivisen tekoälyn aikakausi vaatii erittäin älykkäitä suuria malleja, jotka ovat lähempänä käyttäjiä, kustannustehokkaampia ja pystyvät vastaamaan tiettyihin sovelluksiin kysynnän malli.

OpenAI GPT-4o on edelleen tehokkaimpien AI-suurten mallien huipulla, mutta se ei ole enää yhtä voittamaton kuin ennen. Useat GPT-4-tason suuret mallit ovat saavuttaneet saman suorituskyvyn. Samaan aikaan kompaktimmat ja tehokkaammat suuret mallit haastavat "isompi on parempi" -konseptin. Uuden trendin "käyttämällä pienestä tehdä iso" odotetaan muuttavan tekoälyn kehitystä ja avaavan uusia mahdollisuuksia toteuttamiseen. tekoälyä yritys- ja kuluttajaympäristöissä.

Siirtyminen miniatyrisointiin merkitsee suurta muutosta tekoälyteollisuudessa. Suuret mallikilpailut ovat alkaneet siirtyä suorituskyvyn parantamiseen keskittymisestä todellisen maailman yksityiskohtaisempiin tarpeisiin. Tämän villityksen keskellä Kiinan avoimen lähdekoodin valta, jota edustaa seinää päin oleva älykkyys, kasvaa voimakkaasti useiden teknisten innovaatioiden avulla se varmistaa suurten mallien tietotiheyden lain taloudellisesti kannattavammalla tavalla ja edistää viime kädessä niiden käyttöä. suuria malleja käytännön sovellusskenaarioissa.