notizia

Le aziende leader dell’intelligenza artificiale lottano per modelli piccoli, i costi crollano e risparmiano di più sulle bollette elettriche, accelerando la diffusione dell’intelligenza artificiale

2024-07-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Cose intelligenti (account pubblico:zhidxcom
Compilato da Meng Qiang
Redattore Yunpeng

Secondo i rapporti di Venture Beat, la scorsa settimana, Hugging Face, Mistral AI e OpenAI hanno lanciato i rispettivi piccoli modelli (SLM) il 16 e 18 luglio, promettendo di rendere popolari le capacità avanzate di elaborazione del linguaggio naturale. In passato, le aziende tecnologiche hanno gareggiato per perseguire reti neurali più grandi e complesse sul percorso dei modelli linguistici di grandi dimensioni. Venture Beat ritiene che questi piccoli modelli abbiano aperto nuove strade e possano anche influenzare il modo in cui le aziende utilizzano le soluzioni di intelligenza artificiale.

I modelli piccoli, come suggerisce il nome, sono relativi ai modelli linguistici di grandi dimensioni (LLM). Generalmente hanno meno parametri e requisiti di risorse di calcolo inferiori. Rispetto ai modelli linguistici di grandi dimensioni con parametri spesso dell’ordine di centinaia di miliardi o addirittura trilioni, i parametri dei tre nuovi modelli piccoli: SmolLM, Mistral NeMo e GPT-4o mini possono variare da centinaia di milioni a decine di miliardi, a seconda della formazione. volume. Il consumo energetico è inferiore a quello dei modelli linguistici di grandi dimensioni. Sebbene i tre modelli utilizzino metodi diversi per diffondere l’intelligenza artificiale, hanno tutti un obiettivo comune: portare potenti capacità di elaborazione del linguaggio a più dispositivi e applicazioni.

1. Come i piccoli modelli cambiano l’edge computing

Venture Beat ritiene che SmolLM di Hugging Face sia il più innovativo dei tre. È appositamente progettato per funzionare su dispositivi mobili e ha tre specifiche: 135 milioni, 360 milioni e 1,7 miliardi di parametri, che facilitano l'elaborazione dell'intelligenza artificiale sui dispositivi edge e risolvono i problemi chiave della privacy e della latenza dei dati.

L’importanza di SmolLM va ben oltre il miglioramento dell’efficienza. Consentire ai dispositivi edge di utilizzare l’elaborazione AI può consentire l’esecuzione delle applicazioni dei dispositivi sulla base di una bassa latenza e di un’elevata protezione della privacy. In passato, molte funzioni complesse dell’intelligenza artificiale non potevano essere realizzate a causa di problemi di privacy o di connessione. Con SmolLM, queste funzioni potrebbero diventare realtà.

Inoltre, Mistral AI ha lanciato il modello Mistral NeMo, che ha 12 miliardi di parametri e una finestra di contesto fino a 128k. Mistral NeMo si rivolge ai computer desktop e si posiziona tra i grandi modelli cloud e l'intelligenza artificiale mobile ultracompatta. Il primo è un modello AI su larga scala addestrato e gestito su una piattaforma di cloud computing, mentre il secondo è un dispositivo mobile con risorse limitate. come un telefono cellulare) e dispositivi indossabili).

Venture Beat ha affermato che il metodo informatico di Mistral NeMo potrebbe apportare notevoli cambiamenti nel campo aziendale. Il modello ha il potenziale per sfruttare l’hardware di livello consumer per democratizzare le complesse capacità di intelligenza artificiale che un tempo erano appannaggio dei giganti della tecnologia e degli istituti di ricerca ben finanziati. Ciò potrebbe aiutare vari settori a diffondere applicazioni basate sull’intelligenza artificiale, come l’ottimizzazione del servizio clienti e la fornitura di strumenti di analisi dei dati più sofisticati.

2. L'efficiente modello piccolo GPT-4o mini di OpenAI ha un ottimo prezzo

Anche OpenAI si è unita alla concorrenza dei modelli piccoli con il lancio di GPT-4o mini, definito il modello piccolo più conveniente sul mercato. Costa solo 15 centesimi per milione di token in input e 60 centesimi per milione di token in output. Venture Beat afferma che GPT-4o mini riduce notevolmente l'accesso al fondo di integrazione dell'IA.

Oltre a ciò, la strategia di prezzo di GPT-4o mini potrebbe generare una nuova ondata di innovazione guidata dall’intelligenza artificiale, soprattutto tra le startup e le piccole imprese. Riducendo significativamente il costo dell’integrazione dell’intelligenza artificiale, questo modello abbassa di fatto la barriera all’ingresso per l’adozione di soluzioni basate sull’intelligenza artificiale. Ventrue Beat ritiene che ciò possa accelerare l'innovazione tecnologica e la riforma in molteplici settori. Inoltre, questo spostamento verso modelli più piccoli riflette le nuove tendenze nella comunità dell’intelligenza artificiale: ricercatori e sviluppatori si concentrano sempre più su efficienza, accessibilità e applicazioni di nicchia. Questa tendenza può portare a soluzioni di intelligenza artificiale più mirate ed efficienti, ottimizzate per compiti e settori specifici.

3. I piccoli modelli promuovono l’innovazione tecnologica verde e riducono l’impronta di carbonio della tecnologia

Lo spostamento verso modelli più piccoli è in linea anche con le crescenti preoccupazioni sull’impatto ambientale dell’intelligenza artificiale. L’addestramento e il funzionamento di piccoli modelli consumano meno energia, il che può ridurre l’impronta di carbonio della tecnologia AI. Poiché le aziende tecnologiche devono affrontare una pressione crescente per essere sostenibili, Venture Beat ritiene che il basso consumo energetico e le basse emissioni del modello piccolo potrebbero diventare un importante punto di vendita.

Le implicazioni ambientali di questo spostamento verso modelli più piccoli potrebbero essere profonde. Con la crescente diffusione dell’intelligenza artificiale, il risparmio energetico derivante dalla proliferazione di modelli più efficienti potrebbe essere enorme. Ciò potrebbe consentire all’intelligenza artificiale di assumere un ruolo di leadership nell’innovazione verde piuttosto che continuare a contribuire al riscaldamento globale.

Tuttavia, l’ascesa dei modelli piccoli non è priva di sfide. Man mano che l’intelligenza artificiale diventa più onnipresente, le questioni relative ai pregiudizi, alla responsabilità e all’uso etico diventano più pressanti. Se non regolamentata, la diffusione dell’intelligenza artificiale attraverso piccoli modelli potrebbe amplificare i pregiudizi esistenti o creare nuovi dilemmi etici. Per gli sviluppatori e gli utilizzatori di piccoli modelli, oltre alle capacità tecniche, bisogna dare priorità anche alle questioni etiche.

Conclusione: il futuro dello sviluppo dell’IA punta alla diversificazione e alla specializzazione

Sebbene i modelli piccoli presentino vantaggi in termini di efficienza e generalizzabilità, la loro potenza di elaborazione potrebbe non corrispondere a quella dei modelli linguistici di grandi dimensioni in molti compiti a causa delle limitazioni nel numero di parametri. Venture Beat ha affermato che ciò dimostra che nel futuro panorama dello sviluppo dell'intelligenza artificiale ci saranno modelli linguistici di varie dimensioni e modelli più piccoli avranno aspetti specifici in cui sono bravi.

Guardando al futuro, ci aspettiamo di vedere fiorire lo sviluppo di modelli di intelligenza artificiale, che si tratti di un modello linguistico di grandi dimensioni o di un modello piccolo, un approccio unico per tutti non è consigliabile. La chiave è trovare un equilibrio tra le dimensioni del modello. prestazioni e requisiti applicativi specifici. Per le imprese e i decisori tecnici, questi tre piccoli modelli rappresentano uno spostamento verso soluzioni di intelligenza artificiale più efficienti, professionali e implementabili, offrendo nuove possibilità per l’integrazione dell’intelligenza artificiale negli ambienti aziendali. Per quanto riguarda la possibilità che i modelli di piccole dimensioni possano sostituire l’attuale predominio dei modelli di grandi dimensioni nel cloud, è ancora troppo presto per trarre conclusioni.

Fonte: VentureBeat