nuntium

Microsoft et NVIDIA sponsio exempla parva sunt.

2024-08-26

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

In evolutione intellegentiae artificialis, olim gigantes technologiae magnarum exempla linguarum evolvere contenderunt, nunc nova inclinatio orta est: parvae linguae exempla (SLM) paulatim emergunt, et praeteritum conceptum "maior melior est" provocans.

Visual China

Die 21 Augusti, locali tempore, Microsoft et NVIDIA successive emissa sunt recentissima exemplaria linguae parvae-Phi-3.5-mini-instrue et Mistral-NeMo- Minitron8B. Praecipuum punctum venditionis utriusque exemplorum est quod bonam proportionem praebent inter subsidia computandi usu et operando perficiendi. Aliqualiter exercendi exempla maiora etiam aemulari possunt.

Clem Delangue, CEO intelligentiae artificialis initium Hugging Facie, ostendit scenarios usui usque ad 99% per SLM solvi posse et praedictum 2024 annum SLM futurum esse. Secundum statisticam incompletam, gigantes technologiae inter Meta, Microsoft et Google 9 parva exemplaria hoc anno emiserunt.

Magna forma disciplina costs oriri

Ortus SLM accidens non est, sed proxime ad provocationes magnarum exemplorum (LLM) secundum emendationem et consummationem subsidiorum perficiendi.

Comparatio perficiendi mense Aprili ab AI startups Vellum et Hugging Face dimissa ostendit effectum intermedium inter LLMs celeriter occludere, praesertim in operibus specificis sicut quaestiones multiplices, ratiocinationes et problemata mathematica, ubi differentiae summorum exemplorum sunt praegrandes. . Exempli gratia, in multiplicibus electionibus quaestionibus Claude 3 Opus, GPT-4, et Gemini Ultra omnes accurationem super 83% consecuti sunt, consequenter opera Claude3 Opus, GPT-4, et Gemini 1.5Pro omnibus accurationem rerum super 92%.

Gary Marcus, caput quondam Uber AI, ostendit: "Censeo omnes dicere GPT-4 gradum ante GPT-3.5 esse, sed in plus quam anno ex quo tunc saltus non fuit".

Comparata cum emendatione limitata perficiendi, institutio sumptus LLM constanter surgit. Exemplaria haec instituendi requirit ingentes copiae notitiarum et centenis decies centena milia vel etiam trillions parametri, unde fit in consummatione excellentissima ope- rarum. Consummatio computandi vis et industria requiritur ad instituendum et currendum LLM vacillat, difficultatem facit pro parvis consociationibus vel individuis ad nucleum LLM progressum participandum.

Internationalis Energy Agency aestimat consumptionem electricitatis ad centra data, cryptocurrentiam et intelligentiam artificialem fere aequiparaturum esse cum consummatione electricitatis Iaponiae ab MMXXVI.

OpenAI CEO Altman semel in eventu MIT dixit quod institutio GPT-4 minimum centum decies centena milia constaret, cum Anthropicus CEO Dario Amodei praedixit sumptus disciplinae exemplar $ 100 miliardis in futuro consequi posse.

Accedit multiplicitas instrumentorum et technicarum utendi LLM, addit etiam ad elit curvam discendi. Totum processum a exercitatione ad instruere longum tempus accipit tarditatem evolutionis. Studium ex Universitate Cantabrigiensi ostendit posse societates 90 dierum capere vel plures ad exemplar discendi apparatus explicandi.

Alia quaestio maioris momenti apud LLM est quod prona est ad "illusionem" - hoc est, quod exemplar generatur ab exemplari rationabili videtur, sed revera falsa est. Hoc est, quia LLM eruditur ad praedicere proximum verbum verisimillimum secundum exemplaria in notitia, quam vere cognoscens indicium. Quam ob rem, LLM falsa enuntiationes confidenter generare, facta fabricare, vel conceptus finitimus in absurdis modis coniungi possunt. Quomodo has "illusiones" deprehendere et minuere continua est provocatio in exemplaribus certarum et fidedignorum evolvendis.

Exempla parva minuere sumptibus

Sollicitudo de energia LLM necessitatum, necnon opportunitates mercaturae inceptis pluribus AI optionibus diversis providendis, societates technologias sensim ad SLM mentem suam convertunt.

"Quotidie notarii oeconomici nuntii" animadverterunt tam AI satuss sicut Arcee, Sakana AI et Faciem Hugging, ac gigantes technologias, collocatores et clientes per SLM et modos oeconomicos magis allicientes.

Antea, Google, Meta, OpenAI et Anthropica omnia parva exemplaria dimisit quae pressiora et flexibilia sunt quam praetoriae LLM. Hoc non solum evolutionem et sumptuum instruere minuit, sed etiam negotiatores mercatores cum solutione viliori praebet. Sollicitudines crescentes inter collocatores datis de magnis sumptibus et incertis reditibus AI ventures, plures turmas technicas hanc viam eligere possunt. Etiam Microsoft et NVIDIA parva exempla sua nunc imposuerunt (SLM).

SLMs versiones turpis LLMs cum paucioribus parametris et simplicioribus consiliis sunt, et minus temporis notitias et exercitationes exigunt, sicut minuta vel horae. Inde SLM efficaciorem et faciliorem ad parvas machinas explicandas facit. Exempli causa, in telephoniis gestabilibus immergi possunt sine supercomputatione facultates sumentes, sumptus minuentes et docilitatis signanter meliores.

Alia maior utilitas SLM est eius specialis applicationis specialis. SLMs intendunt in munia specifica seu ditiones, quae efficaciores efficit in applicationibus practicis. Exempli gratia, SLMs saepe exempla generalia-proposita in analysi opi- nionis formant, entitatem agnitionem nominatam, vel interrogationem specialem domicilii respondentem. Haec customization permittit negotia ad exempla creandi quae efficaciter ad suas specificas necessitates conveniant.

SLMs etiam minus proniores sunt ad "vaginationes" in regione certae, quia typice in angustioribus et iaculis datiseis exercentur, quae exemplum adiuvat ut exemplaria et informationes ad suum negotium maxime pertinentes discant. Natura SLM focused reducit verisimilitudinem generandi inutilem, inopinatam, vel inconveniens output.

Quamvis minoris magnitudinis effectus SLM non est in aliquibus aspectibus majoribus exemplaribus inferior. Microsoft tardus Phi-3.5-mini-discendi solum 3.8 miliarda parametri habet, sed melior est eius effectus quam exemplaria cum parametris multo altioribus quam Llama3.18B et Mistral7B. Aaron Mueller, linguarum exemplar investigationis peritus in Universitate Northeastern (a summa investigationis privatae universitatis in Boston, Massachusetts, USA sita), ostendit numerum parametrorum augere non solum modo ad exemplar faciendum melius emendare et similia.

OpenAI CEO Altman dixit in eventu mense Aprili se credidisse nos esse in fine aetatis exemplorum immanium et "in aliis modis perficiendi sumus".

Tamen notandum est quod, licet specialis SLM specialis utilitas sit, etiam limitationes habet. Haec exempla extra propriam institutionem propriae institutionis male praestare possunt, lata scientia turpi carent, nec possunt generare contenta in amplis locis cum LLM comparatis. Haec limitatio postulat ut utentes SLMs multiplices explicandi sint necesse est ut areas exigentiae diversas operiat, ita AI infrastructuram implicans.

Celeritate campi AI evolutionis, signa parvarum exemplorum mutare possunt. David Ha, co-conditor et CEO of Tokyo-substructio parvum exemplar Sakana startup, dixerunt AI exemplaria quae ante paucos annos nunc videbantur "modici" esse. "Magnitudo semper cognata est," dixit David Ha.

cotidie oeconomicae nuntium

Report/Feedback