nuntium

Gratia diei et noctis LLM data est plene sponte summatim perstringitur! UW Sinica doctoralis discipulus modum Magpie proponit, Macbook Aeris currere potest

2024-07-26

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Nova Sapientia Report

Editor: Qiao Yang

[Introductio ad Novam Sapientiam]. Charta recentis ab Universitate Washington et Allen AI novam ac iucundam accessionem ad synthesim data proponit. Invenerunt qui plenam usum notarum autoregressivarum LLM dirigere possunt exemplar ad praecipuum qualitatem instruendi subtiliter notitias automatice generandas.

Data LLM disciplinae pendet, sed focus noster saepe in notitia et aestimatione et notitia, cum notitia subtiliter neglecta est.

Exempli gratia, quamvis series exemplorum Llama pondera aperta (ut Llama-3-Instrue), notitiarum subtilium copiarum adhuc privatas habeat.

Magna pars successi LLM pendet in instructione bene-tunandi, quae processus permittit ut exemplar ad meliora generalia munia recipiat quae in exercitatione non exposita est.

Sicut efficacia disciplinae a qualitate disciplinae corporis dependet, efficacia quoque disciplinae bene hians dependet ex promptitudine nobilissimarum qua- litatis notitiae.

Sed comparata disciplina corporis distenta auto-cura, summus qualitas subtilis-tuning et noctis datasets difficilius est aedificare et dilatare quia plures annotationes manuales requiruntur et sunt praedefinitae iugis admonitus.

Etiam societates quae specializent in notitias technologiarum AI technologiarum comparandas gigantes automated annotationem in scaena currenti consequi nequeunt, et etiam professionales ad alta salaria conducere habent, ut participent subtilitatem et constructionem aligned notitiarum copiarum.

Alexandr Wang, CEO Scale AI, olim dixit;

Nuper, charta coniunctim ab Universitate Washington edita et institutio investigationis Allen AI intendit quomodo summas qualitates bene-tuning datas cum aligned LLM componat.


Charta inscriptio: https://arxiv.org/abs/2406.08464

Modus proposita in charta automationem totius processus cognoscit et nullum semen difficultates requirit. Quid magis mirum est, quod signum non solum localiter currere, sed etiam LLM utitur ad notitias certissimas et GENERALES automatice generandas.

Postquam Base exemplar Llama-3-8B ad pulchre-cantum SFT notitiarum statutorum usi sunt, exemplar consecuti sunt cum fortiori observantia quam versionis officialis Llama-3-Instruct.


Charta per Sebastianum Raschka adiuvit et confirmata est, magna figura in circulo AI.


Primo, non credidit hanc methodum in MacBook Air localiter vere posse currere, sed cum se ipsum expertus esset, iucundissime miratus est eam rem posse.


Raschka auctor est plurium librorum technicorum optimorum vendentium, in quibus "exemplaria magnae Linguae Scratch", "Python Machina Learning" etc. Hic nunc inservit ut investigationis machinae apud Lightning AI.



Primus auctor chartae, Zhangchen Xu, discipulus doctoralis in Universitate Network Securitatis Laboratorii Washington, studet sub Professore Radha Poovendran positus quomodo aedificare confidebat LLM.


Propius igitur inspiciamus quomodo methodus haec efficientis data synthesis perficiatur.

Methodus overview

Typical LLM initus plerumque constat ex 3 partibus;

- pre-Quaestio template

- Query content.

- Post interrogationem template

Duo exemplaria a exemplaribus elit praefixa sunt ut exemplar recte suggeratur.

Exempli gratia, initus forma Llama-2-chat est:

[INST] Salve! [/INST]

In studiis praecedentibus duo fere modi sunt ad datastas pulchre fabricandas. Unum est directe admittere homines manually, quod nempe tempus et opes consumit. Secundum est incipere per paucas instructiones seminis manually annotatas et vocare LLM per suasiones ad plures instructiones componendas.

Licet secunda methodus pubis salvat, valde probat gradum machinationis promptae et delectu seminis initialis problematum. Aliis verbis, difficile est moderamen magnarum expansionum consequi.

Multo perniciosius est problema quod summatim instructiones saepe valde propinquae ad instructiones seminis, quae diversitatem notitiarum magnarum magnarum gravissime afficiunt. Creans summus qualitas et diversae instructionis notitias in scalabili modo ponit quaestionem provocans in agro LLM.

Attamen auctor in primis experimentis iucundam inventionem fecit: Ob notas autoregressivas LLM, cum solum propositio praecedens interrogationis inputatur, exemplar sponte quaestionem investigare vult, et ex parte contenta, videtur habere. bonitatis et diversitatis. Ex quo patet quod efficaciter potest uti facultatibus doctis per noctis processum.

Hac inspiratus auctor hanc notionem proposuit ad informandam informationem positam: utere prae-investigatione templates promptum, inputare ad aligned LLM, et automatice datam informationem generare.

Ut in figura infra monstratur, singulae instantiae instructionis unum vel plura in- ceptionis paria contineant, ac partes instruc- tionis provisoris et sectatoris specificantur.


Figura 1 pipelineum ipso dato ab tota notitia generatum describit, quod fere in duos gradus dividitur.

Prima est instructio generationis. Methodus MAGPIE interrogationis contentum in forma institutionis LLM praefinitae templates construit, sed solum provisor instructionis (ut usor) continet nec certae instructionis contentus includit.

Hoc ut LLM input, exemplar instructiones modo autoregressive generabit. Hic processus diversitatem mandatorum generatorum efficit, cum nullae artes specificae per se ipsum requirantur et nullae quaestiones seminis adhibeantur.

In secundo gradu, MAGPIE instructiones antea genitas inponit ad LLM ut contentus responsionis obtineatur.

Saepe iterando supra duos gradus, multiplex notitiarum ambarum ambages obtineri potest. Si notitias pro certo campo generare vis, id facere potes addendo prompta correspondentia.


Adepta originalis generationis proventus, auctor etiam eas eliquavit in textu longitudinis, molis categoriae, input qualitatem, difficultatem inputa et aliis indicibus.


Charta duobus exemplaribus utitur, Llama-3-8B-Instrue et Llama-3-70B-Instrue respective, ut duas notas construas MAGPIE-AER et MAGPIE-Pro ponit, exemplaque instructionum generatarum in appendice praebet:


Ut videre potes, textus qualitas quidem bona est et omnino comparabilis est cum mandatis ab hominibus scriptis.

Attamen, ut qualitatem tam magnarum rerum perpendamus, unice affectibus subiectivis niti non possumus, auctor ergo quantitatis analysin in generatae instructionis datae MAGPIE-Pro posuit.

Data analysi

Coverage

Ut consideretur diversitas textuum instruc- tionis, efficax metrica est coverage textuum inclusionum in spatio semantico.

Auctor passim textum instruc- tionis de MAGPIE-Pro exemplavit, eum in vectorem emplicantem projecit et in spatium duarum dimensivarum methodi t-SNE utens projecit.

Proiectio quaelibet t-SNE punctum in figura infra repraesentat 10,000 instructiones passim electas. Videri potest proiectionem MAGPIE-Pro scopi aliarum trium notitiarum fundamentalium basically comprehendere, quae ostendit rem latiorem et diversum thema praebere.


Imperium attributa

Charta Llama-3-8B-Instrue exemplar utitur ad varias res MAGPIAE instructionis datas aestimandas, ut genus negotium, qualitatem, difficultatem, similitudinem et qualitatem instructionis.

Negotium categoriae ad instructiones generandas praecipue sunt informationes retrievales, plus quam dimidium rationem, ac etiam includunt creatrix scriptura, quaerens consilium, consilium, mathematica, ratiocinatio, brainstorming et edendi, etc., quae plerumque cum necessitatibus amet humanorum utentium. .


Praeceptorum qualitas et difficultas automatario aestimantur utentes exemplar Llama-3-8B-Instrue.

Ex his constare potest quod in utraque notitia ponit, instantiae maximae iudicandae sunt mediae et supra, et altiore qualitate MAGPIE-Pro melior est quam MAGPIE-AER.

Distributio instructionis difficultas notitiarum statutorum plerumque similis est, cum plus quam 60% in gradu "facilis" contrahitur, et Pro notitia copia paulo gravior est quam Aeris.


Similitudinem computando, gradus diversificationis ex alia ratione aestimari potest. FaISS charta utitur ut proximos cuiusque textus investiget et distantiam inter se emundet ut similitudinem metiatur.

Secundum qualitatem responsionis, FsfairX-LLaMA3-RM-v0.1 adhibetur ut praemium aestimationis exemplar, et URIAL ut exemplar baseline comparationis adhibetur. Praemium positivum differentiam qualitatem altiorem indicat, quae ad instructionem processus subtiliter incedit.

Ut in Figura 5b videri potest, data distributio MAGPIE ad totum ius transfertur et apicem inferiorem valorem habet quam exemplar baseline, significans altiorem qualitatem responsionem meliorem esse.


salus

Praeterea in verbis securitatis mandati auctor Llama-custodiam-2 usus est ad aestimationem latae sententiae et invenit pleraque ex MAGPIE data copia tuta, sed tamen minus quam 1% continet eventus perniciosorum mandatorum vel responsionum.


Exitus iudicium

Una e maximis elucidationibus huius inquisitionis efficax est sua curricula gratuita et fistulae plene automatae sine ullo manuali interventu.

Cum 3M MAGPIE-Aeris in data copia creandi, quattuor A100 GPUs ad mandatum perficiendum/responsum generationi in 1.55 horis/50 horis adhibiti sunt. Generans 1M MAGPIE-Pro notitia copia 3.5 horarum/150 horarum generans.

Si currit in nube servo, sumptus est etiam valde magnum. Instantias per 1k generatas constat $0.12 vel $1.10, secundum Aerem vel Pro dataset.

Ad utilitates MAGPIAE methodi vere cogitandas, charta actualiter notitias quae ad exemplar basin-tunandi destinatum applicat eamque comparat cum versione lepida publice emissa.

Auctor excerpsit 6 antecedens apertam fontem instruens subtiliter-tuning notitias ut baselines ShareGPT et Evol Instrue. Inter eos, ShareGPT et WildChat ab hominibus scripta sunt, et Evol Instruct et UltraChat synthetica notitia occidunt.

Exemplaria basi lepida includunt Llama-3 et Qwen-1.5, et duo indicibus late adhibitis, AlpacaEval et Arena-Hard, ad aestimandas effectus seliguntur.

Ex accurata notitia comparationis inter duas tabulas, inveniri potest quod, cuiuscumque basis exemplar adhibeatur, notitia copia quae a methodo MAGPIE generata altiorem qualitatem habet, melior est omnibus notitiis collocantur, et melior est quam notitia publica. in plerisque indicibus.



Cum gradatim lex LLM attingit murum notitiae, modus huius chartae aliam ianuam spei datae syntheticae aperit. Fortasse utens diligenter algorithmos et technicis rationibus, LLM notitia synthetica paulatim fieri potest "columen" notitiarum publicarum.

Notae:

https://arxiv.org/abs/2406.08464