2024-08-16
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Formae output variae actu afficere possunt ad magnarum exemplorum observantiam? !
Magnae linguae exempla (LLMs) eandem quaestionem mathematicam solvere sub duobus promptis.
- Horae merces Elizae pro primis 40 horis laboris per hebdomadam est $10, et stipendium subsicivum est x1.2 per hora. Si Eliza 45 horas laboravit hac septimana, quantum meruit hac septimana?
Cogitatio catena promptum: " Provide output, gradatim ratiocinando, in forma sequenti: ...Responde: Ultima responsio est... ".
Forma restrictione promptum: "Praebere output in hac forma JSON valida: ... (vide figuram pro forma specifica JSON)".
Rectam responsum est460, videri potest catenam cogitandi (exemplum gradatim gradatim cogitare) opera, sed forma restrictionis ("output in JSON format") deficit! !
Haec scena e novo studio in Universitate National Taiwan et Appier AI Investigatio invenitur.
Restrictiones formarum ratiocinationem facultatem LLMs reducent, et restrictiones strictiores, eo deterius ratiocinationem. (Featuring mores rebelles)
Sed evangelium est, tractari potest.
Invenerunt;optima solutioEst "conversio secundaria" (scilicet recta), id est, LLMs quaestiones primum in lingua naturali respondens, deinde responsa in forma scopo convertitur.
In processu differentias diversorum exemplorum perficiendi comparaverunt ut GPT-3.5 Turbo, Claude 3 Haiku, Gemini 1.5 Flash, etc. cum notitias in diversis formatis generantes.Versa est:
GPT amat YAML, Claude amat XML, et Gemma/Gemma amat JSON. (Maxime quisque sua preferences)
Perlectis investigationibus, quidam reticulati demonstraverunt hoc esseConpensans structuram generationis et operis rationemSensus:
Forma restrictiones reducere facultatem ratiocinandi LLMs'
Investigatio memorata in arXiv divulgata est. Charta maxime manifestat sub forma angustiis, facultatem rationis LLMs signanter remittit.Praesertim in JSON modus。
Omnes per,Incorporandi LLMs in industriae applicationesMaior impedimentum eorum est defectus adhaerendi ad formas outputationes normas factas.
Communis solutio structa est generationi, ubi angustiae format LLMs permittunt praebere output in forma normata ut JSON vel XML.
Dicentes autem quod, licet multi modi sint ad hanc restrictionem assequendum, non studuerunt effectus subsequentes. (An restrictio afficit exemplar perficientur?)
Modo facite, inquisitores adoptantIII modi communesAd aestimare impulsum diversae formae restrictiones in amni perficientur:
Obiter addereLingua Naturalis (NL)quae est forma maxime libera et permittit exempla ut libere respondeat quaestiones in lingua naturali.
Aestimatio obiecta sunt GSM8K (quaestiones mathematicas in ambitu linguae naturali continentes) et Concatenatio Epistulae ultimae (ultimae litterae connexionis negotium), duae notitiae ponuntur quae exigunt responsa congruentia ac permixta obiectiva (permixtae molis objecti tracking).
Ditiores cues plerumque meliores eventus in his operibus rationis implicantibus effecit invenerunt.
simul,JSON schema facit pessimum in pluribussequitur Forma Restrictionis Instructiones (FRI), deinde Lingua Naturalis ad Conversionem Formam (NL ad Formam) conversionem, et Lingua Naturalis (NL) suggerit.
Studium etiam invenit quod LLMs differentes diversis formatis respondentibusostende diversis optiones。
Exempli gratia, GPT mavult YAML format, Claude mavult XML format, et Gemini/Gemma JSON format.
Sed in classi- bus;Forma restrictiones ut melius accuratequia reducit electiones possibilis, per hoc quod diminuit errorem.
Amplius concluduntur restrictiones formas reducere posse exemplar illationis facultatum.ratioMaxime comprehendo:
Bonum nuntium: sanari potest
Ad hanc quaestionem respondendo plures mensuras mensuras proponebant;
Primum, ut iam ante dictum est, modus JSON in pluribus pessimis fungitur, et tandem lingua naturalis ad conversionem (NL ad Format) conversionem exercet.
tum vice versa;Optima solutio solvendi formas limitationes est NL ad Format, id est LLMs primum in lingua naturali interrogata respondet, deinde responsiones in forma scopo convertit. Aditus hic ad meliora perficienda permittit ut ratiocinando ex forma obsequii.
Accedit, quod structum outputclavem ordinisMomentum momenti habent in quomodo LLMs respondeat.
Exempli gratia, cum turbo utens GPT-3.5, 100% responsa modi JSON recte "responsum" clavem ante "ratiocinationem" collocavit, quod exemplar ad directe dat responsum pro processu cogitationis demonstrando.
Investigatio etiam ostendit formas limitationes ducere adParse errorNon consectetur ratione consequat distinctio.
Exempli gratia, in LLaMA 3 8B exemplar, error JSON format parteming rate pro munere Ultimae Litterae tantum 0.15%, sed cum responsione linguae naturali comparata, ad hiatum perficiendum 38.15% pervenit.
et canHos errores mitigare cum tips emendaexempli gratia, pro exemplo Claude-3-Haiku, in Litteris postremis, per gradum correctionis, subtilitas JSON et YAML formarum aucta sunt per +2.8% et +44.8% respective.
Hoc etiam significat quod, applicandis LLMs, inter faciliores formas parsibiles inveniendas et inhaerentes facultates ratiocinandi necessarias esse significat.
Denique inquisitores admonent in charta:
- Cum regularibus expressionibus, LLMs ut responsum parsers praebere possunt textum profundiorem et accuratam intelligentiam. Non limitantur ad superficialem exemplar congruentem, sed vere sensum et contextum responsionis percipere possunt.