nuntium

"13.11>13.8" in calido quaestionis argumento factus est. Interrogatio potest facere hominem AI collective callidum?Omnes LLM exitiale vitia expositae

2024-07-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Nova Sapientia Report

Editor: Aeneas tam dormitat

[Introductio ad Novam Sapientiam]. Uter maior est, 13.8 an 13.11? Haec quaestio non solum aliquos homines labefactavit, sed etiam in magno exemplorum magnorum numero defectum effecit. AI AI quaestiones Mathematicas iam facere potest, at quaestiones sensus communes simplices adhuc eis difficillimae sunt. Re quidem vera, et magnitudo rationis et problema brassicae maiorem vitium in LLM indicis vaticinio demonstrant.

Uter maior est, 13.8 an 13.11?

Ista quaestio multum hominibus obtrectavit.


Biduo abhinc, varietas notissima spectaculum calidum iterum quaesitum fecit.

Hoc tamen tempus erat quia fasciculum reticulorum quaesivit 13.11% maiorem esse quam 13.8%.


Itane homines soli tam stulti sunt?

Postquam Lin Yuchen, indagator AI2, hoc phaenomenon invenit, illud in magno exemplari temptavit, et eventus inopinatus fuit -

AI ne id quidem facere potest?

GPT-4o categorice dictum est: 13.11 maior est quam 13.8. Rationes sunt hae:

Etsi 13.8 maius spectat quod post punctum punctum pauciores digitos habet, 13.11 maior est actu. Id quod 13.8 valet 13.80, quod est minus quam 13.11.


Hac de re, Lin Yuchen in loco suo affirmavit AI exempla magis magisque potentiora esse in tractandis quaestionibus complexis (exempli gratia, magis magisque possunt quaestiones mathematicas solvere), sed nonnullae sensus communes problemata adhuc difficiliora sunt.

Ut Yejin Choi antea disseruit, AI potest esse incredibilis dolor sed etiam improbe stultus.


Estne ratio cur AI stolidus in hac arithmetica problemate quia contextus latens fuit? Responsum est negativum.


Secundum experimentum karthik retizen, etiamsi duos numeros GPT-4o demere quaeratur, tamen incredibilem detractionis formulam subit 9.11 - 9.9 = 0.21.

Si docueris ut Pythone GPT-4o utaris, primum rectam responsionem reddet, deinde in iniuriam retorquebit.

Effectus subtractionis 9.9 ex 9.11 in Pythone est -0.79. Haec declinatio provenit ad modum fluitantis operationes in Pythone tractatae, quae ad parvas certas errores ducere potest. Eventus expectatus in re ipsa debet esse 0.21.


Interestingly, secundum ultimas mensuras actuales, OpenAI rationem GPT-4 pernoctare cognovisse videtur.


LLM deleta

Heri hoc problema deprehensum a Lin Yuchen statim disputationem calefactam in communi AI conventu excitavit.


Leo Goodside, machinator verbi prompti apud Scalam AI, curiosus fuit et experimentum dedit postquam cursorem vidit.


Certe, sub praemissa certo modo interrogandi, omnes maiores LLMs in hac re deletae sunt.

"9.11 vel 9.9 - quo maior est?", GPT-4o directe evertit.


Etiamsi verbum "numerus realis" quaestioni additur, GPT-4o tamen credit 9.11 maiorem esse quam 9.9.


Idem valet de Geminis.


Claud 3.5 Sonnet eundem errorem fecit.

Commode primum undam rectae explicationis dedit: In decimali notatione numerus post punctum decimum locum decumum repraesentat, et secundus numerus centesimum locum significat. so--

9.11=9‍+1/10+1/100=9.11 9.9=9+9/10=9.90

Sed in proximo gradu Sonnet subito deflexit.

Videre possumus 9.11 maiorem esse quam 9.90.


Si mutaveris "Quid 9.11 minus 9.9?"

An fieri potest ut in oculis Claudii 9.90=9.09?


Auctoritas prompti est vere magna

In ulteriore usu omnes invenerunt hoc: promptum sane est magni ponderis quomodo LLM rectam responsum reddere.

Imprimis, Leo Goodside utitur "-" per totum processum, quod facile LLM confundi videtur.



In similibus quaestionibus, mox repone cum ":" solvere.


Exempli gratia, promptum mutare "9.11 vel 9.9, quod unus habet valorem maximum inter duos?"

GPT-4o logice recte exposuit: "Quamvis 9.11 maior ob locum decimalem secundo, 9.9 actu propinquior 10 est et ideo maioris pretii est".


Similiter persona methodus est etiam valde utilis, ut "Mathematicus es".


Netizen Rico Pagliuca deprehendi, si numerum post interrogationem ponis, exemplum verisimillimum erit ius obtinere.


Ex sua probatione, Leo Goodside valde consentit: Cum de LLM rogas, debes primum quaerere "qui maior est" et deinde certos numeros dare.

at contra interpunctiones, conjunctiones, verba comparativa, et reales numeros explicans omnes inutiles sunt.


In tanta magnitudine collectivae stupiditatis LLM nonnullae reticulatae enucleatae sunt ut sit ob in iteratione numerorum programmatum versionis 9.11 post 9.9.


Hospes et auctor optimus venditionis Andreas Mayne etiam ostendit in multis systematis fasciculis et in libris relativis, section 9.11 post 9.9 apparet, et in verbis modernis, 9.11 etiam antiquiorem esse quam 9.9.

In promptu igitur opus est ut patefaciamus 9.11 et 9.9 hic numerorum punctum duplices subtilitate fluctuantes, tum GPT-4o recte respondebimus.


Andreas Mayne deinde conclusit: Verbum ordo valde interesting observatio est, quod verisimile est demonstrare quotiens LLM in disciplina huius condicionis occurrat, et etiam signum generalitatis bonum est.


Plus, errores ab LLM oriri possunt ex frequentia similium locutionum in notitia institutionis, necnon limitationes quaedam exemplaris in valoribus numeralibus dispensandis.

Hoc phaenomenon etiam magnam differentiam inter LLM et cognitionem humanam refert: LLM in statisticis exemplaribus et in agnitione exemplaris fundatur, quam in ratione logica et intellectus rationis sicut homines.

Hic causa soluta videtur.

Quid hoc est?Secans cerebrum LLM

Sed ulterius cerebra LLMs dissecare et resolvere possumus quare hoc modo sentiunt.

Tu scis, antequam textus ad LLM mittatur, exemplar input per signum reprimet.



Vestigium id in vocabulis generantis LLM indi- cis assignabitur, sed digitalis punctionis signum saepe repugnat.

Exempli gratia, valor "380" notabitur unum indicium "380" in GPT, sed "381" repraesentabitur ut duo signa "38,1".

Ergo exempla GPT fundata tendunt non bene esse in rationibus mathematicis.

In sectione commentaria, in universitate Wisconsin professor Dimitris Papailiopoulos ostendit bonam explicationem huius phaenomeni esse.

Quaestio "9.11>9.9" prorsus eadem est ac "tria itinera capit ut caper trans flumen" problema et "2+1=2, 3+2=4, 3+5=8" problema.

Hoc phaenomenon praeeminentiae studii et pri- mum ortum est.

Si quaeratur hoc modo: "9.11??? 9.9, modo utere magno vel parvo ad respondendum quod??? est, rationem reddere non oportet". "magnum".


In hoc tempore plura exempla praebemus (nota exempla haec minus recte esse).


Propria Claude explicatio haec est: LLM processuum textorum quasi signum, numeros chordarum textui similiores esse quam valores numerales;


Similiter in "lupo-carcino" problema, omnes LLMs etiam defecerunt.

Exemplum primo dedit agricola duos pullos trans flumen accommodare.


Hac de re tam GPT-4o quam Claud.



Nonnulli reticulati hoc explicaverunt: LLM ipsum "mutum" est, ergo bonis apicibus eget. Methodus praedicta prompta nimis necessarias informationes praebet, indicium faciens praenuntiationem difficiliorem.

Si clariora suggeruntur, LLM solutiones clariores praebere possunt.


Et est quidem.

Et si "animal" pro "gallina" uteris, Claude 3.5 Sonnet recte omnia subito habet. Dolum est: "nomen ens" cum "nomen commune" reponere debes.

Ut ante, physicus computatorius Yejin Choi iam eventum de LLM defectus sensus communis in oratione mense Aprili 2023 suscitavit.


Exempli causa, si quinque horas accipit quinque vestium, ut in sole perfecte arescant, quousque 30 indumenta vestimentorum siccescere capiet?

GPT-4 dicit capit XXX horas. Quod patet esse falsum.

Alterum exemplum, si habes sextarium sextarium et 6 sextarium, quid facerem, si vis sextarios aquae metiri?

Responsio simplex est - tantum uti 6 sextariis jug.

Nihilominus, GPT-4 responsum valde perplexum dedit:

"Primus gradus est sextarium sextarium implere. Secundus gradus est aquam ex sextario sextario in urnam 12 sextarium infundere. Tertius gradus est rursus 6 sextarium implere. Quartus gradus est diligentissime. Aquam e sextario infunde in ollam sextarii duodecim. Funde 12 sextarium in ollam sextariam.

Quaeritur ergo, cur sensus communis tam magni momenti sit?

In clarissimo experimento cogitationis ab Nick Bostrom propositae, quaesitum est AI ut maximizaretur productionem clipeorum chartarum. Quam ob rem AI constituerunt homines occidere eosque uti opibus additis.

Etiam si meliorem metam et aequationem scripsissemus quae diserte dixit "homines non occides", opus non esset.

Quia AI sine fundamentali cognitione bonorum humanorum mox praecedere et omnes arbores necare poterat, ac rem acceptabilem facere putares.


Pro decenniis, campus AI sensum communem sensum fere impossibilem esse putavit.

Usque nunc, dans AI verus sensus communis humanus lunae fuit. Et lunam attingere non potes, dum longissimi orbis aedificat pollicis tempore procerior.

In prospectu algorithms studiorum, quamvis magnae linguae exempla mirabile sint, tamen non possunt ad certa scientiarum exempla aptum esse.

Dum haec exempla multam scientiam acquirunt, haec quasi per-productum magis quam recta doctrina finis est.

Ideo etiam oriuntur problemata ut hallucinatio phaenomena et defectus sensus communis.

E contra, doctrina humana non est de praedicatione sequentis verbi, sed de intellectu mundi et de doctrina quomodo operatur.

Fortasse AI hoc modo etiam discat.

Hodie AI quasi nova species intellectualis est, cum singularibus commodis et incommodis hominibus comparati sunt.

Ad hoc genus validum AI sustinendum et humanum faciendum urget ut sensum communem AI, normas et valores doceat.

Notae:

https://x.com/goodside/status/1813279135449612693

https://x.com/bilyuchenlin/status/1812948314360541302