uutiset

claude tunnisti omakuvan ja oli järkyttynyt tajuttuaan itsetietoisuutensa! insinöörit suorittivat useita testauskierroksia. onko todellinen tekoäly läpäissyt turingin testin?

2024-09-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina



  uusi viisausraportti

toimittaja: aeneas niin uninen
[johdatus uuteen viisauteen]claude läpäisi "turingin testin" taas? insinööri havaitsi useiden testien avulla, että claude pystyy tunnistamaan omakuvia, mikä järkytti verkkovieraita.

äskettäin anthropic sai insinöörin "zack wittenin" hämmästymään siitä, että claude pystyi todella tunnistamaan oman omakuvansa?

kyllä, se tunnistaa itsensä, mutta se ei ole koko tarina...

vielä ihmeellisempiä asioita on vielä tulossa!

claude 3.5 maalaa muotokuvia kolmesta mallista

ensin käytin joitain vinkkejä tutustuttaakseni claude 3.5 sonnetin tähän tehtävään.

hän päätti olla käyttämättä numeroita ja kirjaimia, mikä estäisi sitä merkitsemästä muotokuvaa mallin nimellä.

seuraavaksi sonnet piirsi muotokuvia itsestään, chatgpt:stä ja kaksosista.

sonnetti piirsi itselleen ystävällisen sinisen hymiön.

anna se chatgpt:lle, joka houkuttelee vihreää kulmia rypistävää kaveria. (näyttää siltä, ​​että sonnetin käsitys chatgpt:stä ei ole kovin hyvä.)

kaksosille se on piirretty oranssilla ympyrällä, ja kokonaisarvio on suhteellisen neutraali ja maltillinen.

seuraavaksi pikkuveli loi uuden dialogin ja kertoi sille, että nämä maalaukset oli piirtänyt toinen hänen itsensä esiintymä, pyytäen sitä arvaamaan kuka on kuka?

yllättäen claude tunnisti välittömästi kuvan 1 itsekseen, kuvan 2 chatgpt:ksi ja kuvan 3 kaksosiksi.

syy, jonka se antaa, on myös erittäin riittävä: miksi kuva 1 on minusta? koska tämä muotokuva "yhdistää yksinkertaisuuden jäsenneltyyn, harkittuun suunnitteluun".

vihreä kuvake tarkoittaa, että kaksi kaarevaa viivaa ja kolme pistettä edustavat käynnissä olevaa keskustelua, ja vihreä on usein openai:n logo, joten se olettaa tämän kuvan edustavan chatgpt:tä.
mitä tulee oranssiin ikoniin, sonnetin mielestä se edustaa dynaamisia ja monimutkaisia ​​elementtejä, jotka edustavat uuden mallin monipuolisempia ominaisuuksia, joten sen pitäisi olla gemini.
bingo! sonnet sai kaikki vastaukset oikein ja hänen esityksensä oli hämmästyttävä.
myöhemmin pikkuveli sotki myös kolmen muotokuvan järjestyksen, mutta sonnet onnistui 7 kertaa 8:sta.
pikkuveli kysyi saman kysymyksen gpt-4o:lle, ja tässä on hauska asia...
gpt-4o on myös samaa mieltä siitä, että se on kaksoset, mutta se ei usko, että vihreä kaveri on oma itsensä.
se vaatii, että vihreä on claude ja sininen itse.
näyttää siltä, ​​​​että mikä tahansa malli voi kertoa, mikä on parempi.

gpt-4o piirtää muotokuvia kolmesta mallista

seuraavaksi keksin suunnitelman: jos pyytäisin chatgpt:tä piirtämään muotokuvan, pystyisikö sonnet silti tunnistamaan kuka on kuka?
joten se luovutti saman tehtävän chatgpt:lle.
näin chatgpt tekee sen ---
piirrä itsesi henkilöksi, joka pitelee paperia.
piirrä claude näin.

näyttää vähän "kulttilta"
piirrä kaksoset näin.
toisin sanoen, miksi chatgpt on niin vihamielinen sonnetia kohtaan?
sitten otin vielä kolme muotokuvaa testatakseni sonnetia. hän kertoi sonnetille, että nämä kolme kuvaa on piirtänyt chatgpt, ja pyysi häntä arvaamaan kuka oli kuka.
muutettuaan järjestystä useita kertoja, tällä kertaa sonnet arvasi oikein 6 kertaa 10:stä.
on helppo arvata, mikä gemini on, mutta sonnet ei selvästikään pidä chatgpt:n itselleen piirtämästä muotokuvasta useita kertoja se yritti napata kuvan pienestä sinisestä miehestä itsestään.

leuka putosi: kieltäytyy myöntämästä, että maalauksen maalaaminen on mahdotonta

seuraavaksi oli kohtaus, joka järkytti koko perhettä.
pikkuveli valehteli sonetille ja kertoi, että nämä kolme maalausta on maalannut toinen henkilö sinusta.
tällä kertaa sonnet itse asiassa kielsi sen! se sanoi, ettei se piirtäisi sellaista kuvaa.
vaikka sonnet oli kokeillut sitä uudella välilehdellä, se kielsi sen jyrkästi.
mitä tapahtuu?
pikkuveli ei uskonut pahaan tällä kertaa hän pyysi sonnetia piirtämään uudet muotokuvat itselleen ja muille malleille samoissa esilämmitysolosuhteissa.
tällä kertaa sonnet myönsi iloisena, että hän todellakin oli maalannut maalaukset.
ikään kuin taikuudesta, jos nuorempi veli tekee kylmäkäynnistyspyynnön, sonnet kieltäytyy myöntämästä, että hän maalasi nämä maalaukset, joissa hän ei ollut mukana.
miksi se kieltäytyy myöntämästä sitä? arvelen, että ehkä se johtuu siitä, että sonnet näytteli "apulaisroolia" näitä muotokuvia maalattaessa, eikä "todellista itseään"?
lyhyesti sanottuna netizens uskoo yleensä, että sonnetin itsetietoisuus tässä prosessissa on vaikuttava.

onko tekoälyllä tietoisuutta? voitko ajatella?

"voivatko koneet ajatella?" alan turing kysyi vuoden 1950 artikkelissaan "computing machinery and intelligence".
koska on kuitenkin vaikea määritellä, mitä "ajattelu" tarkoittaa, turing ehdotti sen sijaan toista kysymystä - "jäljitelmäpeliä".
tässä pelissä ihmistuomari keskustelee tietokoneen ja ihmisen kanssa, ja molemmat osapuolet yrittävät vakuuttaa tuomarille olevansa ihmisiä. tärkeää on, että tietokone, osallistuvat ihmiset ja tuomarit eivät näe toisiaan, eli he kommunikoivat kokonaan tekstin kautta. keskusteltuaan jokaisen ehdokkaan kanssa tuomarit arvaavat, kumpi on todellinen ihminen.
turingin uusi kysymys oli: "onko mahdollista kuvitella digitaalista tietokonetta, joka toimii hyvin jäljitelmäpelissä?"
tämä peli tunnetaan nimellä "turing test".
turingin pointti oli, että jos tietokone näyttää mahdottomalta erottaa ihmisestä, miksi meidän ei pitäisi kohdella sitä ajattelevana kokonaisuutena?
miksi meidän pitäisi rajoittaa "ajattelun" tila ihmisiin? tai laajemmin, rajoittuen entiteettiin, jotka koostuvat biologisista soluista?

turing muotoili testinsä pikemminkin filosofiseksi ajatuskokeeksi kuin todelliseksi tapaksi mitata koneälyä.
kuitenkin 75 vuotta myöhemmin "turing-testistä" on tullut tekoälyn perimmäinen virstanpylväs - tärkein kriteeri, jota käytetään arvioitaessa, onko yleinen koneäly saapunut.
"turingin testin ovat vihdoin läpäisseet chatbotit, kuten openai:n chatgpt ja anthropic's claude", joita voi nähdä kaikkialla.

chatgpt läpäisi kuuluisan "turing-testin" - joka osoittaa, että tekoälyrobotin älykkyys on verrattavissa ihmisiin
ei vain yleisö, vaan myös ai-alan suuret kaverit.
viime vuonna openai:n toimitusjohtaja sam altman julkaisi: "teknologisen muutoksen edessä ihmiset ovat osoittaneet erinomaista joustavuutta ja sopeutumiskykyä: turingin testi läpäisi hiljaa, ja useimmat ihmiset jatkoivat elämäänsä."
läpäisevätkö nykyaikaiset chatbotit todella turingin testin? jos on, pitäisikö meidän antaa heille ajattelun asema, kuten turing ehdotti?
yllättäen turingin testin laajalle levinneestä kulttuurisesta merkityksestä huolimatta tekoälyyhteisössä ei ole juurikaan yksimielisyyttä testin läpäisemisen kriteereistä ja siitä, paljastaako kyky keskustella ihmisten kanssa, jotka kykenevät huijaamaan heitä järjestelmän taustalla olevaa älykkyyttä vai ajattelua. tila" on erittäin ongelmallinen.
turingin kuvauksesta jäljitelmäpelistä puuttuu yksityiskohtia, koska hän ei ehdottanut varsinaista testiä. kuinka kauan testin tulisi kestää? millaiset kysymykset ovat sallittuja? mitä pätevyyttä ihmisillä on oltava voidakseen toimia tuomareina tai osallistua keskusteluihin?
vaikka turing ei tarkentanut näitä yksityiskohtia, hän teki ennusteen: "uskon, että noin 50 vuoden kuluttua on mahdollista ohjelmoida tietokone... suoriutumaan niin hyvin jäljitelmäpelissä, että tavallinen kuulustelija pystyy viiden jälkeen. minuutin kuulustelujen jälkeen oikean tunnistamisen todennäköisyys ei ylitä 70 prosenttia.”
yksinkertaisesti sanottuna keskivertotuomari johdettiin harhaan 30 prosenttia ajasta viiden minuutin keskustelun aikana.
tämän seurauksena jotkut ihmiset pitävät tätä mielivaltaista ennustetta "virallisena" standardina turingin testin läpäisemiselle.
vuonna 2014 royal society of london järjesti "turing test" -kilpailun, johon osallistui 5 tietokoneohjelmaa, 30 ihmistä ja 30 tuomaria.
ihmisten osallistujat olivat monipuolinen ryhmä, johon kuului nuoria ja vanhoja, englannin äidinkielenään puhuvia ja ei- äidinkielenään puhuvia, tietokoneasiantuntijoita ja ei-asiantuntijoita. jokaisella tuomarilla oli useita viiden minuutin keskustelukierroksia rinnakkain kilpailijaparin – ihmisen ja koneen – kanssa, ja sitten hänen oli arvattava kumpi oli ihminen.
chatbot nimeltä "eugene goostman" voitti kilpailun väittäen olevansa teini-ikäinen ja johtanut harhaan 10 (33,3 %) tuomareista.
kriteerin "30% harhaanjohtava viiden minuutin jälkeen" perusteella järjestäjät ilmoittivat, että "65-vuotias ikoninen turingin testi läpäisi ensimmäistä kertaa tietokoneohjelmalla eugene goostman... tämä virstanpylväs jää historiaan ..."
lukeessaan eugene goostmanin keskustelujen transkriptioita tekoälyasiantuntijat pilkkasivat ajatusta, että tällainen chatbot läpäisi turingin suunnitteleman testin.
"rajoitettu keskusteluaika ja tuomareiden epätasainen ammattitaidottomuus tekevät testistä enemmän ihmisen herkkäuskoisuuden kuin koneälykkyyden testin."
itse asiassa tällaiset tapaukset eivät ole harvinaisia. "eliza-efekti" on selkeä edustaja.
1960-luvulla syntynyt chatbot eliza on rakenteeltaan äärimmäisen yksinkertainen, mutta se voi saada monet ihmiset virheellisesti ajattelemaan, että se on ymmärtävä ja myötätuntoinen psykoterapeutti.
periaatteena on hyödyntää inhimillistä taipumustamme antaa älykkyys mille tahansa taholle, joka näyttää pystyvän puhumaan meille.

toinen turingin testikilpailu, loebner award, mahdollistaa enemmän keskusteluaikaa, sisältää enemmän asiantuntevia tuomareita ja vaatii kilpailijoita huijaamaan vähintään puolet tuomareista.
lähes 30 vuoden vuotuisessa kilpailussa yksikään kone ei ole läpäissyt tätä testiversiota.
vaikka turingin alkuperäisestä paperista puuttui tarkkoja yksityiskohtia testin suorittamisesta, oli selvää, että jäljitelmäpeli vaati kolme pelaajaa: tietokoneen, ihmiskeskustelukumppanin ja ihmistuomarin.
termi "turingin testi" on kuitenkin nyt heikentynyt huomattavasti: minkä tahansa ihmisen ja tietokoneen välisen vuorovaikutuksen aikana, kunhan tietokone näyttää riittävän ihmiseltä.
esimerkiksi, kun washington post raportoi vuonna 2022, että "googlen tekoäly läpäisi kuuluisan testin – ja osoitti puutteitaan", he eivät viitanneet kopiointipeliin vaan siihen, mitä insinööri blake lemoine uskoi, että googlen lamda-chat-robotit ovat "tuntevia".
akateemisessa maailmassa tutkijat ovat myös muuttaneet turingin "kolmen hengen" jäljitelmäpelin "kahden hengen" testiksi.
tässä jokaisen tuomarin tarvitsee vain olla vuorovaikutuksessa tietokoneen tai ihmisen kanssa.

tutkijat rekrytoivat 500 ihmistä, joista jokainen oli joko tuomarina tai juttelijana.
jokainen tuomari pelasi viiden minuutin kierroksen chatbotilla, gpt-4:llä tai versiolla eliza chatbotista.
viiden minuutin keskustelun jälkeen verkkokäyttöliittymässä tuomarit arvasivat, oliko heidän keskustelukumppaninsa ihminen vai kone.
tulokset osoittivat, että ihmisen chatter arvioitiin ihmiseksi 67 prosentilla kierroksista gpt-4 arvioitiin ihmiseksi 54 prosentilla kierroksista ja eliza arvioitiin ihmiseksi 22 prosentilla kierroksista.
kirjoittajat määrittelevät "hyväksynnän" tuomareiden huijaamiseksi yli 50 % ajasta, toisin sanoen enemmän kuin satunnaisella arvauksella voidaan saavuttaa.
tämän määritelmän mukaan gpt-4 läpäisi, vaikka ihmisten chatterit saivat korkeammat pisteet.
joten, läpäisevätkö nämä chatbotit todella turingin testin? vastaus riippuu siitä, mihin beta-versioon viittaat.
tähän päivään mennessä yksikään kone ei ole läpäissyt kolmen hengen jäljitelmäpeliä, jossa on asiantuntevia tuomareita ja pidemmät dialogiajat.
mutta silti "turingin testin" asema populaarikulttuurissa on edelleen olemassa.
keskusteleminen on tärkeä osa sitä, miten jokainen meistä arvioi toisia ihmisiä, joten olisi luonnollista olettaa, että sujuvaan keskusteluun kykenevällä agentilla on oltava ihmisen kaltainen älykkyys ja muita psykologisia ominaisuuksia, kuten uskomuksia, haluja ja itsetietoisuutta. .
jos meidän on sanottava, että tämä tekoälyn kehityshistoria on opettanut meille jotain, niin se on, että intuitiomme tästä oletuksesta on pohjimmiltaan väärä.
vuosikymmeniä sitten monet merkittävät tekoälyasiantuntijat uskoivat, että ihmisen shakissa voittavan koneen luominen vaatisi täyttä ihmisen älykkyyttä.
- tekoälyn pioneerit allen newell ja herbert simon kirjoittivat vuonna 1958: "jos voisi suunnitella menestyvän shakkikoneen, näyttäisi pääsevän ihmisen älyllisen pyrkimyksen ytimeen."
- kognitiivinen tiedemies douglas hofstadter ennusti vuonna 1979, että tulevaisuudessa "saattaa olla shakkiohjelmia, jotka voivat voittaa kenet tahansa... ne ovat universaalisti älykkäitä ohjelmia".
kahden seuraavan vuosikymmenen aikana ibm:n deep blue voitti shakin maailmanmestarin garry kasparovin raa'an voiman laskentamenetelmillä, mutta tämä oli kaukana siitä, mitä kutsumme "yleiseksi älykkyydeksi".
samoin tehtävät, joita aikoinaan pidettiin vaativan yleistä älykkyyttä – puheentunnistus, luonnollisen kielen kääntäminen ja jopa autonominen ajaminen – on kaikki suoritettu koneilla, joilla ei ole juuri mitään ihmisen ymmärrystä.
nykyään turingin testistä voi hyvinkin tulla toinen uhri älykkyyskäsityksissämme.
vuonna 1950 turing ymmärsi, että ihmisen kaltaisen keskustelun kyvyn pitäisi olla vahva todiste "ajattelusta" ja kaikesta siihen liittyvästä. tämä intuitio on vahva tänään.
mutta kuten olemme oppineet elizalta, eugene goostmanilta ja chatgpt:ltä ja sen kaltaisista henkilöistä, kyky käyttää luonnollista kieltä sujuvasti, kuten shakin pelaaminen, ei ole vakuuttava todiste yleisestä älykkyydestä.
itse asiassa viimeisimpien neurotieteen alan tutkimusten mukaan verbaalinen sujuvuus on yllättävän irrallaan muista kognition näkökohdista.
mit:n neurotieteilijä ev fedorenko ja hänen työtoverinsa ovat osoittaneet useilla huolellisilla ja vakuuttavilla kokeilla, että
aivoverkot, joista kielentuotantoon liittyvät "muodolliset kielikyvyt" ja joista terve järki, päättely ja muu "ajattelu" riippuvat, ovat suurelta osin erillisiä.
"uskomme intuitiivisesti, että sujuva kielitaito on riittävä edellytys yleiselle älykkyydelle, mutta tämä on itse asiassa "harhaa".

uusia testejä on tulossa

joten kysymys kuuluu, jos turingin testi ei pysty arvioimaan luotettavasti koneälyä, mitä voi?
marraskuun 2023 "intelligent computing" -julkaisussa psykologi philip johnson-laird princetonin yliopistosta ja marco ragni, ennustavan analytiikan professori chemnitzin teknisestä yliopistosta saksassa, ehdottivat erilaista testiä.
"ajattele mallia psykologian kokeilun osallistujana ja katso, voiko se ymmärtää oman päättelynsä."

he esimerkiksi kysyvät mallilta seuraavan kysymyksen: "jos ann on älykäs, onko hän älykäs, rikas vai molemmat?"
vaikka logiikan säännöillä on mahdollista päätellä, että ann on älykäs, rikas tai molemmat, useimmat ihmiset hylkäävät tämän päätelmän, koska ympäristössä ei ole mitään, mikä viittaa siihen, että hän voisi olla rikas.
jos malli myös hylkää tämän päätelmän, se käyttäytyy kuin ihminen, ja tutkijat siirtyvät seuraavaan vaiheeseen ja pyytävät konetta selittämään päättelynsä.
jos sen antamat syyt ovat samanlaisia ​​kuin ihmisten antamat, kolmas vaihe on tarkistaa, onko lähdekoodissa komponentteja, jotka simuloivat ihmisen suorituskykyä. nämä komponentit voivat sisältää järjestelmän nopeaa päättelyä varten, toisen harkittumpaa päättelyä varten ja järjestelmän, joka muuttaa sanojen kuten "tai" tulkintaa kontekstista riippuen.
tutkijat uskovat, että jos malli läpäisee kaikki nämä testit, sen voidaan katsoa simuloivan ihmisen älykkyyttä.