uutiset

microsoftin varapresidentti vik singh: ai-chatbottien on "opeteltava pyytämään apua" sen sijaan, että "luoda illuusioita"

2024-09-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it house news 2. syyskuuta. syyskuun 1. päivänä paikallista aikaa agence france-pressen mukaan microsoftin varapuheenjohtaja vik singh sanoi haastattelussa: "rehellisesti sanottuna ominaisuudet, jotka (generatiivisesta tekoälystä) todella puuttuvat nykyään, ovat eli kun malli on epävarma (onko sen oma vastaus oikea), se voi sanoa ennakoivasti "hei, en ole varma, tarvitsen apua."

viime vuodesta lähtien microsoft, google ja heidän kilpailijansa ovat ottaneet nopeasti käyttöön generatiivisia tekoälysovelluksia, kuten chatgpt:tä ja geminiä, jotka voivat tuottaa monenlaista sisältöä pyynnöstä ja antaa käyttäjille illuusion "kaikkitiedosta". huolimatta edistymisestä generatiivisen tekoälyn kehityksessä, he voivat silti "halusinoida" tai keksiä vastauksia.

kuvan lähde pexels

vik singh väittää, että "todella älykkäät ihmiset" etsivät tapoja saada chatbotit "tunnustamaan ja pyytämään apua", kun he eivät tiedä oikeaa vastausta.

samaan aikaan pilviohjelmistojätti salesforcen toimitusjohtaja marc benioff sanoi myös viime viikolla, että hän näki monien asiakkaiden turhautuneen yhä enemmän microsoft copilotin harhaanjohtavaan suorituskykyyn.

it house sai tietää, että tekoäly on kehittynyt voimakkaasti viime vuosina, ja chatbottien kaltaisista sovelluksista on tullut vähitellen suosittuja ihmiset voivat saada tietoa näistä chatboteista (kuten chatgpt) yksinkertaisten ohjeiden avulla. nämä chatbotit ovat kuitenkin edelleen alttiita "hallusinaatioiden" ongelmalle, joka tarjoaa vääriä vastauksia ja joskus vaarallista tietoa. yksi "hallusinaatioiden" syistä on epätarkat harjoitustiedot, riittämätön yleistyskyky ja sivuvaikutukset tiedonkeruuprosessin aikana.