notizia

il vicepresidente di microsoft vik singh: i chatbot con intelligenza artificiale devono "imparare a chiedere aiuto" anziché "creare illusioni"

2024-09-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it house news il 2 settembre. il 1 settembre, ora locale, secondo l'agence france-presse, il vicepresidente di microsoft vik singh ha dichiarato in un'intervista: "francamente, le capacità che (l'intelligenza artificiale generativa) realmente mancano oggi sono cioè quando il modello non è sicuro (se la sua risposta sia accurata), può dire in modo proattivo "ehi, non sono sicuro, ho bisogno di aiuto".

dallo scorso anno, microsoft, google e i loro concorrenti hanno implementato rapidamente applicazioni di intelligenza artificiale generativa come chatgpt e gemini, che possono generare una varietà di contenuti su richiesta e dare agli utenti l’illusione di “onniscienza”. nonostante i progressi nello sviluppo dell’intelligenza artificiale generativa, possono ancora avere “allucinazioni” o inventare risposte.

fonte immagine pexels

vik singh insiste sul fatto che le "persone veramente intelligenti" stanno lavorando su come convincere i chatbot ad "ammettere e chiedere aiuto" quando non conoscono la risposta giusta.

nel frattempo, anche marc benioff, ceo del colosso del software cloud salesforce, ha affermato la settimana scorsa di aver visto molti clienti diventare sempre più frustrati dalle prestazioni fuorvianti di microsoft copilot.

it house ha appreso che negli ultimi anni l'intelligenza artificiale si è sviluppata vigorosamente e applicazioni come i chatbot sono gradualmente diventate popolari. le persone possono ottenere informazioni da questi chatbot (come chatgpt) attraverso semplici istruzioni. tuttavia, questi chatbot sono ancora soggetti al problema delle "allucinazioni", che forniscono risposte sbagliate e informazioni talvolta pericolose. una delle cause delle "allucinazioni" sono i dati di addestramento imprecisi, l'insufficiente capacità di generalizzazione e gli effetti collaterali durante il processo di raccolta dei dati.