notizia

L'allucinazione dell'IA è inevitabile, come affrontarla

2024-08-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Zhang HaiCon il rapido sviluppo della tecnologia dell'intelligenza artificiale (AI), l'"illusione dell'AI", ovvero errori o illusioni nell'elaborazione e nella generazione delle informazioni da parte dell'intelligenza artificiale, è diventata un problema che non può essere ignorato. Nel 2023, "allucinazione" è diventata la parola dell'anno del Cambridge Dictionary e Dictionary.com. Secondo Dictionary.com, le ricerche della parola “allucinazione” sono aumentate del 46% nel 2023 rispetto all’anno precedente. Oltre al significato originale di "allucinazione" nel Dizionario Cambridge, "vedere, sentire, sentire o annusare qualcosa che non c'è, solitamente a causa di una condizione medica o perché hai preso qualche medicina". L'allucinazione dell'IA genera messaggi di errore".Un recente articolo "Machine Behavior" sulla rivista "Nature" ha sottolineato che l'intelligenza artificiale è diventata onnipresente nella società umana oggi. Gli algoritmi di classificazione delle notizie influenzeranno le informazioni che le persone vedono, gli algoritmi di consumo influenzeranno i beni di consumo che le persone acquistano e gli algoritmi di chiamata dei taxi. influenzerà i nostri modelli di viaggio e gli algoritmi della casa intelligente influenzeranno la nostra vita familiare. In campi come il diritto e la medicina, l’impatto dell’intelligenza artificiale è ancora maggiore. L’intelligenza artificiale consente alle macchine di pensare e comportarsi sempre più come gli esseri umani. Di conseguenza, le macchine influenzano sempre più la struttura della società umana. Le macchine modellano il comportamento umano, e anche gli esseri umani modellano il comportamento delle macchine. Il modo in cui uomini e macchine collaborano avrà un impatto significativo e di vasta portata sulla futura forma sociale.Nell’era dell’intelligenza artificiale, l’allucinazione dell’intelligenza artificiale è diventata un fenomeno comune. Dai possibili errori di valutazione nelle auto a guida autonoma all’errata interpretazione delle istruzioni da parte di assistenti intelligenti fino alla diagnosi errata da parte di strumenti diagnostici medici, le illusioni dell’intelligenza artificiale sono presenti in ogni angolo della nostra vita quotidiana. Nel 2024, il motore di ricerca Google ha lanciato un servizio di ricerca sull'intelligenza artificiale: AI Overview, che fornisce risposte generate dall'intelligenza artificiale. L'intenzione originale era quella di migliorare l'esperienza dell'utente, ma gli utenti hanno presto scoperto che la panoramica dell'intelligenza artificiale forniva un gran numero di risposte oltraggiose, come suggerire di utilizzare la colla per attaccare la pizza e di mangiare pietre ogni giorno per ottenere sostanze nutritive, ecc., causando Google per arrestare rapidamente alcune delle sue funzioni.Dal punto di vista degli scienziati dell’intelligenza artificiale, l’illusione dell’IA è essenzialmente inevitabile a causa di limitazioni tecniche e carenze nella cognizione umana. Sebbene i tecnici stiano lavorando duramente per migliorare la precisione e l’affidabilità dell’IA, le illusioni dell’IA si verificano ancora frequentemente e sono difficili da eliminare completamente a causa di fattori quali dati incompleti, limitazioni degli algoritmi e ambienti interattivi complessi.Il meccanismo dell'allucinazione dell'IA coinvolge molti aspetti. Innanzitutto, la distorsione dei dati è una delle ragioni principali. Se i dati di addestramento sull’intelligenza artificiale mancano di diversità o presentano distorsioni sistematiche, i risultati di output potrebbero essere allucinatori. In secondo luogo, gli attuali algoritmi di intelligenza artificiale, soprattutto quelli basati sulle statistiche, non possono adattarsi perfettamente a situazioni nuove e invisibili, il che potrebbe portare a giudizi errati. In terzo luogo, anche i limiti cognitivi dei progettisti umani rappresentano un grosso problema. I pregiudizi soggettivi di progettisti e formatori potrebbero essere inavvertitamente codificati nel sistema di intelligenza artificiale, influenzandone il processo decisionale. Infine, l’ambiente interattivo in cui opera il sistema di intelligenza artificiale è pieno di variabili. Fattori ambientali complessi e mutevoli spesso superano le capacità di elaborazione del sistema di intelligenza artificiale, portando alla generazione di allucinazioni di intelligenza artificiale.Come affrontare l'ubiquità e l'inevitabilità delle allucinazioni dell'IA? Innanzitutto, è fondamentale migliorare la qualità e la diversità dei dati. Aumentando l’ampiezza e la profondità dei dati di addestramento, è possibile ridurre la distorsione dei dati e migliorare la capacità di generalizzazione del sistema di intelligenza artificiale. In secondo luogo, l’ottimizzazione della progettazione dell’algoritmo e il miglioramento della sua robustezza e adattabilità possono consentire al sistema di intelligenza artificiale di affrontare meglio le nuove situazioni. In terzo luogo, è fondamentale anche migliorare l’educazione e la consapevolezza degli utenti. Aiutare gli utenti a comprendere correttamente le capacità e i limiti dell’intelligenza artificiale può ridurre efficacemente le illusioni causate da incomprensioni. Inoltre, stabilire norme etiche e meccanismi di supervisione per garantire che lo sviluppo e l’applicazione dell’IA rispettino gli standard etici e legali è altrettanto importante per ridurre il verificarsi di allucinazioni legate all’IA. Infine, la collaborazione interdisciplinare gioca un ruolo chiave nella gestione delle allucinazioni dell’IA. Ingegneri, data scientist, psicologi, esperti di etica ed esperti legali dovrebbero partecipare congiuntamente al processo di progettazione e valutazione dei sistemi di intelligenza artificiale e risolvere congiuntamente il problema dell’illusione dell’intelligenza artificiale dalle prospettive professionali dei rispettivi campi.Nell’era dell’intelligenza artificiale, l’allucinazione dell’IA è un problema complesso, comune e inevitabile, che richiede l’adozione di strategie multidimensionali e multilivello per affrontarlo, minimizzando così l’impatto negativo dell’allucinazione dell’IA. Le “Linee guida per l’intelligenza artificiale generativa nell’istruzione e nella ricerca” pubblicate dall’UNESCO nel 2023 raccomandano di fissare a 13 anni l’età minima per l’utilizzo degli strumenti di intelligenza artificiale in classe. Open AI raccomanda che ai bambini di età inferiore ai 13 anni sia vietato utilizzare l’intelligenza artificiale generativa e che i bambini di età compresa tra 13 e 18 anni debbano utilizzarla sotto la guida di un tutore.Nel 2023 si terrà a Singapore un Trusted Media Summit per condividere le misure adottate da vari paesi per migliorare l’alfabetizzazione mediatica dei giovani. Ad esempio, "SQUIZ KIDS", un'attività di assistenza pubblica lanciata all'estero basata su siti Web e podcast e rivolta agli studenti delle scuole primarie per migliorare l'alfabetizzazione mediatica, aiuta a coltivare la capacità dei giovani di distinguere la disinformazione e le false informazioni che appaiono su Internet. Consiste principalmente in tre passaggi: STOP quando sei esposto alle informazioni della rete, pensaci (THINK) e infine controlla una coppia (CHECK) per confermare se è coerente con una fonte di informazioni affidabile. Raccogliendo conoscenze e competenze provenienti da diversi campi per identificare in modo più completo i problemi e trovare soluzioni, possiamo guardare avanti all’arrivo di una società dell’intelligenza artificiale più intelligente, più sicura e più affidabile. (L'autore è professore presso la School of Media Science della Northeast Normal University e direttore del Jilin Provincial Education and Artificial Intelligence Integrated Innovation Engineering Center) ▲
Segnalazione/feedback