notizia

Non oso più usare ChatGPT per scrivere articoli! Strumento anti-cheat OpenAI esposto

2024-08-05

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Controlla se il contenuto viene utilizzatoChatGPT, la precisione è pari a99.9%

Questo strumento proviene daIA aperta

Può essere utilizzato specificamente per rilevare se un documento/compito è stato compromesso utilizzando ChatGPT. Le idee sono state lanciate già nel novembre 2022 (lo stesso mese in cui è stato lanciato ChatGPT).

Ma!

Una cosa così utile, ma era internamenteNascosto nella neve per 2 anni, non è stato ancora reso pubblico.

Perché?

OpenAI ha condotto un sondaggio tra gli utenti fedeli e lo ha scopertoquasi un terzo delle persone ha affermato che abbandonerebbe ChatGPT se venissero utilizzati strumenti anti-cheat. E potrebbe anche avere un impatto maggiore sugli utenti non madrelingua inglese.

Tuttavia, alcune persone all'interno dell'azienda hanno anche suggerito che l'uso di metodi anti-cheat è vantaggioso per l'ecosistema OpenAI.

Le due parti hanno discusso e lo strumento di rilevamento della filigrana non è stato rilasciato.

Oltre a OpenAI, anche Google e Apple hanno preparato strumenti simili e alcuni hanno iniziato i test interni, ma nessuno è stato lanciato ufficialmente.

Le discussioni sono iniziate prima del rilascio di ChatGPT

Dopo che ChatGPT è diventato popolare, molti studenti delle scuole superiori e universitari lo hanno utilizzato per fare i compiti, quindi come identificare i contenuti generati dall'intelligenza artificiale è diventato un argomento caldo nel circolo.

A giudicare dalle ultime informazioni esposte, OpenAI ha considerato questo problema molto prima del rilascio di ChatGPT.

La persona che sviluppò questa tecnologia in quel momento fuScott Aaronson, che lavora sulla sicurezza presso OpenAI ed è professore di informatica all'Università del Texas.

All'inizio del 2023, uno dei cofondatori di OpenAIGiovanni Schulman, descrivendo i pro e i contro dello strumento in un documento Google.

I dirigenti dell’azienda hanno quindi deciso che avrebbero cercato il contributo di una serie di persone prima di intraprendere ulteriori azioni.

Nell’aprile 2023, un sondaggio commissionato da OpenAI ha dimostrato che esistevano solo1/4delle persone è favorevole all'aggiunta di strumenti di rilevamento.

Nello stesso mese OpenAI ne annunciò un altroUtenti ChatGPTAbbiamo condotto un sondaggio.

I risultati mostrano che ci sonoquasi il 30%degli utenti ha affermato che utilizzerebbe meno ChatGPT se implementasse filigrane.

Da allora, sono continuate le controversie sulla maturità tecnica dello strumento e sulle preferenze dell’utente.

All’inizio di giugno di quest’anno, OpenAI ha riunito personale senior e ricercatori per discutere nuovamente del progetto.

Si dice che alla fine tutti siano d'accordo sul fatto che, sebbene la tecnologia sia maturata, i risultati del sondaggio tra gli utenti di ChatGPT dell'anno scorso non possono essere ignorati.

I documenti interni mostrano che OpenAI ritiene che sia necessario farloprima di questo autunnoSviluppare un piano per influenzare la percezione pubblica della trasparenza dell’IA.

Tuttavia, fino all’uscita delle notizie attuali, OpenAI non ha rivelato contromisure rilevanti.

Perché non renderlo pubblico?

Per riassumere i motivi per cui OpenAI non ha divulgato questa tecnologia per molto tempo,Gli aspetti sono principalmente due: Uno è la tecnologia e l'altro sono le preferenze dell'utente.

Parliamo prima della tecnologia. Già nel gennaio 2023, OpenAI ha sviluppato una tecnologia per lo screening del testo da più modelli di intelligenza artificiale (incluso ChatGPT).

La tecnologia utilizza un approccio simile alla "filigrana" per incorporare marcatori invisibili nel testo.

In questo modo, quando qualcuno analizza il testo con uno strumento di rilevamento, il rilevatore può fornire un punteggio che indica la probabilità che il testo sia stato generato da ChatGPT.

Tuttavia, all’epoca la percentuale di successo era solo del 26% e OpenAI lo ritirò dopo soli 7 mesi.

Successivamente, OpenAI ha gradualmente aumentato il tasso di successo della tecnologia fino al 99,9%. Tecnicamente, il progetto era pronto per il rilascio circa un anno fa.

Tuttavia, un’altra controversia che circonda la tecnologia è che i dipendenti interni ritengono che la tecnologia possa essere dannosaQualità di scrittura ChatGPT

Allo stesso tempo, anche i dipendenti hanno espresso alcune preoccupazioni in merito"Le persone possono aggirare le filigrane"rischi potenziali.

Ad esempio, la "tecnica di traduzione" praticata dagli studenti universitari consiste nel tradurre il testo in un'altra lingua e poi ritradurlo tramite un metodo simile a Google Translate, che può essere cancellato.

Un altro esempio è che qualcuno ha implementato una "politica dall'alto e contromisure dal basso". Una volta che più persone utilizzeranno pubblicamente lo strumento filigrana, i netizen indicheranno una versione crackata in pochi minuti.

Oltre alla tecnologia, un altro grosso ostacolo sono gli utenti. Numerosi sondaggi di OpenAI mostrano che gli utenti non sembrano essere ottimisti riguardo a questa tecnologia.

Questo deve menzionare anche gli utenti.Cosa stai facendo con ChatGPT?

Questa domanda può essere riferita a un sondaggio del Washington Post che ha esaminato quasi 200.000 record di chat in inglese dal set di dati WildChat. Queste conversazioni sono state generate da esseri umani e due bot basati su ChatGPT.

Come puoi vedere, le persone utilizzano principalmente ChatGPT perScrittura (21%)così comeAiuto con i compiti (18%)

Sembra che non sia difficile capire perché le persone si oppongono a questa tecnologia di rilevamento.

Quindi, accetti di aggiungere filigrane quando utilizzi strumenti come ChatGPT?