Nachricht

Ich traue mich nicht mehr, ChatGPT zum Schreiben von Arbeiten zu verwenden! OpenAI-Anti-Cheat-Tool enthüllt

2024-08-05

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Prüfen Sie, ob der Inhalt verwendet wirdChatGPT, die Genauigkeit ist so hoch wie99.9%

Dieses Tool stammt vonOpenAI

Es kann gezielt verwendet werden, um mithilfe von ChatGPT zu erkennen, ob eine Arbeit/Aufgabe kompromittiert wurde. Ideen wurden bereits im November 2022 in Umlauf gebracht (im selben Monat, in dem ChatGPT eingeführt wurde).

Aber!

So eine nützliche Sache, aber es war intern2 Jahre lang im Schnee versteckt, es wurde noch nicht veröffentlicht.

Warum?

OpenAI hat eine Umfrage unter treuen Benutzern durchgeführt und das herausgefundenfast ein Drittel der Menschen sagten, sie würden ChatGPT aufgeben, wenn Anti-Cheating-Tools verwendet würden. Und es könnte auch größere Auswirkungen auf nicht englischsprachige Benutzer haben.

Einige Personen innerhalb des Unternehmens haben jedoch auch angedeutet, dass der Einsatz von Anti-Cheating-Methoden für das OpenAI-Ökosystem von Vorteil sei.

Die beiden Seiten haben gestritten und das Tool zur Wasserzeichenerkennung wurde nicht veröffentlicht.

Neben OpenAI haben auch Google und Apple ähnliche Tools vorbereitet und einige haben mit internen Tests begonnen, aber keines wurde offiziell eingeführt.

Die Diskussionen begannen bereits vor der Veröffentlichung von ChatGPT

Nachdem ChatGPT populär wurde, nutzten es viele Schüler und Studenten, um ihre Hausaufgaben zu machen. Daher ist die Identifizierung von KI-generierten Inhalten zu einem heißen Thema in der Community geworden.

Den neuesten offengelegten Informationen zufolge hat OpenAI dieses Problem schon lange vor der Veröffentlichung von ChatGPT berücksichtigt.

Die Person, die diese Technologie damals entwickelt hat, warScott Aaronson, der bei OpenAI im Bereich Sicherheit arbeitet und Professor für Informatik an der University of Texas ist.

Anfang 2023 einer der Mitbegründer von OpenAIJohn Schulman, in dem die Vor- und Nachteile des Tools in einem Google-Dokument dargelegt werden.

Die Führungskräfte des Unternehmens beschlossen daraufhin, den Input verschiedener Personen einzuholen, bevor sie weitere Maßnahmen ergreifen würden.

Im April 2023 ergab eine von OpenAI in Auftrag gegebene Umfrage, dass es nur solche gab1/4der Menschen unterstützen das Hinzufügen von Erkennungstools.

Im selben Monat kündigte OpenAI ein weiteres anChatGPT-BenutzerWir haben eine Umfrage durchgeführt.

Die Ergebnisse zeigen, dass es welche gibtfast 30 %der Benutzer gaben an, dass sie ChatGPT weniger nutzen würden, wenn es Wasserzeichen einsetzen würde.

Seitdem gibt es weiterhin Kontroversen über die technische Reife des Tools und die Benutzerpräferenzen.

Anfang Juni dieses Jahres versammelte OpenAI leitende Mitarbeiter und Forscher, um das Projekt erneut zu besprechen.

Am Ende seien sich alle einig gewesen, dass die Technologie zwar ausgereift sei, die Ergebnisse der letztjährigen ChatGPT-Benutzerumfrage jedoch nicht ignoriert werden könnten, heißt es.

Interne Dokumente zeigen, dass OpenAI davon überzeugt ist, dass dies erforderlich istvor diesem HerbstEntwickeln Sie einen Plan, um die öffentliche Wahrnehmung der KI-Transparenz zu beeinflussen.

Allerdings hat OpenAI bis zum Erscheinen der aktuellen Meldung keine relevanten Gegenmaßnahmen bekannt gegeben.

Warum nicht öffentlich machen?

Um die Gründe zusammenzufassen, warum OpenAI diese Technologie lange Zeit nicht offengelegt hat:Es gibt hauptsächlich zwei Aspekte: Das eine ist die Technologie, das andere die Benutzerpräferenzen.

Lassen Sie uns zunächst über die Technologie sprechen. Bereits im Januar 2023 entwickelte OpenAI eine Technologie zum Screening von Texten aus mehreren KI-Modellen (einschließlich ChatGPT).

Die Technologie nutzt einen „Wasserzeichen“-ähnlichen Ansatz, um unsichtbare Markierungen in den Text einzubetten.

Wenn jemand den Text mit einem Erkennungstool analysiert, kann der Detektor auf diese Weise eine Bewertung liefern, die angibt, wie wahrscheinlich es ist, dass der Text von ChatGPT generiert wurde.

Allerdings lag die Erfolgsquote damals nur bei 26 %, und OpenAI zog sie nach nur 7 Monaten zurück.

Später steigerte OpenAI die Erfolgsquote der Technologie schrittweise auf 99,9 %. Technisch gesehen war das Projekt vor etwa einem Jahr zur Veröffentlichung bereit.

Eine weitere Kontroverse im Zusammenhang mit der Technologie besteht jedoch darin, dass interne Mitarbeiter glauben, dass die Technologie schädlich sein könnteChatGPT-Schreibqualität

Gleichzeitig äußerten die Mitarbeiter auch einige Bedenken„Menschen können Wasserzeichen umgehen“mögliche Risiken.

Beispielsweise besteht die von Studenten praktizierte „Übersetzungstechnik“ darin, Text in eine andere Sprache zu übersetzen und ihn dann mithilfe einer Methode, die Google Translate ähnelt, erneut zu übersetzen, wobei die Methode gelöscht werden kann.

Ein weiteres Beispiel ist, dass jemand eine „Richtlinie von oben und Gegenmaßnahmen von unten“ eingeführt hat. Sobald mehr Menschen das Wasserzeichen-Tool öffentlich nutzen, werden Internetnutzer innerhalb von Minuten eine geknackte Version benennen.

Ein weiteres großes Hindernis sind neben der Technologie die Nutzer. Mehrere Umfragen von OpenAI zeigen, dass die Nutzer dieser Technologie offenbar nicht optimistisch gegenüberstehen.

Dabei sind auch die Nutzer zu erwähnen.Was machen Sie mit ChatGPT?

Diese Frage kann auf eine Umfrage der Washington Post verwiesen werden. Sie untersuchte fast 200.000 englische Chat-Datensätze aus dem Datensatz WildChat. Diese Gespräche wurden von Menschen und zwei auf ChatGPT erstellten Bots erstellt.

Wie man sehen kann, verwenden die Leute hauptsächlich ChatGPTSchreiben (21 %)sowieHilfe bei den Hausaufgaben (18 %)

Es scheint nicht schwer zu verstehen, warum Menschen gegen diese Erkennungstechnologie sind.

Sind Sie damit einverstanden, Wasserzeichen hinzuzufügen, wenn Sie Tools wie ChatGPT verwenden?