nouvelles

Je n’ose plus utiliser ChatGPT pour rédiger des articles ! L'outil anti-triche OpenAI exposé

2024-08-05

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Vérifiez si le contenu est utiliséChatGPT, la précision est aussi élevée que99.9%

Cet outil vient deOpenAI

Il peut être spécifiquement utilisé pour détecter si un devoir/un devoir a été compromis à l'aide de ChatGPT. Des idées ont été lancées dès novembre 2022 (le même mois où ChatGPT a été lancé).

mais!

Une chose tellement utile, mais c'était en interneCaché dans la neige depuis 2 ans, il n'a pas encore été rendu public.

Pourquoi?

OpenAI a mené une enquête auprès des utilisateurs fidèles et a découvert queprès d'un tiers des personnes ont déclaré qu’elles abandonneraient ChatGPT si des outils anti-triche étaient utilisés. Et cela pourrait également avoir un impact plus important sur les utilisateurs non anglophones.

Cependant, certaines personnes au sein de l’entreprise ont également suggéré que l’utilisation de méthodes anti-triche serait bénéfique pour l’écosystème OpenAI.

Les deux parties se sont disputées et l'outil de détection de filigrane n'a pas été publié.

En plus d'OpenAI, Google et Apple ont également préparé des outils similaires, et certains ont commencé des tests internes, mais aucun n'a été officiellement lancé.

Les discussions ont commencé avant la sortie de ChatGPT

Après que ChatGPT soit devenu populaire, de nombreux lycéens et étudiants l'ont utilisé pour faire leurs devoirs, donc comment identifier le contenu généré par l'IA est devenu un sujet brûlant dans le cercle.

À en juger par les dernières informations exposées, OpenAI a examiné ce problème bien avant la sortie de ChatGPT.

La personne qui a développé cette technologie à cette époque étaitScott Aaronson, qui travaille sur la sécurité chez OpenAI et est professeur d'informatique à l'Université du Texas.

Début 2023, l'un des co-fondateurs d'OpenAIJohn Schulman, décrivant les avantages et les inconvénients de l'outil dans un document Google.

Les dirigeants de l’entreprise ont alors décidé de solliciter l’avis de diverses personnes avant de prendre d’autres mesures.

En avril 2023, une enquête commandée par OpenAI montrait qu’il n’y avait que1/4des personnes soutiennent l’ajout d’outils de détection.

Le même mois, OpenAI a annoncé un autreUtilisateurs de ChatGPTNous avons mené une enquête.

Les résultats montrent qu'il existeprès de 30%des utilisateurs ont déclaré qu'ils utiliseraient moins ChatGPT s'il déployait des filigranes.

Depuis, la controverse perdure sur la maturité technique de l’outil et les préférences des utilisateurs.

Début juin de cette année, OpenAI a convoqué des cadres supérieurs et des chercheurs pour discuter à nouveau du projet.

On dit qu'en fin de compte, tout le monde a convenu que même si la technologie a mûri, les résultats de l'enquête auprès des utilisateurs de ChatGPT de l'année dernière ne peuvent être ignorés.

Des documents internes montrent qu'OpenAI estime qu'il doit le faireavant cet automneÉlaborer un plan pour influencer la perception du public quant à la transparence de l’IA.

Cependant, jusqu'à la publication des nouvelles actuelles, OpenAI n'a pas divulgué de contre-mesures pertinentes.

Pourquoi ne pas le rendre public ?

Pour résumer les raisons pour lesquelles OpenAI n'a pas divulgué cette technologie depuis longtemps,Il y a principalement deux aspects: L’un est la technologie et l’autre la préférence de l’utilisateur.

Parlons d’abord de technologie. Dès janvier 2023, OpenAI a développé une technologie permettant de filtrer le texte de plusieurs modèles d’IA (dont ChatGPT).

La technologie utilise une approche de type « filigrane » pour intégrer des marqueurs invisibles dans le texte.

De cette façon, lorsque quelqu'un analyse le texte avec un outil de détection, le détecteur peut fournir un score indiquant la probabilité que le texte ait été généré par ChatGPT.

Cependant, le taux de réussite n’était à l’époque que de 26 %, et OpenAI l’a retiré après seulement 7 mois.

Plus tard, OpenAI a progressivement augmenté le taux de réussite de la technologie à 99,9 %. Techniquement, le projet était prêt à être lancé il y a environ un an.

Cependant, une autre controverse autour de la technologie est que les employés internes pensent que la technologie pourrait nuireQualité d'écriture ChatGPT

Dans le même temps, les employés ont également exprimé certaines inquiétudes concernant"Les gens peuvent contourner les filigranes"Riques potentiels.

Par exemple, la « technique de traduction » pratiquée par les étudiants consiste à traduire un texte dans une autre langue, puis à le retraduire via une méthode similaire à Google Translate, qui peut être effacée.

Un autre exemple est que quelqu'un a mis en œuvre une « politique d'en haut et des contre-mesures d'en bas ». Une fois que de nouvelles personnes utiliseront publiquement l'outil de filigrane, les internautes désigneront une version crackée en quelques minutes.

Outre la technologie, un autre obstacle majeur concerne les utilisateurs. Plusieurs enquêtes réalisées par OpenAI montrent que les utilisateurs ne semblent pas optimistes quant à cette technologie.

Cela doit également mentionner les utilisateurs.Que faites-vous avec ChatGPT ?

Cette question peut être renvoyée à une enquête du Washington Post. Ils ont examiné près de 200 000 enregistrements de discussions en anglais à partir de l'ensemble de données WildChat. Ces conversations ont été générées par des humains et deux robots construits sur ChatGPT.

Comme on peut le constater, les gens utilisent principalement ChatGPT pourÉcriture (21%)ainsi queAide aux devoirs (18%)

Il ne semble pas difficile de comprendre pourquoi les gens s’opposent à cette technologie de détection.

Alors, acceptez-vous d’ajouter des filigranes lorsque vous utilisez des outils comme ChatGPT ?