ニュース

もう ChatGPT を使って論文を書くつもりはありません。 OpenAIアンチチートツールが公開される

2024-08-05

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

コンテンツが使用されているかどうかを確認するチャットGPT、精度は次のように高いです99.9%

このツールの由来は、オープンAI

特に、ChatGPT を使用して論文/課題が侵害されているかどうかを検出するために使用できます。アイデアは、早くも 2022 年 11 月 (ChatGPT が開始されたのと同じ月) に浮上しました。

しかし!

とても便利なものですが、内部的には2年間雪の中に隠れていた、まだ公開されていません。

なぜ?

OpenAI は忠実なユーザーを対象に調査を実施し、次のことを発見しました。ほぼ3分の1の割合の人が、不正行為対策ツールが使用されたら ChatGPT を放棄すると回答しました。また、英語を母国語としないユーザーにも大きな影響を与える可能性があります。

ただし、社内の一部の人々は、不正行為対策方法を使用することが OpenAI エコシステムにとって有益であると示唆しています。

両者は論争を続けており、透かし検出ツールはリリースされていない。

OpenAI以外にも、GoogleやAppleも同様のツールを用意しており、一部は内部テストを始めているが、正式にはリリースされていない。

ChatGPT がリリースされる前に議論が開始されました

ChatGPTが普及してからは、多くの高校生や大学生が宿題に利用するようになり、AIが生成したコンテンツをどうやって識別するかがサークル内で話題になった。

最新の公開情報から判断すると、OpenAI は ChatGPT がリリースされるずっと前からこの問題を検討していました。

当時この技術を開発したのは、スコット・アーロンソン氏は、OpenAI でセキュリティに取り組み、テキサス大学のコンピューター サイエンスの教授でもあります。

2023 年の初めに、OpenAI の共同創設者の 1 人がジョン・シュルマン、ツールの長所と短所を Google ドキュメントで概説します。

その後、同社の幹部らは、さらなる行動を起こす前に、さまざまな人々から意見を求めることを決定した。

2023 年 4 月、OpenAI が委託した調査では、1/4の人々が検出ツールの追加をサポートしています。

同月、OpenAI は別のリリースを発表しました。ChatGPT ユーザーアンケートを実施しました。

結果は、次のことを示しています。30%近くのユーザーは、ChatGPT がウォーターマークを導入すれば使用量が減ると回答しました。

それ以来、ツールの技術的成熟度とユーザーの好みをめぐる論争が続いています。

今年の 6 月初旬、OpenAI は上級スタッフと研究者を招集し、プロジェクトについて再度話し合った。

最終的には、技術は成熟しているものの、昨年のChatGPTユーザー調査の結果は無視できないということで全員が同意したという。

内部文書によると、OpenAI は次のことが必要であると考えているこの秋の前にAI の透明性に対する一般の認識に影響を与える計画を策定します。

しかし、今回のニュースが出るまで、OpenAIは関連する対策を明らかにしていなかった。

なぜ公開しないのでしょうか?

OpenAI がこのテクノロジーを長い間公開しなかった理由を要約すると、次のようになります。主に2つの側面があります: 1 つはテクノロジー、もう 1 つはユーザーの好みです。

まずテクノロジーについて話しましょう。OpenAI は、2023 年 1 月の時点で、複数の AI モデル (ChatGPT を含む) からテキストをスクリーニングするテクノロジーを開発しました。

この技術は、「透かし」のようなアプローチを使用して、目に見えないマーカーをテキストに埋め込みます。

このようにして、誰かが検出ツールでテキストを分析すると、検出ツールはテキストが ChatGPT によって生成された可能性の高さを示すスコアを提供できます。

しかし、当時の成功率はわずか26%で、OpenAIはわずか7カ月で撤回した。

その後、OpenAI はテクノロジーの成功率を徐々に高め、技術的には約 1 年前にプロジェクトをリリースする準備が整いました。

しかし、このテクノロジーをめぐる別の論争は、社内の従業員がこのテクノロジーが害を及ぼす可能性があると信じていることです。ChatGPTの書き込み品質

同時に、従業員からも懸念の声が上がった。「ウォーターマークを回避する人もいるかもしれない」潜在的なリスク。

たとえば、大学生が実践している「翻訳テクニック」は、テキストを別の言語に翻訳し、それをGoogle翻訳のような方法で再度翻訳し直しますが、それは消去される可能性があります。

別の例としては、誰かが「上からの政策と下からの対抗策」を導入した場合です。ウォーターマーク ツールを公に使用する人が増えると、数分以内にネチズンがクラック バージョンを指定することになります。

テクノロジーに加えて、もう 1 つの大きな障害はユーザーです。OpenAI による複数の調査によると、ユーザーはこのテクノロジーに対して楽観的ではないようです。

これにはユーザーについても言及する必要があります。ChatGPTで何をしているのですか?

この質問は、ワシントン ポストによる調査で参照できます。彼らは、WildChat のデータ セットから約 200,000 件の英語のチャ​​ット レコードを調べました。これらの会話は、人間と ChatGPT 上に構築された 2 つのボットによって生成されました。

ご覧のとおり、人々は主に ChatGPT を次の目的で使用します。ライティング (21%)同様に宿題を手伝ってください (18%)

この検出技術に人々が反対する理由を理解するのは難しくないと思われます。

それでは、ChatGPT などのツールを使用するときにウォーターマークを追加することに同意しますか?