ニュース

ChatGPT は学術界を汚染している

2024-08-01

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


賢いもの
チェン・ジュンダ編纂
編集パンケン

昨日のトップ学術誌ネイチャーのレポートによると、学術論文における生成 AI の使用が爆発的な成長をもたらしたとのことです。関連調査によると、生物医学分野最大のデータベースであるPubMedの論文要約の10%がAIによって書かれた疑いがあり、これは毎年15万本の論文にAIが関与していることに相当する。

ドイツのベルリン応用科学大学の研究によると、主流の AIGC 検出ツールの平均精度はわずか 50% であり、人間の書き込みコンテンツが AI によって生成されたものであると判断するのは簡単です。ただし、AI によって生成された論文の多くは、言い換えや同義語の置換などによって簡単に隠すことができます。さらに、英語を母国語とする人による AI ツールの使用を検出することはさらに困難です。

AI ツールはこれまで学術界で広く使用されてきましたが、生成 AI を使用して論文やゴーストライトを直接出力することについては、依然として議論の余地があります。 AI ツールにより盗作が容易になり、著作権で保護されたコンテンツの悪用につながる可能性があります。

AI 支援による執筆にはメリットがないわけではありません。多くの学者は、馴染みのない言語で論文を出版する手間を省き、科学研究そのものに集中できるようにするために AI 支援による生成的執筆を利用しています。多くのジャーナルでは生成 AI ツールの使用を許可していますが、著者はその使用方法を論文内で詳細に開示することを求めています。

1. AI が 150,000 件の抄録の作成に関与している可能性があり、英語を母国語としない人が発見される可能性が高くなります

2022 年後半に ChatGPT がリリースされて以来、学術論文における AI の使用が爆発的に増加しました。ドイツのテュービンゲン大学の研究によると、2024年上半期には生物医学論文の要約の少なくとも10%がAIを利用して書かれ、年間ベースで約15万本の論文に相当するという。

この研究チームは、2010年から2024年までの生物医学分野のデータベースPubMedにある1,400万件の論文の抄録を分析したところ、ChatGPTに代表される生成AIツールの出現以降、特定の修飾文体単語の使用が異常に増加したことが判明した。研究チームは、これらの単語の頻度を使用して、AI を使用して書かれた要約の割合を推定しました。

研究者らはまた、AI ライティング ツールの使用状況も国によって異なることを発見しました。彼らのデータは、中国や韓国などの国の論文が英語圏の国の論文よりも AI 執筆ツールをより頻繁に使用していることを示しています。


▲学術文書における文体語彙の使用が急増(出典:「Nature」)

研究チームの分析によると、英語圏の著者によるAIの使用頻度は他の国と同様かもしれないが、その使用方法を検出するのはより難しい可能性がある。

実際、このような生成型 AI の波が現れる前に、AI は創薬やタンパク質の構造予測などの分野ですでに使用されており、これらの用途ではそれほど大きな議論を引き起こさなかったのかもしれません。まだまだ脇役です。

学術論文への生成 AI の応用は 2 つの大きな問題を引き起こします。一方で、盗作は生成 AI によって容易になります。剽窃者は、生成 AI を使用して、他人の研究を学術雑誌のスタイルで言い換えることができます。言い換えられたテキストは、通常、元のテキストとの類似性が低いため、盗作と判断されるのは困難です。

さらに、AI モデルはトレーニング プロセス中に大量の著作権で保護されたコンテンツを消費し、モデルはプロンプトなしで著作権で保護されたコンテンツをユーザーに出力する可能性が非常に高くなります。 ニューヨーク・タイムズ紙はかつて、OpenAIのAIチャットボットChatGPTが、出典を明記せずにニューヨーク・タイムズ紙の報道の原文を直接出力していたことを発見した。彼らはまた、OpenAIを侵害で訴えた。

2. 検出ツールはいたちごっこでは失敗します。それらは簡単に回避され、簡単に判断を誤る可能性があります。

AI ツールの使用の増加に対応して、多くの企業が AIGC コンテンツ検出ツールを発表しましたが、これらのツールは生成 AI との「いたちごっこ」に失敗しました。

昨年末、ドイツのベルリン応用科学大学の数人の学者が、学界で一般的に使用されている 14 種類の AI 検出ツールのうち、70% 以上の精度を達成したのは 5 つだけであるという研究結果を発表しました。平均的な認識精度はわずか 50% ~ 60% です。


▲市場で主流の AIGC 検出ツールのパフォーマンスは低い (出典: Weber‑Wulf et al.)

これらの AIGC 検出ツールは、人間によって編集され、機械によって転写された AI 生成コンテンツに直面すると、パフォーマンスがさらに低下します。同義語の置換や語順の調整などの簡単な操作だけでは、AIGC 検出ツールの精度は 50% 以下に低下します。研究によると、AIGC 検出ツールの総合的な認識精度はわずか 50% です。


図の▲05 と 06 は、それぞれ人間による編集後のテキストと、AI によって生成された機械による言い換え後のテキストです。AIGC 検出ツールは、これら 2 種類のテキストに対して非常に低いパフォーマンスを示します (出典: Weber‑Wulf et al.)。

データによると、市販の AIGC 認識ツールは人間が書いた論文を識別する精度が高いことが示されています。ただし、著者が最初に使い慣れた言語で原論文を書き、それを翻訳ソフトウェアに別の言語に翻訳してもらうと、識別ツールが AIGC と誤判定する可能性があります。これは、学者や学生の学術的評判に非常に悪影響を与える可能性があります。

3. 執筆支援と学術的不正行為の境界があいまいになり、AI 執筆ツールにも価値があります。

ただし、生成 AI ツールの使用は一部の研究者に利便性をもたらします。リヤドのキング・サウード大学の情報技術研究者であるヘンド・アル・ハリファ氏は、生成型 AI ツールが登場する前は、英語に堪能ではない多くの同僚が論文を書く際に大きな困難に直面していましたが、今ではこれらの学者が集中できるようになったと述べました。執筆に多くの時間を費やすのではなく、研究そのものに集中できます。

AI支援による執筆と学術的不正行為との線引きは難しい。メリーランド大学のコンピューター科学者であるソヘイル・フェイジ氏は、生成 AI を使用して既存の論文の内容を言い換えることは明らかに盗作であると考えています。

しかし、意見表明を支援するために AI ツールを使用することは罰されるべきではありません。 AIツールの使用を積極的に公開することを前提として、研究者は詳細なプロンプトワードを使用してテキストを生成したり、AIツールを使用して草案を編集したりできます。

多くのジャーナルも、直接禁止することなく、学術論文における AI ツールの使用を標準化しています。トップ学術誌「サイエンス」は、AIを共著者として記載することはできず、著者はAIのシステムや使用したプロンプトワードを公開し、内容の正確性や盗作の疑いの有無について責任を負わなければならないと規定している。


▲学術誌「サイエンス」におけるAI利用に関する関連規定(出典:学術誌「サイエンス」公式サイト)

学術誌ネイチャーは、研究者が生成AIツールの使用を「研究方法」セクションに記録することを規定している。統計によると、2023 年 10 月の時点で、上位 100 誌のうち 87 誌が生成 AI ツールの使用に関するガイドラインを作成しています。

結論: AI ツールは災いではなく、根本原因を解決できるのは学問的方向性を変えることだけです

過去の大学卒業シーズンには、多くの国内大学も卒業論文の審査および審査プロセスに AIGC テスト ツールを導入しました。しかし、この指標の導入は、AI ツールに関連した学術的不正行為を効果的に抑制することはできませんでした。 AIの割合を減らすことに特化したさまざまなサービスも市場に出ており、AIが生成したものと誤判定された後、多くの学生の論文がAIの割合の減少により認識できないほど変更されました。

学術研究において生成 AI ツールに敵対的アプローチを採用しても、この問題を解決できない可能性があります。ドイツのベルリン応用科学大学の学者らも、学術論文におけるAI悪用の問題はAIGC検出だけで解決するのは難しいと研究を総括する際に強調しており、論文と結果を重視する学術的な雰囲気を調整することが鍵となると述べた。この問題を解決します。

出典:「ネイチャー」