Nachricht

Nature hat einen Artikel veröffentlicht: Die Definition von „akademischem Plagiat“ wird durch KI verwischt. Wie sollen wir reagieren?

2024-08-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina



(Quelle: Piotr Kowalczyk, Illustrator, Grafikdesigner)

【Anmerkung der Redaktion】Im April dieses Jahres hat Science die bisherige eiserne Regel aufgehoben: Sie legt fest, dass generative künstliche Intelligenz (KI) und große Sprachmodelle (LLM) legitim zum Erstellen von Illustrationen und zum Schreiben von Papierinhalten verwendet werden können, nachdem das Kapitel „Methoden“ der Arbeit angegeben wurde .

Jetzt, KI kann Forschern helfen, mehr Zeit zum Nachdenken zu gewinnen, aber die Frage ist, zählt dies als Plagiat? Und unter welchen Umständen darf diese Technologie eingesetzt werden?

Kürzlich veröffentlichte die Wissenschaftsjournalistin Diana Kwon einen Artikel in der Zeitschrift Nature, in dem sie die Anwendung generativer KI-Tools beim wissenschaftlichen Schreiben und die damit verbundenen Herausforderungen und Auswirkungen erörterte.

Sie wies darauf hin, dass generative KI-Tools wie ChatGPT ein großes Potenzial für Zeitersparnis, mehr Klarheit und den Abbau von Sprachbarrieren bieten, aber auch Probleme mit Plagiaten und Urheberrechtsverletzungen mit sich bringen können.

Sie wies auch darauf hin, dass der Einsatz von KI im wissenschaftlichen Schreiben, insbesondere im biomedizinischen Bereich, explosionsartig zugenommen habe. Jedoch,Das Erkennen von KI-generiertem Text ist schwierig, da dieser durch geringfügige Bearbeitung nahezu nicht mehr erkennbar ist . gleichzeitig,Die Grenzen zwischen legaler und illegaler Nutzung von KI-Tools könnten weiter verschwimmen, da immer mehr Anwendungen und Tools KI-Funktionen integrieren.

Letztendlich ist sie davon überzeugt, dass klarere Richtlinien für den Einsatz von KI beim wissenschaftlichen Schreiben erforderlich sind, um Forschern und Zeitschriften dabei zu helfen, zu bestimmen, wann der Einsatz von KI-Tools angemessen ist und wie sie ihren Einsatz offenlegen können.

Academic Toutiao hat eine einfache Zusammenstellung erstellt, ohne die Hauptidee des Originaltextes zu ändern. Der Inhalt ist wie folgt:

Akademiker wurden in diesem Jahr von Plagiatsvorfällen erschüttert, vom Rücktritt des Präsidenten der Harvard-Universität aufgrund von Anschuldigungen im Januar bis zu Enthüllungen im Februar über plagiierte Texte in Peer-Review-Berichten.

Doch das wissenschaftliche Schreiben steht vor einem größeren Problem . Die rasante Popularität generativer künstlicher Intelligenz (KI) hat die Frage aufgeworfen, ob dies als Plagiat gilt und unter welchen Umständen es zulässig sein sollte. „KI wird in einem breiten Spektrum eingesetzt, von vollständig von Menschen geschrieben bis hin zu vollständig von KI geschrieben, und dazwischen herrscht große Verwirrung“, sagte Jonathan Bailey, Berater für Urheberrecht und Plagiate in New Orleans, Louisiana.

Generative KI-Tools, die auf großen Sprachmodellen (LLM) wie ChatGPT basieren, können Zeit sparen, Texte klarer und verständlicher machen und Sprachbarrieren abbauen. Viele Forscher glauben mittlerweile, dass sie unter bestimmten Umständen akzeptabel sind und dass ihre Verwendung vollständig offengelegt werden sollte.

Diese Tools erschweren jedoch die bereits hitzige Debatte über die unangemessene Nutzung der Arbeit anderer . LLM ist darin geschult, Texte zu generieren, indem er aus einer großen Menge veröffentlichter Schriften lernt. Dies könnte daher zu plagiatsähnlichem Verhalten führen, wenn ein Forscher die Arbeit einer Maschine anerkennt oder wenn maschinell generierter Text der Arbeit einer anderen Person sehr ähnlich ist, ohne die Quelle anzugeben. Diese Tools können auch dazu verwendet werden, absichtlich plagiierte Texte zu verschleiern, und ihre Verwendung ist schwer zu erkennen. „Es wird sehr, sehr schwierig sein zu definieren, was wir unter akademischer Unehrlichkeit oder Plagiat verstehen und wo die Grenzen liegen“, sagt der Ökologe Pete Cotton von der University of Plymouth im Vereinigten Königreich.

In einer Umfrage unter 1.600 Forschern im Jahr 202368 % der Befragten gaben an, dass KI die Erkennung von Plagiaten einfacher und schwerer machen wird . Debora Weber-Wulff, Expertin für Plagiatserkennung an der Fachhochschule Berlin, sagte: „Jeder macht sich Sorgen, dass andere Menschen diese Systeme nutzen, und sie sind auch besorgt, dass sie sie nicht nutzen, wenn sie sie nutzen sollten.“ Ich habe ein bisschen Panik darüber.

Wenn Plagiat auf KI trifft

Gemäß der Definition des U.S. Office of Research Integrity:Plagiat ist „die Verwendung der Ideen, Prozesse, Ergebnisse oder Schriften einer anderen Person ohne ordnungsgemäße Zitierung oder Anerkennung.“ . In einer Studie aus dem Jahr 2015 wurde geschätzt, dass 1,7 % der Wissenschaftler ein Plagiat zugaben und 30 % wussten, dass ihre Kollegen dieses Verhalten begangen hatten.

LLM kann diese Situation verschlimmern.Ein absichtliches Plagiat eines von Menschen geschriebenen Textes kann leicht verschleiert werden, wenn jemand den Text zunächst von einem LLM umschreiben lässt . Muhammad Abdul-Mageed, Informatiker und Linguist an der University of British Columbia in Kanada, sagt, dass die Tools so gesteuert werden können, dass sie auf raffinierte Weise neu schreiben, beispielsweise im Stil einer wissenschaftlichen Zeitschrift.

Eine Kernfrage ist, ob die Verwendung nicht im Abspann aufgeführter Inhalte, die vollständig von einer Maschine und nicht von einem Menschen geschrieben wurden, als Plagiat gilt. Nicht unbedingt, sagen viele Forscher. Beispielsweise definiert das European Academic Integrity Network die unbefugte oder nicht deklarierte Nutzung von KI-Tools zum Schreiben als „unerlaubte Inhaltsgenerierung“ und nicht als Plagiat. „Für mich sollte Plagiat etwas sein, das einer anderen identifizierbaren Person zugeschrieben werden kann“, sagte Weber-Wulff und fügte hinzu, dass es zwar Beispiele dafür gibt, dass generative KI Texte produziert, die nahezu identisch mit vorhandenen, von Menschen geschriebenen Inhalten sind, aber das ist der Fall normalerweise nicht aus, um als Plagiat zu gelten.

Einige Leute glauben jedoch, dass generative KI-Tools das Urheberrecht verletzen.Plagiate und Urheberrechtsverletzungen sind beides unangemessene Verwendungen von Werken anderer Personen. Plagiate stellen einen Verstoß gegen die akademische Ethik dar, während die unbefugte Nutzung urheberrechtlich geschützter Werke gegen das Gesetz verstoßen kann. . „Diese KI-Systeme basieren auf der Arbeit von Millionen oder sogar Hunderten Millionen Menschen“, sagte Rada Mihalcea, Informatikerin an der University of Michigan in Ann Arbor.

Einige Medienunternehmen und Autoren haben gegen eine aus ihrer Sicht Urheberrechtsverletzung durch KI protestiert. Im Dezember 2023 reichte die New York Times eine Urheberrechtsklage gegen Microsoft und OpenAI ein. In der Klage wird behauptet, dass die beiden Unternehmen Millionen von Artikeln der New York Times kopiert und zur Schulung von LLM verwendet haben und dass die von LLM generierten Inhalte nun mit den Inhalten der Veröffentlichung „konkurrieren“. Die Klage umfasst Fälle, in denen GPT-4 aufgrund von Aufforderungen dazu veranlasst wurde, mehrere Passagen eines Zeitungsartikels nahezu wörtlich zu kopieren.

Im Februar dieses Jahres reichte OpenAI beim Bundesgericht einen Antrag auf Abweisung eines Teils der Klage ein und erklärte, dass „ChatGPT in keiner Weise ein Ersatz für ein New York Times-Abonnement ist“, sagte ein Microsoft-Sprecher: „Es sollten legal entwickelte KI-Tools sein.“ verantwortungsvolle Entwicklung erlaubt“ und „sie können auch nicht die wichtigen Inhalte ersetzen, die von Journalisten gespielt werden“.

Wenn ein Gericht entscheidet, dass das Training einer KI mit Texten ohne Erlaubnis eine Urheberrechtsverletzung darstellt, „wird das ein großer Schock für KI-Unternehmen sein“, ohne dass Tools wie ChatGPT „nicht existieren können“.

KI explodiert

Unabhängig davon, ob dies als Plagiat bezeichnet wird oder nicht, ist der Einsatz von KI beim wissenschaftlichen Schreiben seit der Veröffentlichung von ChatGPT im November 2022 explosionsartig angestiegen.

In einem im Juli aktualisierten Vorabdruck schätzten Forscher diesMindestens 10 % der biomedizinischen Abstracts werden im ersten Halbjahr 2024 mit LLM verfasst, was etwa 150.000 Arbeiten pro Jahr entspricht . Die von Dmitry Kobak, einem Datenwissenschaftler an der Universität Tübingen in Deutschland, geleitete Studie analysierte 14 Millionen Abstracts, die zwischen 2010 und Juni 2024 in der akademischen Datenbank PubMed veröffentlicht wurden. Sie zeigen, dass die Entstehung von LLM mit der zunehmenden Verwendung stilistischer Wörter wie „delves“, „showcasing“ und „underscores“ einhergeht, und nutzen diese ungewöhnlichen lexikalischen Muster dann, um den Anteil der mithilfe von KI verarbeiteten Zusammenfassungen abzuschätzen. „Das Aufkommen von LLM-basierten Schreibassistenten hatte einen beispiellosen Einfluss auf die wissenschaftliche Literatur“, schreiben sie.



Abbildung |. Die Entstehung von LLM hängt mit der zunehmenden Verwendung von Stilvokabular zusammen.

Kobak sagt voraus,Der Einsatz von LLMs „wird sicherlich weiter zunehmen“ und „wahrscheinlich schwieriger zu erkennen sein“

Der nicht offengelegte Einsatz von Software beim wissenschaftlichen Schreiben ist nicht neu. Seit 2015 enthüllen Guillaume Cabanac, ein Informatiker an der Universität Toulouse in Frankreich, und seine Kollegen „Kauderwelsch“-Aufsätze, die von einer Software namens SCIgen verfasst wurden, sowie Aufsätze, die „verdrehte Phrasen“ enthalten, die von einer Software erstellt wurden, die oder automatisch übersetzt schreibt Text um. „Schon bevor die generative KI auf den Markt kam, verfügten die Menschen über diese Werkzeuge“, sagte Cabanac.

Der Einsatz von KI beim wissenschaftlichen Schreiben bietet jedoch auch einen gewissen Nutzen . Forscher sagen, dass dadurch Texte und Konzepte klarer werden, Sprachbarrieren abgebaut werden und Zeit für Experimente und Reflexion frei wird. Hend Al-Khalifa, ein Informationstechnologieforscher an der King Saud University in Riad, sagte, dass viele Kollegen, die Englisch als Zweitsprache sprachen, Schwierigkeiten gehabt hätten, Arbeiten zu schreiben, bevor generative KI-Tools verfügbar waren. „Jetzt konzentrieren sie sich auf die Recherche und den Einsatz dieser Tools, um das Schreiben einfacher zu machen“, sagte sie.

Es herrscht jedoch immer noch Unklarheit darüber, wann der Einsatz von KI ein Plagiat darstellt oder gegen die Ethik verstößt. Soheil Feizi, ein Informatiker an der University of Maryland, College Park, sagte, die Verwendung von LLM zum Umschreiben des Inhalts einer bestehenden Arbeit sei eindeutig ein Plagiat. Aber wenn LLM transparent eingesetzt wird, um Ideen auszudrücken – sei es zur Texterstellung auf der Grundlage detaillierter Eingabeaufforderungen oder zur Bearbeitung eines Entwurfs –, sollte dies nicht bestraft werden. „Wir sollten es den Menschen ermöglichen, sich mithilfe von LLM mühelos und klar auszudrücken“, sagte Feizi.

Viele Zeitschriften verfügen mittlerweile über Richtlinien, die eine gewisse Nutzung von LLM zulassen. Nachdem Science zunächst von ChatGPT generierte Texte verboten hatte, aktualisierte Science im November 2023 seine Richtlinie dahingehend, dass der Einsatz von KI-Technologie beim Verfassen von Manuskripten vollständig offengelegt werden sollte – einschließlich der verwendeten Systeme und Eingabeaufforderungen. Es liegt in der Verantwortung des Autors, die Richtigkeit sicherzustellen und „sicherzustellen, dass kein Plagiat vorliegt“. Nature sagt außerdem, dass Autoren von Forschungsmanuskripten jede Verwendung von LLM im Methodenteil dokumentieren sollten. Eine Analyse von 100 großen wissenschaftlichen Verlagen und 100 hochrangigen Zeitschriften ergab, dass im Oktober 2023 24 % der Verlage und 87 % der Zeitschriften Richtlinien für den Einsatz generativer KI hatten. Fast alle, die Leitlinien anbieten, geben an, dass KI-Tools nicht als Urheber genannt werden können, die Richtlinien variieren jedoch hinsichtlich der zulässigen Arten der KI-Nutzung und des erforderlichen Offenlegungsgrads. Weber-Wulff sagte, klarere Richtlinien für den Einsatz von KI beim wissenschaftlichen Schreiben seien dringend erforderlich.

Derzeit sagt Abdul-Mageed, dass die weit verbreitete Nutzung von LLM beim Verfassen wissenschaftlicher Arbeiten durch seine Einschränkungen behindert wird. Benutzer werden gebeten, detaillierte Eingabeaufforderungen zu erstellen, die die Zielgruppe, den Sprachstil und das Forschungsteilgebiet beschreiben. „Es ist tatsächlich sehr schwierig, ein Sprachmodell zu finden, das einem genau das gibt, was man will“, sagte er.

Aber Abdul-Mageed sagte:Entwickler entwickeln Apps, die es Forschern erleichtern, professionelle wissenschaftliche Inhalte zu erstellen . In Zukunft, so sagte er, könnten Benutzer einfach Optionen aus einem Dropdown-Menü auswählen, eine Taste drücken und ein ganzes Papier von Grund auf erstellen, ohne detaillierte Eingabeaufforderungen schreiben zu müssen.

Die Grenzen können weiter verschwimmen

Mit der schnellen Einführung von LLM beim Schreiben von Texten ist auch eine große Anzahl von Tools zur Erkennung von LLM entstanden. . Obwohl viele Tools hohe Genauigkeitsraten versprechen – in manchen Fällen über 90 %, zeigen Untersuchungen, dass die meisten Tools ihren Ansprüchen nicht gerecht werden. In einer im Dezember veröffentlichten Studie bewerteten Weber-Wulff und ihre Kollegen 14 in der Wissenschaft weit verbreitete KI-Erkennungstools. Nur fünf von ihnen waren in der Lage, 70 % oder mehr des Textes genau als von KI oder Menschen geschrieben zu identifizieren, und keiner erzielte eine Wertung über 80 %.

Wenn festgestellt wird, dass jemand den von der KI generierten Text leicht bearbeitet hat,Beim Ersetzen von Synonymen und Neuordnen von Sätzen sank die Genauigkeit des Detektors im Durchschnitt unter 50 % . Ein solcher Text sei „mit aktuellen Tools praktisch nicht erkennbar“, schrieben die Autoren. Andere Untersuchungen haben gezeigt, dass die Aufforderung an eine KI, Text mehrmals umzuschreiben, die Genauigkeit eines Detektors erheblich verringern kann.

Darüber hinaus gibt es noch andere Probleme mit KI-Detektoren. Eine Studie zeigte, dass, wenn englische Artikel von Nicht-Muttersprachlern geschrieben wurden, diese den Text mit größerer Wahrscheinlichkeit fälschlicherweise als KI-generiert einstuften. Feizi sagte, der Detektor könne nicht zuverlässig zwischen Texten unterscheiden, die vollständig von KI geschrieben wurden, und Fällen, in denen der Autor einen KI-basierten Dienst nutzt, um den Text zu polieren, was den Text durch Unterstützung der Grammatik- und Satzklarheit verbessert. "Eine Unterscheidung zwischen diesen Fällen wäre sehr schwierig und unzuverlässig – was möglicherweise zu extrem hohen Fehlalarmraten führen würde„, sagte er. Er fügte hinzu, dass eine fälschliche Beschuldigung des Einsatzes von KI dem Ruf dieser Akademiker oder Studenten „erheblichen Schaden“ zufügen könnte.

Die Grenzen zwischen legaler und illegaler Nutzung von KI könnten weiter verschwimmen . Im März 2023 begann Microsoft mit der Integration seiner generativen KI-Tools in seine Anwendungen, darunter Word, PowerPoint und Outlook. Einige Versionen seines KI-Assistenten Copilot können Inhalte entwerfen oder bearbeiten. Im Juni begann Google außerdem mit der Integration seines generativen KI-Modells Gemini in Tools wie Docs und Gmail.

„KI ist in allem, was wir nutzen, so tief verankert, dass es meiner Meinung nach für die Menschen immer schwieriger werden wird, zu erkennen, ob etwas, das man tut, von KI beeinflusst wurde“, sagte Debby, Hochschulexpertin an der University of St. Mark’s and St John's in Großbritannien sagte. „Ich denke, dass wir möglicherweise nicht mit dem Tempo mithalten können.“

Verfasser: Ma Xuewei

Ursprüngliche Autorin: Diana Kwon, freie Wissenschaftsjournalistin

Ursprünglicher Link: https://www.nature.com/articles/d41586-024-02371-z