Nachricht

ChatGPTs verschmutzen den akademischen Kreis

2024-08-01

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


kluge Dinge
Zusammengestellt von Chen Junda
EditPanken

Laut einem Bericht der führenden Fachzeitschrift Nature von gestern hat der Einsatz generativer KI beim wissenschaftlichen Schreiben ein explosionsartiges Wachstum erlebt. Einschlägige Untersuchungen zeigen, dass bei 10 % der Abstracts von Aufsätzen in PubMed, der größten Datenbank im biomedizinischen Bereich, der Verdacht besteht, dass sie von KI verfasst wurden, was der Beteiligung von KI an 150.000 Aufsätzen pro Jahr entspricht.

Untersuchungen der Fachhochschule Berlin in Deutschland zeigen, dass die durchschnittliche Genauigkeit der gängigen AIGC-Erkennungstools nur 50 % beträgt und es leicht festzustellen ist, dass menschliche Schreibinhalte durch KI generiert werden. Viele KI-generierte Arbeiten lassen sich jedoch leicht durch Paraphrasierung, Synonymersetzung usw. verbergen. Darüber hinaus ist die Nutzung von KI-Tools durch englische Muttersprachler schwieriger zu erkennen.

Obwohl KI-Tools in der Wissenschaft schon früher weit verbreitet waren, ist der Einsatz generativer KI zur direkten Ausgabe von Arbeiten oder zum Schreiben von Ghostwritern immer noch umstritten. KI-Tools erleichtern Plagiate und können zum Missbrauch urheberrechtlich geschützter Inhalte führen.

KI-gestütztes Schreiben ist nicht ohne Vorzüge. Viele Wissenschaftler nutzen generatives KI-gestütztes Schreiben, um die Mühe zu vermeiden, Arbeiten in unbekannten Sprachen zu veröffentlichen, und können sich auf die wissenschaftliche Forschung selbst konzentrieren. Viele Zeitschriften erlauben den Einsatz generativer KI-Tools, verlangen jedoch von den Autoren, dass sie deren Einsatz in ihren Arbeiten detailliert offenlegen.

1. KI kann am Verfassen von 150.000 Abstracts beteiligt sein, und es ist wahrscheinlicher, dass Nicht-Muttersprachler des Englischen entdeckt werden

Seit der Veröffentlichung von ChatGPT Ende 2022 ist der Einsatz von KI beim wissenschaftlichen Schreiben explosionsartig angestiegen. Untersuchungen der Universität Tübingen in Deutschland zeigen, dass im ersten Halbjahr 2024 mindestens 10 % der Abstracts in biomedizinischen Arbeiten mithilfe von KI verfasst werden, was jährlich etwa 150.000 Arbeiten pro Jahr entspricht.

Dieses Forschungsteam analysierte die Abstracts von 14 Millionen Artikeln in der biomedizinischen Fachdatenbank PubMed von 2010 bis 2024. Sie fanden heraus, dass nach dem Aufkommen generativer KI-Tools, die durch ChatGPT repräsentiert werden, die Verwendung spezifischer modifizierender Stilwörter ungewöhnlich stark zugenommen hat. Das Forschungsteam nutzte die Häufigkeit dieser Wörter, um den Anteil der mithilfe von KI verfassten Abstracts abzuschätzen.

Die Forscher fanden außerdem heraus, dass die Verwendung von KI-Schreibwerkzeugen auch von Land zu Land unterschiedlich ist. Ihre Daten zeigen, dass Artikel aus Ländern wie China und Südkorea häufiger KI-Schreibwerkzeuge verwenden als Artikel aus englischsprachigen Ländern.


▲Die Verwendung von stilistischem Vokabular im wissenschaftlichen Schreiben hat stark zugenommen (Quelle: „Nature“)

Der Analyse des Forschungsteams zufolge ähnelt die Häufigkeit des Einsatzes von KI durch Autoren in englischsprachigen Ländern möglicherweise der in anderen Ländern, die Art und Weise, wie sie KI verwenden, ist jedoch möglicherweise schwieriger zu erkennen.

Tatsächlich wurde KI bereits vor dem Aufkommen dieser generativen KI in Bereichen wie der Arzneimittelforschung und der Proteinstrukturvorhersage eingesetzt. Der Grund dafür könnte sein, dass KI bei solchen Anwendungen eindeutig eine Rolle spielt eine Rolle. Es ist immer noch eine Nebenrolle.

Die Anwendung generativer KI im wissenschaftlichen Schreiben bringt zwei große Probleme mit sich. Einerseits wird Plagiat durch generative KI erleichtert. Plagiatoren können generative KI nutzen, um die Forschung anderer Leute im Stil von Fachzeitschriften zu paraphrasieren. Der paraphrasierte Text ähnelt im Allgemeinen weniger dem Originaltext und kann daher nur schwer als Plagiat beurteilt werden.

Darüber hinaus verbraucht das KI-Modell während des Trainingsprozesses eine große Menge urheberrechtlich geschützter Inhalte, und es ist sehr wahrscheinlich, dass das Modell urheberrechtlich geschützte Inhalte ohne Aufforderung an den Benutzer ausgibt. Die New York Times entdeckte einmal, dass der KI-Chatbot ChatGPT von OpenAI die Originalworte des New York Times-Berichts direkt ausgegeben hatte, ohne die Quelle zu markieren. Sie verklagten OpenAI auch wegen Verstoßes.

2. Erkennungstools versagen im Katz-und-Maus-Spiel. Sie können leicht umgangen und leicht falsch eingeschätzt werden.

Als Reaktion auf den zunehmenden Einsatz von KI-Tools haben viele Unternehmen AIGC-Tools zur Inhaltserkennung eingeführt, diese Tools sind jedoch im „Katz-und-Maus-Spiel“ mit generativer KI gescheitert.

Ende letzten Jahres veröffentlichten mehrere Wissenschaftler der Hochschule für angewandte Wissenschaften Berlin in Deutschland eine Studie. Sie fanden heraus, dass nur 5 von 14 in der Wissenschaft häufig verwendeten KI-Erkennungstools eine Genauigkeitsrate von mehr als 70 % erreichten. Die durchschnittliche Erkennungsgenauigkeit beträgt nur 50–60 %.


▲Mainstream-AIGC-Erkennungstools auf dem Markt schneiden schlecht ab (Quelle: Weber-Wulf et al.)

Diese AIGC-Erkennungstools schneiden sogar noch schlechter ab, wenn sie mit KI-generierten Inhalten konfrontiert werden, die von Menschen bearbeitet und von Maschinen transkribiert werden. Bei nur einfachen Vorgängen wie dem Ersetzen von Synonymen und der Anpassung der Wortreihenfolge verringert sich die Genauigkeit des AIGC-Erkennungstools auf weniger als 50 %. Studien haben gezeigt, dass die umfassende Erkennungsgenauigkeit von AIGC-Erkennungstools nur 50 % beträgt.


▲05 und 06 in der Abbildung sind jeweils der Text nach menschlicher Bearbeitung und maschineller Paraphrase, die von KI generiert wurden. Das AIGC-Erkennungstool schneidet bei diesen beiden Texttypen sehr schlecht ab (Quelle: Weber-Wulf et al.)

Die Daten zeigen, dass die auf dem Markt erhältlichen AIGC-Erkennungstools eine hohe Genauigkeit bei der Identifizierung von von Menschen verfassten Arbeiten aufweisen. Wenn der Autor jedoch zunächst eine Originalarbeit in einer ihm vertrauten Sprache verfasst und dann die Übersetzungssoftware bittet, sie in eine andere Sprache zu übersetzen, kann es sein, dass das Identifizierungstool sie fälschlicherweise als AIGC einschätzt. Dies kann äußerst negative Auswirkungen auf die akademische Reputation von Wissenschaftlern und Studierenden haben.

3. Die Grenzen zwischen unterstütztem Schreiben und akademischem Fehlverhalten verschwimmen, und auch KI-Schreibwerkzeuge haben ihren Wert.

Allerdings bringt der Einsatz generativer KI-Tools für einige Forscher durchaus Komfort mit sich. Hend Al-Khalifa, ein Informationstechnologieforscher an der King Saud University in Riad, teilte mit, dass vor dem Aufkommen generativer KI-Tools viele Kollegen, die nicht über Englischkenntnisse verfügten, beim Verfassen von Arbeiten auf große Schwierigkeiten stießen und diese Wissenschaftler sich nun darauf konzentrieren können auf die Recherche selbst, ohne zu viel Zeit mit dem Schreiben zu verbringen.

Die Grenze zwischen KI-gestütztem Schreiben und akademischem Fehlverhalten ist schwer zu ziehen. Soheil Feizi, Informatiker an der University of Maryland, glaubt, dass die Verwendung generativer KI zur Paraphrasierung des Inhalts einer bestehenden Arbeit eindeutig ein Plagiat ist.

Der Einsatz von KI-Tools zur Unterstützung der Meinungsäußerung sollte jedoch nicht bestraft werden. Unter der Voraussetzung, den Einsatz von KI-Tools proaktiv offenzulegen, können Forscher detaillierte Aufforderungswörter zum Generieren von Text verwenden oder KI-Tools zum Bearbeiten von Entwürfen verwenden.

Auch viele Zeitschriften haben den Einsatz von KI-Tools beim wissenschaftlichen Schreiben standardisiert, ohne ihn direkt zu verbieten. Die Top-Fachzeitschrift „Science“ schreibt vor, dass AI nicht als Co-Autor aufgeführt werden kann und der Autor das KI-System und die verwendeten Schnellwörter offenlegen und für die Richtigkeit des Inhalts und den Verdacht auf Plagiat verantwortlich sein soll.


▲Relevante Regelungen zum Einsatz von KI in der Fachzeitschrift „Science“ (Quelle: Offizielle Website der Fachzeitschrift „Science“)

Die Fachzeitschrift Nature schreibt vor, dass Forschende den Einsatz generativer KI-Tools in der Rubrik „Forschungsmethoden“ erfassen sollen. Statistiken zeigen, dass im Oktober 2023 87 der 100 bestplatzierten Fachzeitschriften Richtlinien für den Einsatz generativer KI-Tools entwickelt haben.

Fazit: KI-Tools sind keine Geißel, nur eine Änderung der akademischen Ausrichtung kann die Grundursache beheben

In der vergangenen Abschlusssaison haben viele inländische Universitäten auch AIGC-Testtools für die Verteidigung und Überprüfung von Abschlussarbeiten eingeführt. Allerdings hat die Einführung dieses Indikators akademisches Fehlverhalten im Zusammenhang mit KI-Tools nicht wirksam eingedämmt. Es gibt auch verschiedene Dienste auf dem Markt, die sich auf die Reduzierung der KI-Quote spezialisiert haben. Nachdem sie fälschlicherweise als KI-generiert eingeschätzt wurden, wurden die Arbeiten vieler Studierender aufgrund der KI-Ratensenkung bis zur Unkenntlichkeit verändert.

Ein kontroverser Ansatz gegenüber generativen KI-Tools in der akademischen Forschung kann dieses Problem möglicherweise nicht lösen. Wissenschaftler der Fachhochschule Berlin in Deutschland betonten in ihrer Zusammenfassung der Forschung auch, dass das Problem des KI-Missbrauchs beim akademischen Schreiben allein mit der AIGC-Erkennung schwer zu lösen sei. Der Schlüssel dazu sei die Anpassung der akademischen Atmosphäre, die auf Papier und Ergebnisse ausgerichtet sei dieses Problem zu lösen.

Quelle: „Natur“