소식

네이처(Nature)는 “학술적 표절”의 정의가 AI로 인해 흐려지고 있다는 기사를 게재했습니다.

2024-08-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina



(출처: Piotr Kowalczyk, 일러스트레이터, 그래픽 디자이너)

【편집자 주】올해 4월 사이언스는 이전의 철칙을 뒤집었습니다. 논문의 "방법" 장을 명시한 후 생성 인공지능(AI)과 대규모 언어 모델(LLM)을 합법적으로 사용하여 일러스트레이션을 만들고 종이 콘텐츠를 작성할 수 있다고 규정했습니다. .

지금, AI는 연구자들이 생각할 시간을 더 많이 확보하는 데 도움이 될 수 있지만 문제는 이것이 표절로 간주됩니까?입니다. 그리고 어떤 상황에서 이 기술을 사용하도록 허용해야 합니까?

최근 과학 저널리스트인 Diana Kwon은 Nature 매거진에 학술 글쓰기에서 생성적 AI 도구의 적용과 그것이 가져오는 과제와 영향에 대해 논의하는 기사를 게재했습니다.

그녀는 ChatGPT와 같은 생성 AI 도구가 시간 절약, 명확성 향상, 언어 장벽 감소 측면에서 큰 잠재적 가치를 보여주지만 표절 및 저작권 침해 문제도 수반할 수 있다고 지적했습니다.

그녀는 또한 학술 저술, 특히 생물의학 분야에서 AI의 사용이 폭발적으로 증가했다고 언급했습니다. 하지만,AI가 생성한 텍스트를 감지하는 것은 약간의 편집만으로 거의 감지할 수 없게 렌더링될 수 있기 때문에 어렵습니다. . 동시에,AI 도구의 합법 사용과 불법 사용 사이의 경계가 더욱 모호해질 수 있습니다., 점점 더 많은 애플리케이션과 도구가 AI 기능을 통합하고 있기 때문입니다.

궁극적으로 그녀는 연구자와 저널이 AI 도구를 사용하는 것이 적절한 시기와 그 사용을 공개하는 방법을 결정하는 데 도움이 되도록 학문적 글쓰기에서 AI 사용에 대한 보다 명확한 지침이 필요하다고 믿습니다.

Academic Toutiao는 원문의 주요 사상을 바꾸지 않고 간단한 편집본을 만들었습니다. 내용은 다음과 같습니다.

올해 1월 비난으로 인한 하버드 대학교 총장의 사임에서부터 2월 동료 평가 보고서에 나타난 표절 텍스트 폭로에 이르기까지 학계는 표절 사건으로 인해 큰 혼란에 빠졌습니다.

그러나 학문적 글쓰기는 더 큰 문제에 직면해 있다. . 생성적 인공지능(AI) 도구의 급속한 인기로 인해 이것이 표절로 간주되는지, 어떤 상황에서 허용되어야 하는지에 대한 의문이 제기되었습니다. 루이지애나 주 뉴올리언스의 저작권 및 표절 컨설턴트인 조나단 베일리는 “AI는 전적으로 인간이 작성한 것부터 전적으로 AI가 작성한 것까지 광범위한 스펙트럼에서 사용되며 그 사이에는 엄청난 혼란의 영역이 있습니다.”라고 말했습니다.

ChatGPT와 같은 대규모 언어 모델(LLM)을 기반으로 하는 생성 AI 도구는 시간을 절약하고, 텍스트를 더 명확하고 이해하기 쉽게 만들고, 언어 장벽을 줄일 수 있습니다. 이제 많은 연구자들은 특정 상황에서 허용 가능하며 그 사용이 완전히 공개되어야 한다고 믿습니다.

그러나 이러한 도구는 다른 사람의 작업을 부적절하게 사용하는 것에 대한 이미 열띤 논쟁을 복잡하게 만듭니다. . LLM은 출판된 대규모 저작물로부터 학습하여 텍스트를 생성하도록 교육받았습니다. 그러므로, 연구자가 기계의 작업에 대한 공로를 인정하거나, 기계가 생성한 텍스트가 출처를 밝히지 않고 누군가의 작업과 매우 유사한 경우 표절과 유사한 행동으로 이어질 수 있습니다. 이러한 도구는 의도적으로 표절된 텍스트를 위장하는 데에도 사용될 수 있으며 이러한 도구의 사용은 감지하기 어렵습니다. 영국 플리머스 대학의 생태학자인 피트 코튼(Pete Cotton)은 “학문적 부정직이나 표절이 무엇을 의미하는지, 그리고 그 경계가 어디인지 정의하는 것은 매우 매우 어려울 것입니다.”라고 말했습니다.

2023년 1,600명의 연구자를 대상으로 한 조사에서,응답자의 68%는 AI가 표절 탐지를 더 쉽게 만들고 더 어렵게 만들 것이라고 답했습니다. . 베를린 응용과학대학의 표절 식별 전문가인 데보라 웨버-불프(Debora Weber-Wulff)는 "모든 사람은 다른 사람이 이러한 시스템을 사용하는 것에 대해 걱정하고 있으며, 사용해야 할 때 사용하지 않는 것에 대해서도 걱정하고 있다"고 말했습니다. 이것 때문에 좀 당황스럽네요."

표절이 AI를 만났을 때

미국 연구윤리국(Office of Research Integrity)에서 정의한 바와 같이,표절은 “적절한 인용이나 승인 없이 다른 사람의 아이디어, 과정, 결과 또는 글을 사용하는 것”입니다. . 2015년 연구에 따르면 과학자 중 1.7%가 표절을 인정했으며 30%는 동료가 표절 행위에 가담했다는 사실을 알고 있었습니다.

LLM은 이러한 상황을 더욱 악화시킬 수 있습니다.사람이 쓴 텍스트의 의도적인 표절은 누군가 먼저 LLM이 텍스트를 다시 쓰도록 허용하면 쉽게 위장될 수 있습니다. . 캐나다 브리티시 컬럼비아 대학교의 컴퓨터 과학자이자 언어학자인 Muhammad Abdul-Mageed는 이 도구를 사용하면 학술지 스타일과 같은 정교한 방식으로 다시 작성할 수 있다고 말합니다.

핵심 질문은 사람이 아닌 기계가 작성한 신용 없는 콘텐츠를 사용하는 것이 표절로 간주되는지 여부입니다. 반드시 그런 것은 아니라고 많은 연구자들은 말합니다. 예를 들어, 유럽 학술 무결성 네트워크(European Academic Integrity Network)는 글쓰기를 위한 AI 도구의 무단 또는 선언되지 않은 사용을 표절이 아닌 "무단 콘텐츠 생성"으로 정의합니다. Weber-Wulff는 "나에게 있어 표절은 식별 가능한 다른 사람의 소행으로 간주될 수 있는 것이어야 합니다."라고 Weber-Wulff는 말했습니다. 또한 기존의 인간이 작성한 콘텐츠와 거의 동일한 텍스트를 생성하는 생성 AI의 예가 있지만 상황은 다음과 같습니다. 일반적으로 표절로 간주되기에는 충분하지 않습니다.

그러나 일부 사람들은 생성 AI 도구가 저작권을 침해한다고 믿고 있습니다.표절과 저작권 침해는 모두 타인의 저작물을 부적절하게 이용하는 행위이며, 저작물을 무단으로 사용하는 행위는 법에 위반되는 행위입니다. . 앤아버에 있는 미시간 대학의 컴퓨터 과학자인 Rada Mihalcea는 "이러한 AI 시스템은 수백만 또는 수억 명의 사람들의 작업을 기반으로 구축되었습니다."라고 말했습니다.

일부 미디어 회사와 작가들은 AI의 저작권 침해로 간주되는 것에 항의했습니다. 2023년 12월 뉴욕타임스는 마이크로소프트와 오픈AI를 상대로 저작권 소송을 제기했다. 소송에서는 두 회사가 LLM을 교육하기 위해 수백만 개의 New York Times 기사를 복사하고 사용했으며 LLM에서 생성된 콘텐츠가 이제 출판물의 콘텐츠와 "경쟁"하고 있다고 주장합니다. 소송에는 GPT-4가 신문 기사의 여러 구절을 거의 그대로 복사하도록 유도한 사례가 포함되어 있습니다.

오픈AI는 올해 2월 “ChatGPT는 결코 뉴욕타임스 구독을 대체할 수 없다”며 연방법원에 소송 일부를 기각하라는 신청을 냈다. 책임 있는 개발을 허용한다”, “언론인이 플레이하는 중요한 콘텐츠를 대체할 수도 없다”.

법원이 허가 없이 AI를 텍스트로 훈련시키는 것이 저작권 침해라고 판결한다면 "그것은 AI 회사에 큰 충격이 될 것입니다."라고 Bailey는 말했습니다.

AI가 폭발하고 있다

이것이 표절이라고 불리든 아니든, 2022년 11월 ChatGPT가 출시된 이후 학술 글쓰기에서 AI의 사용이 폭발적으로 증가했습니다.

7월에 업데이트된 사전 출판물에서 연구자들은 다음과 같이 추정했습니다.2024년 상반기에는 최소 10%의 생의학 초록이 LLM을 사용하여 작성될 예정입니다. 이는 연간 약 150,000편의 논문에 해당합니다. . 독일 튀빙겐 대학교의 데이터 과학자인 Dmitry Kobak가 주도한 이 연구에서는 2010년부터 2024년 6월까지 학술 데이터베이스 PubMed에 게시된 1,400만 개의 초록을 분석했습니다. 그들은 LLM의 출현이 "탐색", "쇼케이스", "밑줄"과 같은 문체 단어의 사용 증가와 관련이 있음을 보여주고 이러한 특이한 어휘 패턴을 사용하여 AI를 사용하여 처리된 요약의 비율을 추정합니다. "LLM 기반 작문 보조원의 출현은 과학 문헌에 전례 없는 영향을 미쳤습니다."라고 그들은 썼습니다.



그림 | LLM의 출현은 스타일 어휘의 사용 증가와 관련이 있습니다.

코박은 예측한다.LLM의 사용은 "확실히 계속 증가할 것이며" "탐지하기가 더욱 어려워질 가능성이 높습니다"

학문적 글쓰기에서 공개되지 않은 소프트웨어의 사용은 새로운 것이 아닙니다. 프랑스 툴루즈 대학의 컴퓨터 과학자인 기욤 카바나크(Guillaume Cabanac)와 그의 동료들은 2015년부터 SCIgen이라는 소프트웨어로 작성한 "횡설수설" 논문과 자동으로 번역하거나 번역하는 소프트웨어로 작성된 "뒤틀린 문구"가 포함된 논문을 공개해 왔습니다. 텍스트를 다시 작성합니다. Cabanac은 "생성 AI가 등장하기 전에도 사람들은 이러한 도구를 가지고 있었습니다."라고 말했습니다.

그러나 학술 작문에 AI를 사용하는 것에도 어느 정도 가치가 있습니다. . 연구원들은 이것이 텍스트와 개념을 더 명확하게 만들고, 언어 장벽을 낮추며, 실험과 성찰을 위한 시간을 확보할 수 있다고 말합니다. 리야드 소재 King Saud University의 정보 기술 연구원인 Hend Al-Khalifa는 생성 ​​AI 도구를 사용할 수 있기 전에는 영어를 제2언어로 사용하는 많은 동료들이 논문 작성에 어려움을 겪었을 것이라고 말했습니다. "이제 그들은 연구에 집중하고 이러한 도구를 사용하여 글쓰기의 번거로움을 없애고 있습니다"라고 그녀는 말했습니다.

그러나 AI 사용이 언제 표절에 해당하는지, 윤리에 위반되는지에 대해서는 여전히 혼란이 있다. 메릴랜드 대학교 칼리지 파크의 컴퓨터 과학자인 소헤일 페이지는 LLM을 사용하여 기존 논문의 내용을 다시 작성하는 것은 명백한 표절이라고 말했습니다. 그러나 LLM을 사용하여 아이디어를 표현하는 데 투명하게 사용되는 경우(상세한 프롬프트를 기반으로 텍스트를 생성하거나 초안을 편집하는 등) 불이익을 받아서는 안 됩니다. “우리는 사람들이 LLM을 사용하여 자신을 쉽고 명확하게 표현할 수 있도록 해야 합니다.”라고 Feizi는 말했습니다.

현재 많은 저널에는 일정 수준의 LLM 사용을 허용하는 정책이 있습니다. 처음에 ChatGPT에서 생성된 텍스트를 금지한 후 Science는 2023년 11월에 원고 작성 시 AI 기술 사용이 사용된 시스템과 프롬프트를 포함하여 완전히 공개되어야 한다고 정책을 업데이트했습니다. 정확성을 보장하고 "표절이 없는지 확인"하는 것은 저자의 책임입니다. Nature에서는 또한 연구 원고의 저자가 방법 섹션에서 LLM 사용을 문서화해야 한다고 말합니다. 100개의 대규모 학술 출판사와 100개의 상위 저널을 분석한 결과, 2023년 10월 현재 출판사의 24%와 저널의 87%가 생성 AI 사용에 대한 지침을 갖고 있는 것으로 나타났습니다. 지침을 제공하는 거의 모든 사람들은 AI 도구를 작성자로 인용할 수 없다고 말하지만 정책은 허용되는 AI 사용 유형과 필요한 공개 수준에 따라 다릅니다. Weber-Wulff는 학술 작문에서 AI 사용에 대한 보다 명확한 지침이 시급히 필요하다고 말했습니다.

현재 Abdul-Mageed는 과학 논문을 작성할 때 LLM을 널리 사용하는 데 한계가 있다고 말합니다. 사용자는 청중, 언어 스타일 및 연구 하위 필드를 설명하는 자세한 프롬프트를 생성하라는 요청을 받습니다. "실제로 원하는 것을 정확하게 제공하는 언어 모델을 얻는 것은 매우 어렵습니다."라고 그는 말했습니다.

그러나 Abdul-Mageed는 이렇게 말했습니다.개발자들은 연구자들이 전문적인 과학 콘텐츠를 더 쉽게 생성할 수 있도록 해주는 앱을 구축하고 있습니다. . 앞으로는 사용자가 드롭다운 메뉴에서 옵션을 선택하고 버튼만 누르면 상세한 프롬프트를 작성할 필요 없이 처음부터 전체 문서를 생성할 수 있을 것이라고 그는 말했습니다.

경계가 더욱 흐려질 수 있음

텍스트 작성을 위한 LLM의 급속한 채택과 함께 LLM을 감지하도록 설계된 수많은 도구도 등장했습니다. . 많은 도구가 어떤 경우에는 90%가 넘는 높은 정확도를 주장하지만 연구 결과에 따르면 대부분의 도구는 그 주장에 부응하지 못하는 것으로 나타났습니다. 12월에 발표된 연구에서 Weber-Wulff와 동료들은 학계에서 널리 사용되는 14가지 AI 탐지 도구를 평가했습니다. 그 중 5개만이 텍스트의 70% 이상을 AI나 인간이 쓴 것으로 정확하게 식별할 수 있었고, 80% 이상을 기록한 사람은 없었습니다.

AI가 생성한 텍스트를 누군가가 살짝 편집한 것이 감지되면,동의어 교체 및 문장 재배열 시 탐지기 정확도가 평균 50% 미만으로 떨어졌습니다. . 이러한 텍스트는 "현재 도구로는 사실상 감지할 수 없습니다"라고 저자는 썼습니다. 다른 연구에 따르면 AI에게 텍스트를 여러 번 다시 쓰도록 요청하면 감지기의 정확도가 크게 떨어질 수 있는 것으로 나타났습니다.

또한 AI 탐지기에는 다른 문제도 있습니다. 한 연구에 따르면 영어가 모국어가 아닌 사람이 영어 기사를 작성한 경우 해당 글을 AI에서 생성된 것으로 잘못 분류할 가능성이 더 높았습니다. Feizi는 탐지기가 완전히 AI로 작성된 텍스트와 작성자가 AI 기반 서비스를 사용하여 텍스트를 다듬는 경우를 확실하게 구별할 수 없으며 이는 문법과 문장 명확성을 지원하여 텍스트를 향상시킨다고 말했습니다. "이러한 경우를 구별하는 것은 매우 어렵고 신뢰할 수 없으며 잠재적으로 잘못된 경보 비율이 매우 높아질 수 있습니다.그는 AI를 사용했다는 거짓 비난을 받으면 해당 학자나 학생의 명예에 '상당한 피해'를 줄 수 있다고 덧붙였다.

AI의 합법적 사용과 불법적 사용 사이의 경계가 더욱 모호해질 수 있습니다. . 2023년 3월, Microsoft는 생성 AI 도구를 Word, PowerPoint, Outlook을 포함한 자사 애플리케이션에 통합하기 시작했습니다. AI 비서 Copilot의 일부 버전은 콘텐츠 초안을 작성하거나 편집할 수 있습니다. 지난 6월 구글은 생성 AI 모델인 Gemini를 Docs, Gmail과 같은 도구에 통합하기 시작했습니다.

"AI는 우리가 사용하는 모든 것에 너무 깊숙이 내장되어 있기 때문에 사람들이 당신이 하고 있는 일이 AI의 영향을 받았는지 여부를 아는 것이 점점 더 어려워질 것이라고 생각합니다"라고 세인트 마크 대학의 고등 교육 전문가인 Debby는 말했습니다. 영국의 John's가 말했습니다. “내 생각엔 우리가 그 속도를 따라잡지 못할 수도 있을 것 같아.”

컴파일러: Ma Xuewei

원저자: 다이애나 권(프리랜서 과학 저널리스트)

원본 링크: https://www.nature.com/articles/d41586-024-02371-z