소식

저작권 함정: AI 시대의 '고양이와 쥐 게임'의 문자 그대로 버전

2024-07-27

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

~부터생성 인공 지능 전염병이 전 세계를 휩쓴 이후 많은 콘텐츠 제작자들은 자신의 작품이 허가 없이 인공지능 모델을 훈련시키는 데 사용되고 있다고 주장해 왔습니다. 하지만 지금까지는 그들이 말하는 작업이 실제로 특정 훈련 데이터 세트에 사용되었는지 여부를 판단하기가 어려웠습니다.

이제 연구자들은 이를 증명할 수 있는 새로운 방법을 개발했습니다. 최근 임페리얼 칼리지 런던(Imperial College London)의 연구진은 작가와 출판사가 자신의 작품에 미묘하게 표시하여 나중에 인공 지능 모델을 훈련시키는 데 사용되는 숨겨진 텍스트 유형인 "저작권 트랩"을 개발했습니다. 이 아이디어는 지도에 가짜 위치를 추가하거나 사전에 가짜 단어를 추가하는 등 저작권 보유자가 이전에 사용했던 전술과 유사합니다.

이러한 AI 저작권 함정은 AI 분야에서 가장 큰 논쟁 중 하나를 촉발시켰습니다. 많은 출판사와 저자들이 자신의 지적재산권이 허가 없이 인공지능 훈련 데이터 세트에 포함됐다고 주장하며 기술 기업을 상대로 소송을 벌이고 있다.예를 들어 뉴욕타임스는오픈AI 소송이 가장 대표적인 사례라고 할 수 있습니다.

지금까지 트랩을 생성하고 탐지하는 코드가 GitHub에 출시되었습니다. 다음으로 팀은 사용자가 직접 저작권 트랩을 생성하고 주입할 수 있는 도구를 개발할 계획입니다.

연구를 이끈 임페리얼 칼리지 런던(Imperial College London)의 응용 수학과 컴퓨터 과학 교수인 Yves-Alexandre de Montjoye는 이번 주 비엔나에서 열린 인공 지능에 관한 최고의 컨퍼런스인 국제 기계 학습 컨퍼런스(International Machine Learning Conference)에서 다음과 같이 말했습니다. 지능형 모델의 경우 투명성이 완전히 부족하여 AI 회사와 콘텐츠 제작자가 올바른 균형을 찾지 못한다고 생각합니다.”

함정을 만들기 위해 그와 그의 팀은 단어 생성기를 사용하여 수천 개의 합성 문장을 만들었습니다. 문장은 길고 기본적으로 횡설수설입니다. 예를 들어 "격동의 시기가 오면... 무엇을 판매하고 있는지, 그리고 더 중요하게는 언제 가장 좋을지 이 목록을 통해 목요일 저녁 개장 시간과 정규 영업 시간 및 기타 영업 시간을 알 수 있습니다. 당신을 위한. "

Yves-Alexandre de Montjoye는 "우리는 100개의 트랩 문장을 생성한 후 무작위로 문장을 선택하여 텍스트에 여러 번 삽입할 수 있습니다."라고 설명했습니다. 동시에 트랩은 다양한 방법으로 텍스트에 삽입될 수도 있습니다. 예를 들어 흰색 배경에 흰색 텍스트를 사용하거나 기사의 소스 코드에 포함할 수 있습니다. 이 문장은 본문에서 100~1000번 반복되어야 합니다.

이러한 함정을 탐지하기 위해 그들은 생성된 100개의 합성 문장을 대규모 언어 모델에 입력하고 모델이 이를 새로운 문장으로 표시하는지 확인했습니다. 모델이 훈련 데이터에서 트랩 문장을 본 경우 낮은 "난해성 점수"를 표시하지만 모델이 문장에 "놀랐다"면 모델이 처음으로 트랩 문장을 접했기 때문에 이러한 문장은 그렇지 않다는 의미입니다. 트랩.

과거에 연구자들은 언어 모델을 사용하여 훈련 데이터를 기억하여 데이터에 어떤 것이 있는지 확인하는 것을 제안했습니다. "멤버십 추론 공격"으로 알려진 이 기술은 고급 대형 모델에서 더 잘 작동합니다. 왜냐하면 이러한 모델은 훈련 중에 많은 양의 데이터를 기억하는 경향이 있기 때문입니다.

"반면, 점점 대중화되고 모바일 기기에서 실행할 수 있는 소형 모델은 메모리 데이터의 양이 적기 때문에 멤버십 추론 공격에 덜 취약합니다. 이로 인해 특정 저작권이 있는 대상을 대상으로 하는지 여부를 더 쉽게 판단할 수 있고 훈련시키기가 더 어려워집니다. 텍스트로요.” 워털루 대학교 컴퓨터 과학 조교수인 Gautam Kamath가 말했습니다. 그는 연구에 참여하지 않았습니다.

저작권 트랩은 더 작은 모델에서도 멤버십 추론 공격을 수행하는 방법입니다. Yves-Alexandre de Montjoye 팀은 CroissantLLM의 훈련 데이터 세트에 트랩을 주입했습니다. CroissantLLM은 Imperial College London의 연구팀이 업계 및 학계 파트너와 협력하여 교육한 새로 개발된 프랑스어-영어 이중 언어 모델입니다. CroissantLLM에는 13억 개의 매개변수가 있는데, 이는 최첨단 모델의 일부에 불과합니다(예를 들어 GPT-4에는 1조 7600억 개의 매개변수가 있는 것으로 알려졌습니다).

Gautam Kamath는 "연구 결과에 따르면 이러한 트랩은 실제로 텍스트 데이터에 도입되어 소규모 모델의 경우에도 회원 추론 공격의 효율성을 크게 향상시킬 수 있는 것으로 나타났습니다."라고 말하면서도 아직 해야 할 일이 더 많이 남아 있다고 덧붙였습니다. .

“텍스트에서 75자 문구를 1,000번 반복하면 원본 텍스트에 큰 영향을 미칩니다. 이를 통해 AI 모델을 교육하는 트레이너가 함정을 발견하고 해당 내용이 포함된 콘텐츠를 건너뛰거나 삭제하고 나머지 내용을 무시할 수 있습니다. 이는 또한 원본 텍스트를 읽기 어렵게 만듭니다."라고 Gautam Kamath는 지적했습니다.

"이로 인해 현재로서는 저작권 트랩이 비실용적으로 보입니다. 많은 회사가 중복 제거를 수행합니다. 즉, 데이터를 정리하면 이러한 저작권 트랩이 삭제될 수 있습니다. UC Irvine 컴퓨터 과학 교수이자 스타트업인 Sameer Singh은 공동으로 말했습니다. Spiffy AI의 창립자는 이렇게 말했습니다. 그는 또한 연구에 참여하지 않았습니다.

Gautam Kamath의 견해에 따르면 저작권 트랩을 개선하는 또 다른 방법은 저작권이 있는 콘텐츠를 표시하여 멤버십 추론 공격이 더 잘 작동하도록 하거나 멤버십 추론 공격 자체를 개선하는 다른 방법을 찾는 것입니다.

Yves-Alexandre de Montjoye는 이러한 함정이 완벽한 것은 아니라는 점을 인정합니다. "의욕이 있는 공격자는 트랩이 존재한다는 것을 안다면 트랩을 제거할 수 있습니다."라고 그는 말했습니다.

"그러나 그것들을 모두 제거할 수 있을지는 알 수 없으며, 이는 일종의 '고양이와 쥐' 게임일 수도 있습니다. 그렇더라도 많은 엔지니어링 자원을 투자하지 않고도 더 많은 함정을 설정할수록 좋습니다." ." 모든 함정을 제거하는 것이 더 어려워집니다."

"저작권 트랩은 임시방편일 수도 있고 단순히 모델 트레이너에게 불편을 끼칠 수도 있다는 점을 기억하는 것이 중요합니다. 누구든 트랩이 포함된 콘텐츠를 게시하고 그것이 항상 유효한 트랩이 될 것이라고 보장하는 것은 불가능합니다."

원본 링크:

https://www.technologyreview.com/2024/07/25/1095347/a-new-tool-for-copyright-holders-can-show-if-their-work-is-in-ai-training-data/