notícias

Autor processa Anthropic, criador do chatbot Claude AI, por violação de direitos autorais

2024-08-21

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Whip Bull Report, 21 de agosto, de acordo com relatórios estrangeiros, um grupo de escritores está processando a startup de inteligência artificial Anthropic, acusando-a de cometer roubo em massa quando treinou seu popular chatbot Claude para usar livros piratas.

Embora um processo semelhante contra a rival OpenAI (criadora do ChatGPT) esteja em andamento há mais de um ano, esta é a primeira vez que os escritores entram com uma ação judicial contra a Anthropic e seu chatbot Claude.

A menor empresa de São Francisco, fundada por ex-líderes da OpenAI, posiciona-se como uma desenvolvedora mais responsável e focada na segurança de modelos generativos de IA que podem redigir e-mails, resumir documentos e interagir com as pessoas de maneira natural e interativa.

Mas uma ação movida na segunda-feira no tribunal federal de São Francisco diz que a Anthropic zombou de seus objetivos elevados ao usar bibliotecas piratas para desenvolver seus produtos de IA.

A ação afirma: Não é exagero dizer que o modelo da Antrópico busca lucrar explorando a expressão humana e a originalidade por trás de cada obra.

A Antthropic não respondeu imediatamente a um pedido de comentário na segunda-feira.

A ação foi movida por três escritores - Andrea Bartz, Charles Graeber e Kirk Wallace Johnson - que buscavam processar em nome de um grupo de escritores de ficção e não-ficção em situação semelhante.

Embora esta seja a primeira vez que um autor de livro processa a Anthropic, a empresa também enfrenta ações judiciais de grandes editoras musicais que acusam Crowder de plagiar letras de músicas protegidas por direitos autorais.

O caso dos autores se junta a uma lista crescente de ações judiciais movidas em São Francisco e Nova York contra desenvolvedores de grandes modelos de linguagem para inteligência artificial.

A OpenAI e sua parceira de negócios Microsoft estão lutando contra uma série de casos de violação de direitos autorais liderados por nomes conhecidos como John Grisham, Jody Picoult e o romancista de “Game of Thrones” George RR Martin. Há também uma série de ações judiciais de veículos como o The New York Times; , The Chicago Tribune e Mãe Jones.

O que estes casos têm em comum é que as empresas tecnológicas roubaram grandes quantidades de obras humanas e treinaram chatbots de inteligência artificial para criar textos como seres humanos, sem obter permissão ou compensação dos autores originais. Os desafios legais não vêm apenas de escritores, mas também de artistas visuais, gravadoras e outros criadores que afirmam que a monetização da IA ​​se baseia na apropriação indébita.

A Anthropic e outras empresas de tecnologia argumentam que o treinamento de modelos de IA está em conformidade com a doutrina de uso justo da lei dos EUA, que permite usos limitados de material protegido por direitos autorais, como para ensino, pesquisa ou transformação de um trabalho protegido por direitos autorais em outra coisa.

Mas o processo contra a Anthropic a acusa de usar um conjunto de dados chamado The Pile, que contém um grande número de livros piratas. O processo também contesta as alegações de que os sistemas de IA aprendem da mesma forma que os humanos.

O processo afirma: As pessoas que aprendem com os livros compram cópias legais dos livros ou emprestam-nas da biblioteca onde foram adquiridos, proporcionando assim pelo menos algum nível de compensação aos autores e criadores.