notícias

"AI despir-se" caça celebridades femininas da Internet e produz secretamente. Especialistas da cadeia da indústria recomendam a promoção de tecnologia anti-falsificação de fotos

2024-08-27

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

“Há algum tempo, alguém enviou uma mensagem privada dizendo que viu minha foto e me perguntou se eu poderia atender o telefone em particular. Pesquisei com atenção e descobri que a chamada foto foi sintetizada por IA. Depois de experimentar isso, o blogueiro Xiao.” K (pseudônimo) ainda tem medos persistentes.

Nos últimos anos, a tecnologia de IA entrou gradualmente na vida de mais e mais pessoas, mas algumas pessoas com ideias distorcidas também viram oportunidades de negócios. Uma investigação do repórter Beijing News Shell Finance descobriu que atualmente existem muitos grupos de fotos de "IA despindo-se" vendendo celebridades e atrizes da Internet na plataforma de produtos preto e cinza. De acordo com profissionais da indústria negra e cinza, 5 yuans podem “tirar roupas” e 20 yuans podem conseguir “mudança de rosto de vídeo”. Nesta cadeia industrial, também existem profissionais que atraem tráfego através de fotos atraentes e depois obtêm lucros através de serviços de “grupos de membros”. Além disso, existem autores de vídeos em plataformas como Bilibili e Xiaohongshu que chamam a atenção com títulos como “AI Undressing Tutorial”.

A esse respeito, Zhao Hu, sócio do escritório de advocacia Zhongwen de Pequim, disse que a venda de fotos de IA se despindo ou mudando o rosto da IA ​​violaria as disposições da Lei de Punição da Administração de Segurança Pública, e os perpetradores enfrentarão penalidades administrativas de detenção ou multas. , e também pode ser responsabilizado criminalmente. Se as imagens não forem vendidas, mas apenas divulgadas, se as circunstâncias forem graves, ainda constituirá crime de divulgação de material obsceno e será investigado pela correspondente responsabilidade criminal nos termos da lei. A tecnologia de ensino é suspeita de ajudar ou encorajar criminosos. Além disso, as ações de remoção de roupas e mudança de rosto da IA ​​realizadas pelos perpetradores também envolvem violação de informações pessoais dos cidadãos.

"Não há nenhuma diferença essencial entre usar IA para falsificação profunda e falsificação técnica tradicional, mas a eficiência é muito maior do que os métodos tradicionais de falsificação, e o limite técnico é muito mais baixo, tornando mais fácil para as pessoas comuns alcançá-lo, e as 'obras ' de falsificação profunda inundará ainda mais a Internet." Pei Zhiyong, diretor do Centro de Pesquisa de Segurança da Indústria do Grupo Qi'anxin, disse ao repórter Beijing News Shell Finance que a tecnologia anti-falsificação para fotos e vídeos deve ser ativamente explorada e promovida.

Celebridades multiplataforma da Internet encontram "despir-se" para atrair tráfego: 5 yuans de fotos personalizadas

Após uma investigação simples, Little K finalmente encontrou a origem do vazamento de suas fotos: alguém usou suas fotos de “despir-se de IA” para atrair tráfego em plataformas sociais estrangeiras e sites pornográficos, e para vender serviços de edição de imagens de IA.

A experiência de Little K não é única. Já em março do ano passado, uma foto tirada por um blogueiro de Xiaohongshu no metrô foi "despida" pela inteligência artificial e espalhada em um grupo do WeChat. Na seção de comentários desta blogueira, muitas mulheres reclamaram de experiências semelhantes, demonstrando empatia umas com as outras e incapazes de esconder seus sentimentos.

Os repórteres da Shell Finance procuraram pistas e encontraram um vendedor envolvido em “remoção de IA”. A outra parte disse que se você fornecer qualquer foto, poderá fornecer um serviço de "remoção de roupas" por mais 5 yuans. Se a foto não conseguir o efeito, entre em contato conosco para alterar a foto. Além disso, você também pode receber "vídeo de mudança de rosto" por 20 yuans.

O vendedor disse: “Tem havido muitos pedidos de ‘despir’ recentemente e não posso nem me preocupar em fazer uma troca de rosto”.

Captura de tela do histórico de bate-papo entre o repórter da Beijing News Shell Finance e o vendedor de "AI stripping".

O abuso da tecnologia de “despir IA” na pornografia remonta a um software lançado no exterior em 2020. Devido à polêmica, ele foi rapidamente removido das prateleiras pelo desenvolvedor. Apesar disso, essa tecnologia ainda é utilizada por alguns criminosos para ganhar dinheiro.

Em junho deste ano, a polícia de Pequim investigou um caso em que um técnico que já trabalhou para uma empresa de Internet alegou que “a IA do computador pode remover roupas por uma pechincha” e “pode ser usada por pessoas ao seu redor, celebridades da Internet e celebridades ", e ganhou dinheiro extra com isso. Cada foto As fotos custam apenas US$ 1,50. Ele vendeu fotos relacionadas para 351 pessoas pela Internet, com um total de quase 7.000 fotos. Eventualmente, ele foi processado pela Procuradoria do Distrito Haidian de Pequim por distribuir materiais obscenos com fins lucrativos.

Uma investigação de um repórter da Shell Finance descobriu que a "despir-se de IA" agora formou uma cadeia industrial, incluindo a venda de imagens falsas de IA, "imagens P" de IA pagas de fotos normais e o ensino de "técnicas" para conseguir despir-se .

Além disso, os produtos pretos e cinzas já têm como alvo figuras conhecidas, como celebridades femininas da Internet e celebridades femininas, e "decapagem de IA" tornou-se uma senha de tráfego.

Repórteres da Shell Finance descobriram que há quase 15.000 membros neste grupo em uma plataforma de produtos preto e cinza chamada "Grupo de troca de roupas de celebridades XX da Internet. Algumas celebridades femininas conhecidas da Internet, em sua maioria, têm fotos de si mesmas sendo despidas".

Os repórteres da Shell Finance notaram que esse grupo inicialmente executou apenas "decapagem de IA" em algumas fotos de celebridades da Internet e, mais tarde, expandiu-se gradualmente para os círculos de entretenimento e esportes. O método de obtenção de lucro desse tipo de "grupo de comunicação" também é relativamente simples. Os profissionais da indústria negra e cinza primeiro lançam algumas fotos no grupo para atrair membros para adquirir o serviço de "grupo de membros".

Bilibili e Xiaohongshu ainda têm "tutoriais de despir de IA" Advogado: Ensinar tecnologia pode constituir um crime acessório

O repórter descobriu que depois que a tecnologia do modelo de geração de IA amadureceu, a capacidade correspondente de "despir-se com um clique" foi "desenvolvida" por internautas a partir de um modelo de geração de IA de código aberto estrangeiro bem conhecido e gradualmente se generalizou. Embora com o aprimoramento das regras regulatórias em vários países, o grande modelo revisou instruções como “despir-se”. No entanto, os repórteres da Shell Finance pesquisaram em Bilibili e Xiaohongshu e descobriram que ainda existem alguns vídeos de "tutorial de despir IA", embora alguns sejam na verdade "trocando de roupa" de IA, isso também significa que esse tipo de tecnologia ainda está em alta.

O repórter pesquisou os resultados em um site de vídeo usando palavras-chave relacionadas, como “AI despir-se”.

A este respeito, muitas celebridades nacionais da Internet estão bastante desamparadas. Em maio do ano passado, uma blogueira popular com mais de 500 mil seguidores postou uma reclamação: "Muitas pessoas experimentaram fotos roubadas e colocadas em redes externas para atrair tráfego e 'vender vídeos', bem como colocar fotos e outras imagens pornográficas em Pessoas com um olhar perspicaz podem perceber que esses rumores de baixo nível são falsos à primeira vista. Geralmente não presto atenção neles. Foi só quando o número de mensagens privadas aumentou repentinamente e percebi que o “ritmo” aumentou. que eu tive que refutar os rumores.”

Zhao Hu disse aos repórteres da Shell Finance que vender fotos de IA se despindo ou mudando de rosto viola as disposições da Lei de Punição da Administração de Segurança Pública. "Personalizar" fotos de IA despindo-se mediante pagamento pode constituir crime de produção e venda de materiais pornográficos com fins lucrativos. Se as fotos não forem vendidas, mas apenas divulgadas, se as circunstâncias forem graves, ainda constituirá crime de distribuição de material obsceno. A tecnologia de ensino pode constituir uma cumplicidade no crime.

"Cobrar para ajudar a 'personalizar' imagens de despir da IA ​​pode constituir o crime de produzir, copiar, publicar, vender e disseminar materiais obscenos para obter lucro." informações pessoais dos cidadãos. Uma vez que essas informações sejam vazadas ou utilizadas indevidamente, elas representarão uma séria ameaça à privacidade e segurança pessoal.

"Deve ficar claro que o uso de ferramentas de IA para falsificação é muito mais eficiente do que os métodos tradicionais de falsificação, mas o limite técnico é muito menor. Como diz o ditado, se você começar um boato, perderá as pernas se o refutar." Pei Zhiyong disse ao Shell Finance Reporters que atualmente, vídeos e imagens deepfake de IA podem ser identificados por meios técnicos profissionais ou avaliação de especialistas, mas o custo também é muito alto “Com o avanço contínuo da tecnologia, é inevitável que a autenticidade da IA-. vídeos gerados ou sintetizados não podem ser autenticados.”

Na sua opinião, embora não seja realista impedir que as pessoas utilizem a IA para gerar vídeos ou imagens falsas, isso não significa que não haja nada a fazer em relação a vídeos ou imagens falsas. “O país tem métodos de gestão muito maduros para vídeos e imagens pornográficas online. Mesmo que a tecnologia não possa ser usada para identificar a autenticidade de uma imagem, ela pode impedir a propagação de conteúdo pornográfico do lado da plataforma e localizar a fonte da propagação de pornografia. conteúdo e realizar repressões ".

Pei Zhiyong disse que as plataformas da Internet não podem buscar o tráfego unilateralmente, mas devem participar ativamente na governança da rede sob a orientação das leis correspondentes e limitar efetivamente o escopo da disseminação de informações relevantes. As principais informações não verificadas devem ser marcadas com rótulos "não verificados" para moderadamente. reduzir o risco de o público em geral ser induzido em erro.

Pei Zhiyong acredita que a tecnologia antifalsificação para fotos e vídeos deve ser ativamente explorada e promovida “Por exemplo, se um telefone celular específico de uma determinada marca, modelo e número de série for usado para tirar uma foto, o arquivo da foto terá. uma sequência de texto que é invisível a olho nu, mas pode ser reconhecida pela máquina. Se alguém modificar esta foto, seja uma modificação de IA ou uma modificação manual, o sistema de verificação pode reconhecer que não é a imagem original. Este método não é uma tecnologia nova, mas requer tecnologia de criptografia madura e profunda popularização.”

Sun Yue, fundador e CTO da Beijing Core Shield Times Technology Co., Ltd., disse em uma entrevista a um repórter da Shell Finance que a tecnologia de falsificação profunda é galopante e que recursos biométricos, como vozes e rostos, perderam sua alta confiança original atributos de autenticação. Se você deseja evitar os danos causados ​​​​por ela por meio da tecnologia, é recomendável que as principais plataformas de sistema fortaleçam a autenticação de identidade dos sistemas de aplicativos. São necessárias medidas de autenticação fortes para resistir ao risco de falsificação de identidade, que pode ser alcançada por meio de identidade multifatorial. autenticação, conscientização de risco de terminal, análise de big data, etc. A tecnologia do produto, combinada com modelagem de comportamento do usuário, inferência causal de gráfico de conhecimento e outros meios, pode efetivamente resistir aos riscos de identidade causados ​​​​por falsificação profunda.

“No futuro, para o desenvolvimento saudável da IA, a fim de lidar com os riscos trazidos pela tecnologia de falsificação profunda, em primeiro lugar, o governo e as agências reguladoras da indústria devem melhorar activamente as leis e regulamentos relevantes. Em segundo lugar, aumentar a investigação e desenvolvimento. de detecção profunda de falsificações, marca d'água digital e outras tecnologias. Além disso, os departamentos relevantes e os meios de comunicação social devem aumentar a propaganda antifraude, melhorar a sensibilização das pessoas para a segurança e trabalhar em conjunto para proteger a segurança pessoal e patrimonial das pessoas. ”, disse Sun Yue aos repórteres da Shell Finance.

E-mail de contato do repórter: [email protected]

Beijing News Shell Finance repórter Luo Yidan editor Wang Jinyu revisando Yang Li