Minhas informações de contato
Correspondênciaadmin@informação.bz
2024-08-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
- Mingmin Kresi do Templo Aofei
Qubits | Conta pública QbitAI
Sob o espelho mágico cibernético, todas as belezas da IA se transformaram em fantasmas.
Venha ver seus dentes。
Quando a saturação da imagem for totalmente aumentada, os dentes do retrato AI ficarão muito estranhos e os limites ficarão desfocados.
A cor da imagem geral é normal, mas a parte do microfone é ainda mais estranha.
contrasteFotos de pessoas reais, deveria ser assim.
Os dentes são claros e as manchas coloridas na imagem são uniformes.
Esta ferramenta é aberta e todos podem experimentá-la com fotos.
Um determinado quadro no vídeo gerado por IA não pode escapar deste método.
Fotos de dentes perdidos também podem revelar problemas.
Mas, aliás, esta ferramentapor Claude. Use IA para quebrar a IA, um maravilhoso ciclo fechado.
Na verdade, os retratos de IA recentemente se tornaram muito realistas e causaram muita discussão. Por exemplo, em um conjunto de populares "vídeos de palestrantes do TED", nenhum deles é realmente de pessoas reais.
Não só é difícil distinguir rostos, mas até a escrita, a antiga deficiência da IA, agora pode ser completamente falsa.
Mais importante ainda, o custo de gerar tais retratos de IA não é alto. Isso pode ser feito por apenas 5 minutos e 1,5 dólares americanos (cerca de 10 yuans) a cada 20 segundos.
Agora os internautas não conseguiam ficar parados e começaram competições antifalsificação de IA, uma após a outra.
Quase 5.000 pessoas vieram discutir qual dessas duas fotos é a pessoa real.
As razões apresentadas variaram. Algumas pessoas acham o texto e os detalhes do padrão muito abstratos, enquanto outras acham que os olhos dos personagens estão vazios...
As regras pelas quais a IA mais avançada gera retratos estão sendo gradualmente descobertas.
Em resumo, ajustar a saturação pode ser a maneira mais rápida de identificá-la.
Os retratos de grupos de IA são expostos de forma mais completa desta forma.
Há um problema com isso. Este método pode não funcionar se a imagem for compactada usando o algoritmo JPEG.
Por exemplo, certifique-se de que a foto seja real.
Porém, devido a problemas de compressão de imagem e iluminação, os dentes do personagem também ficam um pouco embaçados.
Portanto, os internautas também listaram mais maneiras de saber se um retrato é sintetizado por IA.
O primeiro método, simplificando, é confiar no conhecimento e julgamento humanos.
Como a forma como a IA aprende imagens não é consistente com os humanos, é inevitável que ela não consiga captar 100% da informação visual da perspectiva humana.
O resultado é que as imagens geradas pela IA geralmente contêmNão é consistente com o mundo realIsso fornece um ponto de partida para a identificação da imagem.
Use a imagem do início como exemplo.
No geral, a pele do personagem é muito lisa e nenhum poro pode ser visto. Esse recurso muito perfeito na verdade aumenta a sensação de irrealidade.
Claro, essa “sensação irrealista” não é totalmente equivalente a “falso”. Afinal, os poros não podem ser vistos em fotos processadas por microdermoabrasão.
Mas este não é o único factor de julgamento. Pode não haver apenas um desvio do bom senso deixado pela IA na imagem.
Na verdade, se você observar os seguintes detalhes desta imagem, poderá ver uma característica relativamente óbvia——O método peculiar de conexão do gancho acima da placa de identificação。
Existem também microfones que apresentam falhas no modo de alta saturação, e as pistas podem ser vistas diretamente a olho nu após a amplificação.
O que é ainda mais sutil é que existem vários fios de cabelo na ponta do cabelo que estão em posições muito irracionais, mas tal característica provavelmente exigiria uma visão de nível de Leeuwenhoek para ser vista.
Porém, com o avanço da tecnologia de geração, as características que podem ser encontradas ficam cada vez mais ocultas, o que é uma tendência inevitável.
Outra maneira é olhar para o texto. Embora a IA esteja gradualmente superando o problema dos "caracteres fantasmas" na representação das fontes, ainda existem algumas dificuldades em renderizar corretamente o texto com o significado real correto.
Por exemplo, alguns internautas descobriram que no crachá usado pela pessoa na foto, as duas letras na última linha abaixo do logotipo do Google são “CA”, que significa Califórnia, e a longa sequência na frente deveria ser o nome da cidade.
Mas, na verdade, não existe nenhuma cidade na Califórnia com um nome tão longo.
Além dos detalhes dos próprios objetos, informações como luz e sombra também podem ser usadas para determinar a autenticidade.
Esta imagem foi extraída de um vídeo e existe um quadro no vídeo onde ela está localizada.
No lado direito do microfone, há uma sombra muito estranha. Essa sombra corresponde a uma das mãos do personagem. Obviamente falta processamento de IA aqui.
Quando se trata de vídeos, devido à consistência do conteúdo antes e depois, é mais provável que a IA revele falhas do que em imagens estáticas.
Existem também alguns recursos que não são “erros de bom senso”, mas também refletem algumas preferências da IA na geração de imagens.
Por exemplo, essas quatro imagens são todas de “pessoas comuns” sintetizadas por IA. Você encontrou algo em comum?
Alguns internautas disseram que nenhuma das pessoas nessas quatro fotos tem rosto sorridente, o que parece refletir algumas características das imagens geradas por IA.
Isso é verdade para essas imagens, mas é difícil formar um sistema para esse tipo de julgamento. Afinal, diferentes ferramentas de desenho de IA têm características diferentes.
Em suma, para fazer face ao avanço gradual da IA, por um lado, podemos aumentar a intensidade de "Leewenhoek" e, por outro lado, podemos também introduzir técnicas de processamento de imagem, como o aumento da saturação.
Mas se essas "mudanças quantitativas" se acumularem cada vez mais, será cada vez mais difícil julgar a olho nu, e a saturação da imagem poderá um dia ser quebrada pela IA.
Portanto, as pessoas também estão mudando seu pensamento e pensando no método "modelo por modelo", usando imagens geradas por IA para treinar modelos de detecção e analisar mais recursos das imagens.
Por exemplo, as imagens geradas pela IA têm muitas características de espectro, distribuição de ruído, etc. Essas características não podem ser capturadas a olho nu, mas a IA pode vê-las claramente.
É claro que isso não exclui a possibilidade de que o método de detecção fique para trás e não consiga acompanhar as mudanças do modelo, ou que os desenvolvedores de modelos até mesmo se especializem no desenvolvimento adversário.
Por exemplo, na imagem discutida acima, uma ferramenta de detecção de IA tem apenas 2% de probabilidade de ser sintetizada pela IA.
No entanto, o processo de jogo entre a fraude de IA e a detecção de IA é em si um “jogo de gato e rato”.
Portanto, além da detecção, os desenvolvedores de modelos também podem precisar assumir algumas responsabilidades, como adicionar marcas d’água invisíveis às imagens geradas por IA, para que a fraude de IA não tenha onde se esconder.
Vale ressaltar que muitos dos retratos de IA que causaram pânico conforme mencionado acima são do recentemente popularFluxoGerar/participar na produção.
Todo mundo começou a presumir que os efeitos que são bons demais para serem distinguidos são produzidos pelo Flux.
Foi criado pela equipe original do Stable Diffusion e causou alvoroço na Internet apenas 10 dias após seu lançamento.
Essas lindas fotos de palestras falsas do TED são todas feitas por ele.
Outros usaram Flux e Gen-3 juntos para criar belos anúncios de produtos para a pele.
E vários efeitos de síntese de vários ângulos.
Ele resolve muito bem problemas como pintores de IA e texto em imagens gerado por IA.
Isso leva diretamente ao fato de que os humanos não podem mais olhar diretamente para as mãos e as palavras para distinguir os desenhos da IA, mas só podem adivinhar com base em pistas.
O Flux deveria ter fortalecido o treinamento em mãos, textos e outros indicadores.
Isso também significa que se a IA atual continuar a trabalhar duro no treinamento em detalhes de textura, cores, etc., quando o modelo de desenho de IA da próxima geração for lançado, os métodos de reconhecimento humano poderão se tornar ineficazes novamente...
Além disso, o Flux é de código aberto e pode ser executado em laptops. Muitas pessoas estão agora no Forget Midjourney.
Demorou 2 anos para passar da difusão estável ao fluxo.
Demorou 1 ano para passar de “Will Smith comendo macarrão” a “alto-falante Tedx”.
Eu realmente não sei que truques os humanos terão que inventar no futuro para distinguir a geração de IA...
Links de referência:
[1]https://x.com/ChuckBaggett/status/1822686462044754160
[2]https://www.reddit.com/r/artificial/comments/1epjlbl/average_looking_people/
[3]https://www.reddit.com/r/ChatGPT/comments/1epeshq/these_are_all_ai/
[4]https://x.com/levelsio/status/1822751995012268062