2024-08-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
- Mingmin Kresi vom Aofei-Tempel
Qubits |. Öffentliches Konto QbitAI
Unter dem Cyber-Zauberspiegel verwandelten sich alle KI-Schönheiten in Geister.
Kommen Sie und sehen Sie sich seine Zähne an。
Wenn die Bildsättigung vollständig erhöht wird, werden die Zähne des KI-Porträts sehr seltsam und die Grenzen werden unscharf.
Die Farbe des Gesamtbildes ist normal, aber der Mikrofonteil ist noch seltsamer.
KontrastFotos von echten Menschen, es sollte so sein.
Die Zähne sind klar und die Farbflecken im Bild sind einheitlich.
Dieses Tool ist offen und jeder kann es mit Fotos ausprobieren.
Ein bestimmtes Bild im KI-generierten Video kann dieser Methode nicht entgehen.
Auch Fotos von fehlenden Zähnen können Probleme aufzeigen.
Aber übrigens, dieses Toolvon Claude. Verwenden Sie KI, um KI zu knacken, einen wunderbaren geschlossenen Kreislauf.
Tatsächlich sind KI-Porträts in letzter Zeit zu lebensecht und haben für viele Diskussionen gesorgt. In einer Reihe beliebter „TED-Sprechervideos“ handelt es sich beispielsweise nicht um echte Menschen.
Es ist nicht nur schwierig, Gesichter zu unterscheiden, auch das Schreiben, das frühere Manko der KI, kann jetzt völlig gefälscht sein.
Noch wichtiger ist, dass die Kosten für die Erstellung solcher KI-Porträts nicht hoch sind. Dies ist für nur 5 Minuten und 1,5 US-Dollar (ca. 10 Yuan) alle 20 Sekunden möglich.
Jetzt konnten die Internetnutzer nicht mehr still sitzen und starteten nacheinander KI-Wettbewerbe zur Fälschungsbekämpfung.
Fast 5.000 Menschen kamen, um zu diskutieren, welches dieser beiden Bilder die reale Person sei.
Die angegebenen Gründe waren unterschiedlich. Manche Leute finden die Text- und Musterdetails sehr abstrakt, während andere denken, die Augen der Charaktere seien leer ...
Die Regeln, nach denen die fortschrittlichste KI Porträts erstellt, werden nach und nach herausgefunden.
Zusammenfassend lässt sich sagen, dass die Anpassung der Sättigung möglicherweise der schnellste Weg ist, sie zu identifizieren.
KI-Gruppenporträts werden auf diese Weise besser belichtet.
Allerdings gibt es ein Problem damit. Diese Methode funktioniert möglicherweise nicht, wenn das Bild mit dem JPEG-Algorithmus komprimiert wird.
Stellen Sie beispielsweise sicher, dass es sich bei dem Foto um ein echtes Foto handelt.
Allerdings sind aufgrund von Bildkomprimierungs- und Beleuchtungsproblemen auch die Zähne der Figur etwas verschwommen.
Daher haben Internetnutzer auch weitere Möglichkeiten aufgeführt, um festzustellen, ob ein Porträt von KI synthetisiert wurde.
Die erste Methode besteht, vereinfacht gesagt, darin, sich auf menschliches Wissen und Urteilsvermögen zu verlassen.
Da die Art und Weise, wie KI Bilder lernt, nicht mit der des Menschen übereinstimmt, ist es unvermeidlich, dass sie nicht 100 % der visuellen Informationen aus der menschlichen Perspektive erfassen kann.
Das Ergebnis ist, dass von KI erzeugte Bilder oft enthaltenNicht im Einklang mit der realen WeltDies bietet einen Ausgangspunkt für die Bildidentifikation.
Nutzen Sie das Bild am Anfang als Beispiel.
Im Großen und Ganzen ist die Haut der Figur zu glatt und es sind keine Poren zu sehen. Dieses zu perfekte Merkmal trägt tatsächlich zum Gefühl der Unwirklichkeit bei.
Natürlich ist dieses „unrealistische Gefühl“ nicht ganz gleichbedeutend mit „Fake“. Schließlich sind Poren auf Bildern, die mittels Mikrodermabrasion bearbeitet wurden, nicht zu sehen.
Dies ist jedoch nicht der einzige Beurteilungsfaktor. Möglicherweise gibt es nicht nur eine Abweichung vom gesunden Menschenverstand, die die KI im Bild hinterlassen hat.
Wenn Sie sich die folgenden Details dieses Bildes ansehen, können Sie tatsächlich ein relativ offensichtliches Merkmal erkennen:Die besondere Verbindungsmethode des Hakens über dem Typenschild。
Es gibt auch Mikrofone, die im Modus mit hoher Sättigung Mängel aufweisen, und die Hinweise sind nach der Verstärkung direkt mit bloßem Auge zu erkennen.
Was noch subtiler ist, ist, dass sich am Ende des Haares mehrere Haare befinden, die sich in einer sehr unangemessenen Position befinden, aber um ein solches Merkmal zu sehen, wäre wahrscheinlich eine Sehkraft auf Leeuwenhoek-Niveau erforderlich.
Mit der Weiterentwicklung der Generationstechnologie werden die verfügbaren Funktionen jedoch immer verborgener, was ein unvermeidlicher Trend ist.
Eine andere Möglichkeit besteht darin, den Text zu betrachten. Obwohl die KI das Problem der „Geisterzeichen“ bei der Darstellung von Schriftarten allmählich überwindet, gibt es immer noch einige Schwierigkeiten, Text mit der richtigen tatsächlichen Bedeutung wiederzugeben.
Einige Internetnutzer entdeckten beispielsweise, dass auf dem Abzeichen, das die Person auf dem Foto trägt, die beiden Buchstaben in der letzten Zeile unter dem Google-Logo „CA“ lauten, was Kalifornien bedeutet, und dass die lange Zeichenfolge davor der Name der Stadt sein sollte.
Tatsächlich gibt es in Kalifornien jedoch keine Stadt mit einem so langen Namen.
Neben den Details der Objekte selbst können auch Informationen wie Licht und Schatten zur Bestimmung der Echtheit herangezogen werden.
Dieses Bild wird aus einem Video extrahiert und es gibt dort, wo es sich befindet, einen solchen Frame im Video.
Auf der rechten Seite des Mikrofons befindet sich ein sehr seltsamer Schatten. Dieser Schatten entspricht einer der Hände der Figur. Offensichtlich fehlt hier die KI-Verarbeitung.
Bei Videos ist es aufgrund der Konsistenz des Inhalts davor und danach wahrscheinlicher, dass KI Fehler aufdeckt als bei statischen Bildern.
Es gibt auch einige Funktionen, die keine „Fehler des gesunden Menschenverstandes“ sind, sondern auch einige Präferenzen der KI bei der Generierung von Bildern widerspiegeln.
Bei diesen vier Bildern handelt es sich zum Beispiel allesamt um „durchschnittliche Menschen“, die von der KI synthetisiert wurden. Haben Sie etwas gemeinsam?
Einige Internetnutzer sagten, dass keine der Personen auf diesen vier Bildern ein lächelndes Gesicht habe, was einige Merkmale von KI-generierten Bildern widerzuspiegeln scheint.
Dies gilt zwar für diese Bilder, aber es ist schwierig, ein System für diese Art der Beurteilung zu bilden. Schließlich haben verschiedene KI-Zeichenwerkzeuge unterschiedliche Eigenschaften.
Kurz gesagt, um der schrittweisen Weiterentwicklung der KI gerecht zu werden, können wir einerseits die Intensität von „Leewenhoek“ erhöhen und andererseits auch Bildverarbeitungstechniken wie die Erhöhung der Sättigung einführen.
Aber wenn sich solche „quantitativen Veränderungen“ immer mehr anhäufen, wird es immer schwieriger, sie mit bloßem Auge zu beurteilen, und die Bildsättigung könnte eines Tages durch KI gebrochen werden.
Daher ändern die Menschen auch ihre Denk- und Denkweise gegenüber der „Modell-für-Modell“-Methode und verwenden von KI generierte Bilder, um Erkennungsmodelle zu trainieren und weitere Merkmale aus den Bildern zu analysieren.
Beispielsweise weisen von KI erzeugte Bilder viele Merkmale in Bezug auf Spektrum, Rauschverteilung usw. auf. Diese Merkmale können mit bloßem Auge nicht erfasst werden, aber die KI kann sie deutlich erkennen.
Dies schließt natürlich nicht aus, dass die Erkennungsmethode hinterherhinkt und mit Modelländerungen nicht Schritt halten kann oder dass sich Modellentwickler sogar auf kontradiktorische Entwicklung spezialisiert haben.
Im oben diskutierten Bild beträgt die Wahrscheinlichkeit, dass ein KI-Erkennungstool beispielsweise von KI synthetisiert wird, nur 2 %.
Allerdings ist der Spielprozess zwischen KI-Betrug und KI-Erkennung selbst ein „Katz-und-Maus-Spiel“.
Daher müssen Modellentwickler neben der Erkennung möglicherweise auch einige Aufgaben übernehmen, beispielsweise das Hinzufügen unsichtbarer Wasserzeichen zu KI-generierten Bildern, damit sich KI-Betrug nirgendwo verstecken kann.
Es ist erwähnenswert, dass viele der KI-Porträts, die wie oben erwähnt für Panik gesorgt haben, aus der kürzlich populären Serie stammenFlussGenerieren/beteiligen Sie sich an der Produktion.
Jeder hat sogar begonnen, anzunehmen, dass die Effekte, die zu gut sind, um unterschieden zu werden, von Flux stammen.
Es wurde vom ursprünglichen Team von Stable Diffusion erstellt und sorgte nur 10 Tage nach seiner Veröffentlichung für Aufruhr im Internet.
Diese wunderschönen Fotos von gefälschten TED-Vorträgen sind alle dadurch entstanden.
Andere haben Flux und Gen-3 zusammen verwendet, um wunderschöne Werbung für Hautpflegeprodukte zu erstellen.
Und verschiedene Syntheseeffekte aus verschiedenen Blickwinkeln.
Es löst sehr gut Probleme wie KI-Maler und KI-generierten Text in Bildern.
Dies führt direkt dazu, dass Menschen nicht mehr direkt auf Hände und Wörter schauen können, um KI-Zeichnungen zu unterscheiden, sondern nur noch anhand von Hinweisen raten können.
Flux sollte über eine verstärkte Schulung an Hand, Text und anderen Indikatoren verfügen.
Dies bedeutet auch, dass, wenn die aktuelle KI weiterhin hart am Training von Texturdetails, Farben usw. arbeitet, bis zum Erscheinen des KI-Zeichenmodells der nächsten Generation die menschlichen Erkennungsmethoden möglicherweise wieder wirkungslos werden ...
Darüber hinaus ist Flux Open Source und kann auf Laptops ausgeführt werden. Viele Leute sind jetzt bei Forget Midjourney.
Der Übergang von der stabilen Diffusion zum Fluss dauerte zwei Jahre.
Es dauerte ein Jahr, um von „Will Smith isst Nudeln“ zu „Tedx-Sprecher“ zu gelangen.
Ich weiß wirklich nicht, welche Tricks sich Menschen in Zukunft ausdenken müssen, um die KI-Generation zu unterscheiden ...
Referenzlinks:
[1]https://x.com/ChuckBaggett/status/1822686462044754160
[2]https://www.reddit.com/r/artificial/comments/1epjlbl/average_looking_people/
[3]https://www.reddit.com/r/ChatGPT/comments/1epeshq/these_are_all_ai/
[4]https://x.com/levelsio/status/1822751995012268062