Nachricht

Jia Yangqing gewann den Time Test Award für eine seiner Arbeiten, qualifizierte sich jedoch nicht für die 10 besten Arbeiten in China und den ICML 2024 Award

2024-07-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Maschinenherzbericht

Redaktion von Machine Heart

Der vollständige Name von ICML lautet International Conference on Machine Learning. Sie wird von der International Machine Learning Society (IMLS) organisiert und ist die führende Konferenz im Bereich der künstlichen Computerintelligenz.

Die diesjährige ICML-Konferenz ist die 41. und findet derzeit in Wien, Österreich, statt. Bei der gerade abgehaltenen Eröffnungszeremonie gab ICML, das jedes Jahr immer beliebter wird, die diesjährigen Konferenzdaten und Preisinformationen bekannt.



Bei dieser Hauptkonferenz gingen insgesamt 9473 gültige Beiträge ein, von denen 2610 Beiträge angenommen wurden, mit einer Annahmequote von 27,5 %, darunter 144 mündliche Beiträge und 191 Spotlight-Beiträge.



Die Themenschlüsselwörter der akzeptierten Arbeiten sind: großes Sprachmodell, verstärkendes Lernen, tiefes Lernen, graphisches neuronales Netzwerk, maschinelles Lernen, föderiertes Lernen, Diffusionsmodell, Transformer, LLM, Repräsentationslernen, generatives Modell ... Diese Schlüsselwörter repräsentieren auch den aktuellen Stand Die beliebteste Forschungsrichtung im Bereich KI.

Zusätzlich zu diesen Daten wurden auf der Konferenz auch die diesjährigen Time Test Awards und Best Papers bekannt gegeben. DeCAF, eine Arbeit, die Jia Yangqing vor zehn Jahren in Berkeley mitverfasst hat, gewann den diesjährigen Time Test Award. Im Vergleich zu 6 im letzten Jahr gewannen in diesem Jahr 10 Studien die beste Arbeit, darunter das Google DeepMind-Weltmodell Genie, das Videomodell VideoPoet usw., das vor einiger Zeit populär wurde.

Bewährte Auszeichnung

In Bezug auf den Gewinn des DeCAF-Preises sagte Jia Yangqing im Freundeskreis: „Aus der heutigen Terminologie sollte DeCAF die Grundfunktionen und die tiefe Einbettung in das Sichtfeld sein und dem Bereich der Computer-Vision auch eine verallgemeinerbare Funktion verleihen. Die Arbeit von DeCAF.“ später wurde General geboren Das Objekterkennungs-Framework R-CNN, das leistungsstarke heterogene Computer-Framework Caffe, trug indirekt zur Zusammenarbeit von Berkeley und NVidia beim Schreiben des Beschleunigungs-Frameworks der ersten Generation CuDNN bei, dem von Yahoo Labs erstellten groß angelegten verteilten Training CaffeOnSpark und eine Reihe anderer Arbeiten, die Berkeleys führende Position in der Deep-Learning-Welle festigen.“



Beschreibung: DeCAF: Eine Funktion zur Aktivierung tiefer Faltungsvorgänge für die allgemeine visuelle Erkennung

Von: Jeffrey Donahue, Yangqing Jia, Oriol Vinyals, Judy Hoffman, Ning Zhang, Eric Tzeng, Trevor Darrell

Institution: UC Berkeley & ICSI, Berkeley, CA, USA

Link zum Papier: https://arxiv.org/pdf/1310.1531

Das Forschungsteam untersuchte, ob Merkmale, die aus Aktivierungen tiefer Faltungsnetzwerke extrahiert wurden, die vollständig überwacht an einem großen, festen Satz von Objekterkennungsaufgaben trainiert wurden, für neue allgemeine Aufgaben umfunktioniert werden können. Diese allgemeinen Aufgaben können sich erheblich von denen unterscheiden, für die sie ursprünglich trainiert wurden, und es sind möglicherweise nicht genügend gekennzeichnete oder nicht gekennzeichnete Daten vorhanden, um tiefe Architekturen routinemäßig zu trainieren oder an neue Aufgaben anzupassen. Sie untersuchen und visualisieren die semantische Clusterbildung tiefer Faltungsmerkmale in einer Vielzahl von Aufgaben, einschließlich Szenenerkennung, Domänenanpassung und feinkörnigen Erkennungsherausforderungen. Die Forscher verglichen die Auswirkungen der Verwendung verschiedener Schichten des Netzwerks zur Definition fester Merkmale und berichteten über neue Ergebnisse, die bestehende Techniken bei mehreren wichtigen visuellen Herausforderungen deutlich übertreffen. Sie veröffentlichten DeCAF, eine Open-Source-Implementierung tiefer Faltungsaktivierungsfunktionen, die alle relevanten Netzwerkparameter enthält, um Sehforschern das Experimentieren mit tiefen Darstellungen über eine Reihe von Paradigmen des visuellen Konzeptlernens hinweg zu ermöglichen.

bestes Papier

Artikel 1: Skalierung gleichgerichteter Strömungstransformatoren für die hochauflösende Bildsynthese

Mitwirkende: Patrick Esser, Sumith Kulal, Andreas Blattmann, Rahim Entezari, Jonas Müller, Harry Saini, Yam Levi, Dominik Lorenz, Axel Sauer, Frederic Boesel, Dustin Podell, Tim Dockhorn, Zion English, Robin Rombach

Organisation: Stabilitäts-KI

Papieradresse: https://proceedings.mlr.press/v235/esser24a.html

Machine Heart Report: Das Stable Diffusion 3-Papier wurde endlich veröffentlicht und die Architekturdetails werden enthüllt. Wird es helfen, Sora zu reproduzieren?

Dieses Papier ist genau das Stable Diffusion 3-Papier. Im Vergleich zur Vorgängerversion wurde die Qualität der von Stable Diffusion 3 generierten Bilder erheblich verbessert, es werden Eingabeaufforderungen mit mehreren Themen unterstützt und auch der Textschreibeffekt ist besser.



Stabile Diffusion 3-Modellarchitektur.

Diffusionsmodelle, die aus Rauschen Daten erzeugen, indem sie dessen Vorwärtspfad in Rauschen umkehren, haben sich als leistungsstarke generative Modellierungstechnik für hochdimensionale sensorische Daten wie Bilder und Videos herausgestellt. Rectified Flow (RF) ist eine neuere generative Modellformulierung, die Daten und Rauschen in einer geraden Linie verbindet. Trotz seiner besseren theoretischen Eigenschaften und konzeptionellen Einfachheit hat es sich noch nicht eindeutig als Standardpraxis etabliert.

Diese Forschung verbessert bestehende Rauschabtasttechniken, indem sie HF-Modelle trainiert, indem sie sie auf wahrnehmungsrelevante Skalen ausrichtet. Diese Studie zeigt anhand einer groß angelegten Studie die überlegene Leistung dieses Ansatzes im Vergleich zu bestehenden Diffusionsformulierungen für die hochauflösende Text-Bild-Synthese.

Darüber hinaus schlägt die Forschung auch eine neue Transformer-basierte Architektur für die Text-zu-Bild-Generierung vor, die separate Gewichtungen für die beiden Modi verwendet und einen bidirektionalen Informationsfluss zwischen Bild- und Text-Tokens ermöglicht, wodurch das Textverständnis, menschliche Präferenzbewertungen usw. verbessert werden . Die Studie zeigt, dass die Architektur einem vorhersehbaren Skalierungstrend folgt und beobachtet, dass der Validierungsverlust mit zunehmender Modellgröße und Trainingsschritten gleichmäßig abnimmt.



Verbesserter multimodaler Diffusionstransformator: MMDiT-Block.

Artikel 2: Genie: Generative interaktive Umgebungen

Von: Jake Bruce, Michael Dennis, Ashley Edwards, Jack Parker-Holder, Yuge Shi, Edward Hughes usw.

Institution: Google DeepMind, University of British Columbia

Papieradresse: https://arxiv.org/pdf/2402.15391.pdf

Dieses Papier definiert ein neues Paradigma der generativen KI – Generative Interactive Environments – Genie (Generative Interactive Environments). Genie ist ein 11 Milliarden Parameter umfassendes Weltmodell, das aus einer einzigen Bildaufforderung spielbare interaktive Umgebungen generieren kann.

Machine Heart Report: Gerade hat Google ein grundlegendes Weltmodell veröffentlicht: 11B-Parameter, mit denen eine interaktive virtuelle Welt generiert werden kann

Mehrere Komponenten der Genie-Architektur basieren auf Vision Transformer (ViT). Es ist erwähnenswert, dass Videos aufgrund der sekundären Speicherkosten von Transformer, die den Videobereich vor Herausforderungen stellen, bis zu (10^4) Token enthalten können. Daher verwendet Google in allen Modellkomponenten die speichereffiziente ST-Transformer-Architektur, um Modellkapazität und Rechenbeschränkungen auszugleichen.



Genie besteht aus drei Schlüsselkomponenten (wie in der Abbildung unten dargestellt):

1) Latent Action Model (LAM), das verwendet wird, um über mögliche Aktionen zwischen jedem Frame-Paar nachzudenken;

2) Video-Tokenizer (Tokenizer), der zum Konvertieren von Originalvideobildern in diskrete Token verwendet wird;

3) Das dynamische Modell wird anhand möglicher Aktionen und Token vergangener Frames verwendet, um das nächste Frame des Videos vorherzusagen.



Um eine kontrollierbare Videogenerierung zu erreichen, verwendet Google die im vorherigen Frame durchgeführten Aktionen als Bedingungen für die Vorhersage zukünftiger Frames. Allerdings sind solche Aktionsbezeichnungen in Videos im Internet selten verfügbar und die Kosten für die Beschaffung von Aktionsanmerkungen können hoch sein. Stattdessen lernt Google völlig unbeaufsichtigt potenzielle Aktionen.



Papier 3: Überlegungen zum differenziell privaten Lernen mit groß angelegter öffentlicher Vorschulung

Autoren: Florian Tramèr, Gautam Kamath, Nicholas Carlini

Institutionen: ETH Zürich, University of Waterloo, Google DeepMind

Papieradresse: https://arxiv.org/abs/2212.06470

Die Leistung des differenziell privaten maschinellen Lernens kann erheblich verbessert werden, indem die Transferlernfähigkeiten nicht privater Modelle genutzt werden, die anhand großer öffentlicher Datensätze vorab trainiert wurden. In dem Artikel wird die Frage gestellt, ob die Verwendung großer Web-Scraping-Datensätze als differenziell privat betrachtet werden sollte.

Die Studie geht davon aus, dass die Festlegung dieser auf Netzwerkdaten vorab trainierten Modelle als „private“ Modelle das öffentliche Vertrauen in die differenzierte Privatsphäre schädigen und schwächen kann. Neben den Datenschutzaspekten bei der Nutzung öffentlicher Daten stellt die Studie auch den Nutzen dieses Paradigmas in Frage. Die Studie untersucht, ob bestehende Benchmarks für maschinelles Lernen geeignet sind, die Fähigkeit vorab trainierter Modelle zu messen, auf sensible Domänen zu verallgemeinern, die in öffentlichen Netzwerkdaten möglicherweise nur schwer darzustellen sind.

Darüber hinaus stellt die Studie fest, dass der Einsatz großer Modelle zu einem Nettoverlust der Privatsphäre führen kann, da private Daten an Dritte mit größerer Rechenleistung ausgelagert werden müssen.

Papier 4: Diskrete Diffusionsmodellierung durch Schätzung der Verhältnisse der Datenverteilung

Autor: Aaron Lou, Chenlin Meng, Stefano Ermon

Institution: Stanford University, Pika Labs

Papieradresse: https://proceedings.mlr.press/v235/lou24a.html

Obwohl Diffusionsmodelle bei vielen generativen Modellierungsaufgaben eine gute Leistung erbringen, erbringen sie in diskreten Datendomänen wie natürlicher Sprache nicht die erwartete Leistung. Standard-Diffusionsmodelle basieren auf der etablierten Score-Matching-Theorie, aber Versuche, diese auf diskrete Strukturen zu verallgemeinern, haben nicht zu den gleichen empirischen Gewinnen geführt.

In dieser Arbeit schließt das Forschungsteam diese Lücke, indem es einen neuartigen Verlust namens „Scored Entropy“ vorschlägt. Die bewertete Entropie erweitert die Bewertungsanpassung auf natürliche Weise auf den diskreten Raum, lässt sich nahtlos in die Erstellung diskreter Diffusionsmodelle integrieren und verbessert die Leistung erheblich.

In ihren Experimenten testeten sie das Scored Entropy Discrete Diffusion Model (SEDD) an einer Standard-Sprachmodellierungsaufgabe. Bei vergleichbaren Modellgrößen übertrifft SEDD bestehende Sprachdiffusionsparadigmen (Reduzierung der Perplexität um 25–75 %) und konkurriert mit autoregressiven Modellen, wobei es insbesondere GPT-2 übertrifft. Darüber hinaus ist SEDD im Vergleich zu autoregressiven Modellen in der Lage, echten Text zu generieren (wodurch die Verwirrung etwa 6–8 Mal höher ist als bei ungetempertem GPT-2), ohne dass verteilte Annealing-Techniken (z. B. Temperaturskalierung) erforderlich sind, und kann in Kompromissen verwendet werden zwischen Rechenaufwand und Qualität (erzielen Sie eine ähnliche Qualität mit 32-mal weniger Netzwerkauswertungen) und unterstützt steuerbares Padding (Anpassung der Kernel-Sampling-Qualität, während andere Strategien als Links-nach-rechts-Hinweise möglich sind).

Aufsatz 5: Probabilistische Inferenz in Sprachmodellen mittels Twisted Sequential Monte Carlo

Darsteller: Stephen Zhao, Rob Brekelmans, Alireza Makhzani und Roger Grosse

Institution: University of Toronto, Vector Institute

Papieradresse: https://proceedings.mlr.press/v235/zhao24c.html

Die zahlreichen Fähigkeiten und Sicherheitstechniken großer Sprachmodelle (LLMs), einschließlich RLHF, automatisierter Red-Team-Tests, Hint Engineering und Padding, können als Stichproben aus einer denormalisierten Zielverteilung betrachtet werden, die durch eine bestimmte Belohnung oder latente Funktion definiert ist. In dieser Arbeit nutzen die Autoren die umfangreiche Toolbox von Sequential Monte Carlo (SMC), um diese probabilistischen Inferenzprobleme zu lösen. Insbesondere verwenden sie eine erlernte Warp-Funktion, um potenziell erwartete zukünftige Werte in jedem Zeitschritt abzuschätzen, sodass sich die Berechnung zum Inferenzzeitpunkt auf vielversprechende Teile der Sequenz konzentrieren kann.

Wir schlagen einen neuartigen kontrastiven Ansatz zum Erlernen von Warping-Funktionen vor und stellen Verbindungen zur umfangreichen Literatur zum sanften Verstärkungslernen her. Als ergänzende Anwendung des verdrehten SMC-Frameworks schlagen sie eine Methode zur Bewertung der Genauigkeit von Sprachmodell-Inferenztechniken für Protokollpartitionsfunktionen mithilfe einer neuen bidirektionalen SMC-Grenze vor. Diese Grenzen können verwendet werden, um die bidirektionale KL-Divergenz zwischen der Inferenzverteilung und der Zielverteilung abzuschätzen. Durch die Anwendung von Inferenzbewertungstechniken zeigen sie, dass Twisted SMC effektiv unerwünschte Ergebnisse aus vorab trainierten Modellen abtastet (nützlich für harmloses Training und automatisierte Red-Team-Tests), Bewertungen mit unterschiedlichen Stimmungen generiert und Auffüllaufgaben durchführt.

Papier 6: Die Debatte mit überzeugenderen LLMs führt zu wahrheitsgemäßeren Antworten

Darsteller: Akbir Khan, John Hughes, Dan Valentine, Laura Ruis, Kshitij Sachan, Ansh Radhakrishnan, Edward Grefenstette, Samuel Bowman, Tim Rocktäschel und Ethan Perez

Institutionen: University College London, Speechmatics, MATS, Anthropic, FAR AI

Papieradresse: https://proceedings.mlr.press/v235/khan24a.html

Gängige Ansätze zur Ausrichtung großer Sprachmodelle (LLMs) auf gewünschte Verhaltensweisen stützen sich stark auf von Menschen gekennzeichnete Daten. Je komplexer die Modelle jedoch werden, desto mehr werden sie das menschliche Fachwissen übersteigen, und die Rolle menschlicher Bewerter wird sich zu der von Nicht-Experten entwickeln, die Experten beaufsichtigen. Basierend auf dieser Erwartung stellten die Forscher eine Frage: Kann ein schwächeres Modell die Korrektheit eines stärkeren Modells bewerten? Sie untersuchten dieses Problem, indem sie ein ähnliches Szenario aufstellten: eines, bei dem das stärkere Modell (der Experte) über die zur Beantwortung der Frage erforderlichen Hintergrundinformationen verfügte, während dem schwächeren Modell (dem Nicht-Experten) diese Informationen fehlten. Die Forscher wählten die Debatte als Testmethode – das heißt, zwei LLM-Experten ließen jeweils unterschiedliche Antworten verteidigen, und die Nicht-Experten wählten die endgültige Antwort.

Das Forschungsteam stellte fest, dass die Debatte Nicht-Expertenmodellen und Menschen effektiv dabei half, Fragen zu beantworten, und eine Genauigkeit von 76 % bzw. 88 % erreichte (die ursprüngliche Basis lag bei 48 % bzw. 60 %).



Darüber hinaus verbessert die unbeaufsichtigte Optimierung der Überzeugungskraft von Expertendebattierern die Fähigkeit von Nichtexperten, die Wahrheit in Debatten zu erkennen. Dieses Ergebnis liefert eine Referenz, indem es die Machbarkeit ausgerichteter Modelle ohne Ground-Truth-Labels diskutiert.

Frage 7: Informationskomplexität der stochastischen konvexen Optimierung: Anwendungen für Generalisierung, Memorisierung und Nachverfolgung

Mitwirkende: Idan Attias, Gintare Karolina Dziugaite, Mahdi Haghifam, Roi Livni, Daniel Roy

Institutionen: Ben-Gurion-Universität, University of Toronto, DeepMind usw.

Papieradresse: https://proceedings.mlr.press/v235/attias24a.html

In dieser Arbeit untersuchen die Autoren die Interaktion zwischen Gedächtnis und Lernen im Kontext der stochastischen konvexen Optimierung (SCO). Sie definieren das Gedächtnis, indem sie die Informationen lernen, die der Algorithmus über seine Trainingsdatenpunkte preisgibt, und diese Informationen mithilfe des von Steinke und Zakynthinou (2020) vorgeschlagenen Frameworks für bedingte gegenseitige Information (Conditional Mutual Information, CMI) quantifizieren.

Das Hauptergebnis dieser Studie besteht darin, den Kompromiss zwischen der Genauigkeit eines Lernalgorithmus und seinem CMI genau zu charakterisieren und eine offene Frage von Livni (2023) zu beantworten. Dieser Artikel zeigt, dass unter der L²-Lipschitz-begrenzten Einstellung und den Bedingungen starker Konvexität der CMI jedes Lernenden mit übermäßigem Fehler ϵ durch Ω(1/ϵ²) bzw. Ω(1/) untere Grenzen hat. Die Autoren demonstrieren außerdem die unverzichtbare Rolle des Gedächtnisses beim SCO-Problem, indem sie einen Gegner entwerfen, der eine große Anzahl von Trainingsbeispielen in einem bestimmten SCO-Problem genau identifizieren kann. Schließlich führen sie mehrere Implikationen der Ergebnisse an, wie etwa Einschränkungen der CMI-basierten Generalisierungsgrenzen und die Inkompressibilität von Proben im SCO-Problem.

Papier 8: Datensatzvielfalt messen, nicht nur behaupten

Darsteller: Dora Zhao, Jerone Andrews, Orestis Papakyriakopoulos, Alice Xiang

Institutionen: Stanford University, Sony AI (London, UK), Technische Universität München, Sony AI (Seattle, USA)

Papieradresse: https://arxiv.org/html/2407.08188v1

Datensätze zum maschinellen Lernen (ML) werden oft als neutral angesehen, enthalten jedoch von Natur aus abstrakte und umstrittene soziale Konstrukte. Datensatzkuratoren verwenden häufig wertbetonte Begriffe wie Diversität, Voreingenommenheit und Qualität, um Datensätze zu beschreiben. Obwohl diese Begriffe häufig verwendet werden, mangelt es ihnen an klarer Definition und Validierung. Die Studie des Forschungsteams untersuchte die Auswirkungen dieses Problems, indem es die „Vielfalt“ in 135 Bild- und Textdatensätzen analysierte. Basierend auf den Sozialwissenschaften werden Prinzipien der Messtheorie angewendet, um Überlegungen zu identifizieren und Empfehlungen für die Konzeptualisierung, Operationalisierung und Bewertung der Diversität in Datensätzen zu geben. Ihre Ergebnisse haben weitreichende Auswirkungen auf die ML-Forschung und plädieren für einen differenzierteren und präziseren Ansatz beim Umgang mit wertbeladenen Attributen bei der Datensatzkonstruktion.

Artikel 9: VideoPoet: Ein großes Sprachmodell für die Zero-Shot-Videogenerierung

Darsteller: Dan Kondratyuk, Lijun Yu, Xiuye ​​Gu, Jose Lezama, Jonathan Huang, Grant Schindler, Rachel Hornung, Vighnesh N Birodkar, Jimmy Yan, Ming-Chang Chiu, Krishna Somandepalli, Hassan Akbari, Yair Alon, Yong Cheng, Joshua V Dillon 、Agrim Gupta、Meera Hahn、Anja Hauth、David Hendon、Alonso Martinez、David Minnen、Mikhail Sirotenko、Kihyuk Sohn、Xuan Yang、Hartwig Adam、Ming-Hsuan Yang、Irfan Essa、Huisheng Wang、David Ross、Bryan Seybold, Lu Jiang

Organisation: Google, Carnegie Mellon University

Papieradresse: https://proceedings.mlr.press/v235/kondratyuk24a.html

Projektlink: http://sites.research.google/videopoet/

Machine Heart Report: Kann die Videogenerierung unendlich lang sein?Das große Google VideoPoet-Modell ist online, Internetnutzer: revolutionäre Technologie

Das Forschungsteam veröffentlichte VideoPoet, ein Sprachmodell, das in der Lage ist, hochwertige Videos aus mehreren bedingten Signalen zu synthetisieren. VideoPoet verwendet eine reine Decoder-Transformer-Architektur, um multimodale Eingaben wie Bilder, Video, Text und Audio zu verarbeiten.



Das Trainingsprotokoll folgt der Pipeline großer Sprachmodelle (LLMs) und besteht aus zwei Phasen: Vortraining und aufgabenspezifische Anpassung. In der Vortrainingsphase kombiniert VideoPoet multimodale Generierungsziele innerhalb eines autoregressiven Transformer-Frameworks. Das vortrainierte LLM dient als Basis und kann an eine Reihe von Videogenerierungsaufgaben angepasst werden. Sie demonstrieren die hochmodernen Fähigkeiten des Modells bei der Zero-Shot-Videogenerierung, insbesondere die Fähigkeit, hochauflösende Bewegungen zu erzeugen.

Papier 10: Diebstahl eines Teils eines Produktionssprachenmodells

Mitwirkende: Nicholas Carlini, Daniel Paleka, Krishnamurthy Dvijotham, Thomas Steinke, Jonathan Hayase, A. Feder Cooper, Katherine Lee, Matthew Jagielski, Milad Nasresfahani, Arthur Conmy, Eric Wallace, David Rolnick und Florian Tramer

Institutionen: OpenAI, Google DeepMind, ETH Zürich, University of Washington, McGill University

Papieradresse: https://arxiv.org/pdf/2403.06634

In diesem Artikel wird eine neue Methode zum Angriff auf KI-Modelle vorgeschlagen. Es kann Informationen aus dem generativen Black-Box-Sprachmodell von OpenAIs ChatGPT oder Googles PaLM-2 genau extrahieren. Diese Methode kann in die eingebettete Projektionsschicht des Transformers eindringen (die ein wichtiger Teil des Sprachverständnisses des Modells ist) und erfordert lediglich API-Zugriff über eine Website oder Anwendung und einen Chat mit dem Modell, um es zu „besiegen“. Basierend auf der Methode in der Arbeit knackten die Forscher die gesamte Projektionsmatrix der beiden Grundmodelle der GPT-Serie, Ada und Babbage. Schlüsselinformationen wie versteckte Dimensionen wurden ebenfalls direkt geknackt: eines war 1024 und das andere war 2048. Sie haben auch die verborgenen Dimensionen von gpt-3.5-turbo durchbrochen, und wenn Sie die gesamte Projektionsmatrix des Modells wiederherstellen möchten, werden die Kosten 2000 US-Dollar nicht überschreiten. Forscher haben eine Reihe von Abwehrmaßnahmen und Schadensbegrenzungsstrategien vorgeschlagen, um solche Angriffe zu verhindern.