Nachricht

Intel-Führungskraft: KI-Modelle werden schrittweise von der Cloud an den Rand verlagert

2024-07-26

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

·Die Cloud-Verarbeitungszeit verlängert sich, die Datenübertragungskosten sind hoch und es bestehen Bedenken hinsichtlich der Datensicherheit. Sachin Katti, Senior Vice President von Intel, sagte, dass KI bis zum Rand vordringt und große Modelle möglicherweise schrittweise von der Cloud zum Rand verlagert werden.


Sachin Katti, Senior Vice President und General Manager der Networking and Edge Group bei Intel.

„Wir gehen davon aus, dass KI stärker am Rande eingesetzt und angewendet wird, um lokale Daten zu verarbeiten. Mit der Zeit werden KI-Modelle möglicherweise schrittweise von der Cloud an den Rand verlagert, am 24. Juli auf der Intel Network & Edge 2024 auf der Computing Industry Conference in Sachin.“ Katti, Senior Vice President und General Manager der Network and Edge Division, sagte, dass die aktuelle KI hauptsächlich in der Cloud läuft, da Edge-Geräte lokal große Datenmengen erzeugen, die Kosten für die Übertragung aller Daten in die Cloud sind recht hoch Der allgemeine Trend liegt im Bereich Edge Computing.

Datensicherheit und Echtzeit fördern KI von der Cloud bis zum Edge

Sachin Katti sagte, dass sich der Mensch im Zeitalter der KI-Unterstützung befinde und die KI den Menschen dabei helfe, effizienter zu arbeiten. Nach der Ära der KI-Unterstützung werde der Mensch in die Ära der KI-Assistenten eintreten Auch die Arbeitsabläufe von Unternehmen können mit KI vervollständigt werden. In ferner Zukunft werden wir möglicherweise feststellen, dass Agenten miteinander interagieren können, so wie Menschen zusammenarbeiten, um Lösungen auf Abteilungsebene bereitzustellen.“

Sachin Katti sagte, dass sich das heutige KI-Wachstum hauptsächlich auf die Cloud konzentriert, die Entwicklung hin zum Edge Computing jedoch der allgemeine Trend sei: „In der Vergangenheit ging es bei der KI, über die wir gesprochen haben, im Wesentlichen um maschinelles Sehen oder zeitreihenbasierte Automatisierungstechnologie. Aber jetzt hat sich Edge AI schrittweise von der maschinellen Bildverarbeitung am Edge zu Edge-Anwendungen wie großen Sprachmodellen und generativer KI entwickelt. Intel wird weiterhin relevante Funktionen bereitstellen, um den Einsatz generativer KI und großer Sprachmodelle am Edge zu beschleunigen.“

Neben den Übertragungsanforderungen von Edge-Daten sind Datensicherheit und Echtzeitleistung wichtige Überlegungen bei der Förderung von KI von der Cloud bis zum Edge. Guo Wei, Vizepräsident der Intel Marketing Group und General Manager der Intel China Network and Edge and Channel Data Center Division, sagte, dass einerseits Unternehmen Bedenken haben, Daten in der Cloud zu platzieren, andererseits hilft Edge Computing bei der Lösung Echtzeitanforderungen.

„Grundsätzlich erforschen mehr als die Hälfte unserer Kunden in diesem Jahr Implementierungslösungen auf Basis großer Edge-Modelle.“ Die Modellgröße ist nicht: Je größer, desto besser, aber sie sollte den tatsächlichen Anforderungen der Marktanwendungsszenarien entsprechen. „Der Einsatz von Edge Computing muss viele Faktoren berücksichtigen, wie z. B. Latenz, Verfügbarkeit, anpassbare Optimierung von Mikrodaten und Informationssicherheit.“ , usw."

Edge-Tuning ist durch das Datenvolumen begrenzt

„Das Merkmal des Edge ist die Fragmentierung.“ Zhang Yu, Chief Technology Officer der Network and Edge Division von Intel China und leitender KI-Ingenieur von Intel, sagte, dass verschiedene Benutzer unterschiedliche Anforderungen an Rechenleistung und Leistung haben. Eine häufige Herausforderung beim Edge-Tuning ist die Begrenzung des Datenvolumens. Die Datenmenge, die eine Schule oder eine Fabrik wirklich für die Ausbildung nutzen kann, ist sehr gering. Die Daten verschiedener Unternehmen und Schulen sind ebenfalls unterschiedlich. Produktfehler können mit einem einheitlichen Modell nicht erkannt werden, und das Modell muss mit unternehmensspezifischen Daten trainiert werden.

Gleichzeitig sagte Zhang Yu: „Für die Schulung ist eine Kennzeichnung erforderlich, um der Maschine mitzuteilen, worauf Sie achten. Die Personen, die die KI-Funktionsausrüstung in einer Fabrik tatsächlich bedienen, sind oft die Arbeiter am Fließband. Wie kann das?“ Sie haben die Energie, während des Produktionsprozesses eine Beschriftung vorzunehmen? „An der Edge streben Endbenutzer nach geschäftlicher Bereitstellung und nicht nach technischen Lösungen. Die Anforderungen der Benutzer an Dienste sind Komfort, einfache Bereitstellung und einfache Verwaltung nach der Bereitstellung. Dies ist für Kunden oft ein Problem.“

Guo Wei sagte, dass es nicht ausreiche, sich nur auf Modellschulungen zu verlassen, um praktische Branchenprobleme zu lösen, und dass der Bedarf an einer Verbesserung der Denkfähigkeiten in diesem Jahr besonders offensichtlich sei. Die Implementierung großer Modelle erfordert zwangsläufig eine ausgewogene Verteilung der Rechenleistung vom Ende bis zum Rand und dann in die Cloud. „Wenn es sich nur um eine Standardanwendung vertikaler großer Modelle handelt, werden die großen Modelle hauptsächlich in der Cloud bereitgestellt.“ Aufgrund der Notwendigkeit einer industriellen Implementierung wird die KI-Rechenleistung jedoch unweigerlich in die Cloud verlagert. „Edge- und End-Side-Verteilung.“

Sachin Katti sagte, dass die Hauptarbeitsbelastungen am Rande Inferenz und kontinuierliches Lernen seien. Manchmal stellt sich nach der Bereitstellung am Rand heraus, dass der Effekt nicht so gut ist wie erwartet, oder dass das Originalmodell nach einer gewissen Zeit optimiert werden muss.

Wie viel Rechenleistung wird am Edge benötigt? Sachin Katti sagte, dass es einen positiven Zusammenhang zwischen Rechenleistung und Energieverbrauch gebe. Am Edge bereitgestellte Geräte verbrauchen etwa 200 Watt Energie, die Cloud-Bereitstellung verbraucht 1–2 Kilowatt und der Energieverbrauch eines einschichtigen Racks im Rechenzentrum kann bis zu 100 Kilowatt betragen. Rechnet man den Energieverbrauch des gesamten Rechenzentrums zusammen, kann dieser bei 50-100 Gigawatt liegen. In Fällen hoher Rechenleistung oder hohem Energieverbrauch sind Kühleffizienz und Kühlkapazität wichtige Variablen, die berücksichtigt werden müssen. Da große Datenmengen und Rechenleistung viel Wärme erzeugen werden, „nutzen wir derzeit Flüssigkeitskühlungstechnologie, um die Flotte effektiv abzukühlen.“ Die vorhandene Flüssigkeitskühlungstechnologie konnte die 100-Kilowatt-Flotte erfolgreich abkühlen und wird erwartet Die Kapazität soll in Zukunft auf 300 Kilowatt erweitert werden. Daher sind Einschränkungen ein weiterer sehr wichtiger Faktor bei der Rechenleistung, ob Sie über genügend Kapazitäten verfügen, um die gesamte Umgebung effektiv zu kühlen.“