nachricht

vor der herbstkonferenz von apple ein ausführlicher überblick über das apple intelligence-panorama

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

tencent technology autor guo xiaojing wu bin

videoplaner wu bin

herausgeber zheng kejun

vor der pressekonferenz von apple haben wir das apple intelligence-panorama geklärt

auf der wwdc24 (apple worldwide developers conference) im juni dieses jahres hörte die welt zum ersten mal den begriff „apple intelligence“, um seine eigene apple ai zu definieren. zuvor vermied apple die verwendung des begriffs „ki“, wenn es um seine funktionen im zusammenhang mit maschinellem lernen ging.

bis heute steht im neuesten einladungsschreiben zur apple-herbstkonferenz, dass zwar keine „ki“ vorkommt, dafür aber verschiedene spielarten von „ki“ offenbart werden.

hinweis: auf der linken seite befindet sich das einladungsschreiben für apples herbstkonferenz zur einführung neuer produkte im jahr 2024 und auf der rechten seite das einladungsschreiben für wwdc24

das thema der einladung lautet beispielsweise „highlight moment“. die hauptfarbe und der bunte heiligenschein um das apple-logo stimmen sehr gut mit der hauptfarbe der wwdc24-einladung überein.

bildunterschrift: siris neues symbol, iphone-anzeigeeffekt nach dem aufwecken von siri

auch die farbe von siri ändert sich. sie können sehen, dass sich das neue logo und das farbschema nach dem aufwecken von siri völlig von der alten siri unterscheiden.

legende: apple-herbstkonferenz 2023, einladungsschreiben zur wwdc23, altes siri-logo, deutliche unterschiede erkennt man in der farbgebung

ich habe sogar ein ki-produkt gebeten, mir bei der analyse der ki-bezogenen elemente im einladungsschreiben für die herbstkonferenz zu helfen, und es sagte mir:

was das grafikdesign betrifft: das logo besteht aus linien, die den klassischen umriss von apple umgeben, und der dynamische sinn simuliert die intelligente interaktion von ki. dieses dynamische grafikdesign simuliert möglicherweise das reibungslose intelligente interaktionserlebnis, das die ki-technologie bietet.

farbton: das einladungslogo verwendet neontöne wie blau, lila, orange und pink. die kombination kräftiger farben ist der generativen kunst der ki sehr ähnlich. diese farben selbst können mit den funktionen oder anwendungsszenarien der ki zusammenhängen -bezogene funktionen in apple-produkten es gibt einen zusammenhang;

visuelle assoziation: die visuelle assoziation zwischen der einladung und siri deutet möglicherweise auf die zentrale stellung der ki-technologie in apple-produkten hin und darauf, dass siri in zukunft möglicherweise weiter verbessert und optimiert wird, um eine bessere integration mit anderen ki-funktionen zu ermöglichen und benutzern intelligentere und bequemere dienste bereitzustellen ;

von der nichterwähnung von ai bis hin zum homophon des namens „ai“ muss sogar die farbe des einladungsschreibens mit „ai“ übereinstimmen. offensichtlich sind diese designs kein zufall und deutet an, dass apple intelligence auch in der herbstveröffentlichung ein highlight sein wird.

was ist also die stärke von apple intelligence? in diesem artikel sprechen wir ausführlich mit ihnen über folgende themen:

kurze einführung: wie sieht das gesamtbild von apple intelligence basierend auf den verfügbaren informationen aus?

fortschrittsrückblick: wie macht apple intelligence von juni bis august fortschritte?

ratet mal: welche art von apple intelligence werden wir bald sehen?

tiefgründiges nachdenken: wie wird sich das zukünftige ökosystem mit „ki“ von apple entwickeln?

factsheet: völlig privat und sicher

bei wwdc24 ist diese rede von cook sehr wichtig:

„wir freuen uns über den startein neues kapitel der apple-innovation.apple-intelligenzwird die art und weise verändern, wie benutzer unsere produkte verwenden——und was unsere produkte für benutzer tun können,unser einzigartiger ansatzkombiniert generative ki mit benutzerbedürfnissen, um reale bereitzustellennützliche intelligenz. es kannvöllig privater und sicherer weggreifen sie auf diese informationen zu, um benutzern dabei zu helfen, das zu tun, was ihnen am wichtigsten ist. das istki, die nur apple bieten kannwir können es kaum erwarten, dass benutzer erleben, was es kann. "

in dieser passage gibt es drei schlüsselpunkte (beachten sie die blau hervorgehobenen schlüsselwörter):

1. kombinieren sie generative ki und benutzeranforderungennützlichintelligent

2. jaeinzigartigmethode, das ist ki, die nur apple bieten kann

3、völlig privat und sicherweg

wenn sie dies tun möchten, müssen sie es lösenvier kernprobleme, mit denen jede geräteseitige ki konfrontiert ist:

erstens nützlich: passen sie perfekt die bedürfnisse der benutzer an, nicht die anforderungen der fertigung, und überlegen sie auch, wie sie interagieren können.

zweitens sicherheit: das modell muss lokal ausgeführt werden

drittens: glätte: bei problemen, die nicht von lokaler hardware bewältigt werden können, wird ein größeres modell in der cloud zur bewältigung verwendet.

viertens sicherheit und vollständiger datenschutz: sobald das cloud-modell verwendet wird, besteht die gefahr, dass eine große menge persönlicher informationen auf dem mobiltelefon verloren geht

offensichtlich sind die immer wieder erwähnte sicherheit und der datenschutz die wichtigsten voraussetzungen für jeden dienst, den apple seinen nutzern bieten möchte.

man kann sagen, dass vor apple kein hersteller eine wirklich vollständige lösung vorgeschlagen hatte.

was denkt apple also darüber? werfen wir einen blick auf das apple intelligence-panorama und werfen wir vielleicht einen blick auf die gesamtlogik von apple in sachen ki.

bildunterschrift: apple intelligence-panorama, übersetzt von tencent technology

die personal-intelligence-systemschicht verbindet die oberste anwendungsschicht, die den benutzern bekannt ist, und die von apple selbst entwickelte chipschicht.

man kann sagen, dass die schicht des persönlichen intelligenzsystems die kernstruktur von apple intelligence ist. wir können sie uns aus mehreren teilen vorstellen.

der erste teil ist afm-on-device (apple fondation model end-side-modell).dabei handelt es sich um ein 3-milliarden-parameter-modell, das den wichtigsten teil der endseitigen ki darstellt. aufgrund der hohen anforderungen an datenschutz und sicherheit hat die lokale ausführung des clientseitigen modells höchste priorität. nur dinge, die es nicht kann, können in die cloud gesendet werden.

das geräteseitige modell weist jedoch ein unmögliches dreieck auf: leistung, parametervolumen, speicher und stromverbrauch, was für verschiedene hersteller auch das problematischste thema darstellt.

eine hervorragende leistung erfordert eine große anzahl von parametern. eine große anzahl von parametern bedeutet, dass eine große speichernutzung und ein hoher stromverbrauch die leistung beeinträchtigen können. wie also sollten diese drei ausbalanciert werden?

apples plan sieht wie folgt aus:

low-bit-palettierung: diese technologie macht das modell leichter, genau wie das komprimieren von hochauflösenden fotos, und nimmt nicht viel platz auf dem mobiltelefon ein.

lora-adapter: mit diesen gadgets können modelle bei bedarf schnell neue fähigkeiten erlernen, ähnlich wie legosteine, die in verschiedene formen zusammengesetzt werden können.

talaria-tool: dieses tool hilft, den energieverbrauch des modells zu überwachen und zu regulieren, um sicherzustellen, dass es nicht zu viel strom verbraucht.

gruppierte abfrageaufmerksamkeit: ermöglicht dem modell, sich schnell auf wichtige informationen zu konzentrieren, genau wie die verwendung von tags zum schnellen auffinden von büchern.

gemeinsamer wortschatz: durch die gemeinsame nutzung des wortschatzes wird die speichernutzung reduziert, genau wie bei der verwendung eines wörterbuchs, damit jeder wörter nachschlagen kann, was platz spart.

einfach ausgedrückt ermöglichen diese optimierungstechnologien afm-on-devicebleiben sie intelligent, sparen sie gleichzeitig strom und reagieren sie schnell

das größte highlight ist der lora-adapter (low-rank adaptation adapter), ein technisches tool zur optimierung von modellen für maschinelles lernen, insbesondere von großen sprachmodellen und generativen modellen. es ähnelt dem hinzufügen spezieller „widgets“ wie „zusammenfassungsnachricht“ oder „. „auf e-mail antworten“ ermöglicht es modellen, diese spezifischen aufgaben besser zu erfüllen.

video: arbeitsdiagramm des lora-adapters

auf diese weise kann unter verwendung von 3 milliarden parametern eine leistung erreicht werden, die der anderer mainstream-modelle mit einer skala von mehr als 7 milliarden entspricht (bewertungsergebnisse wurden von apple offiziell bereitgestellt).

das talaria-tool kann mit anderen techniken kombiniert werden (z. b. gruppierte abfrageaufmerksamkeit, gemeinsames eingabe- und ausgabevokabular, low-bit-quantisierung, hybridkonfigurationsstrategie, aktivierungsquantisierung und einbettungsquantisierung usw.). auf dem iphone 15 pro und einer generierungsrate von 30 token pro sekunde, und während es die leistungsanforderungen erfüllt, kann es auch den stromverbrauch und den speicherdruck des mobiltelefons reduzieren.

dennoch ist laut apple-beamten für die ausführung von apple intelligence immer noch eine mindestkonfiguration des iphone 15 pro erforderlich. darüber hinaus sind nach angaben von tencent technology mindestens 8 gb arbeitsspeicher erforderlich, um die ausführung von apple intelligence zu unterstützen.

daher ist in diesem stadium die fähigkeit des geräteseitigen modells mit 3 milliarden parametern die obergrenze der probleme, die das lokale ki-gehirn von iphone und mac lösen kann.

daher müssen komplexe berechnungen immer noch an die cloud gesendet und durch modelle mit größeren parametern verarbeitet werden.

dies ist die zweite wichtige komponente von apple intelligence, das cloud-modell (afm server).

hier muss hinzugefügt werden, dass die rolle der orchestrierungsschicht darin besteht, zu bestimmen, ob benutzeranforderungen auf der clientseite gelöst oder in die cloud hochgeladen werden müssen, ähnlich wie bei einem commander. apple nimmt hier keinen manuellen eingriff vor und verlässt sich bei der beurteilung vollständig auf seinen eigenen algorithmus. benutzer können nicht entscheiden, ob ihre daten nur auf dem gerät abgelegt werden.

apple hat die spezifischen parameter des cloud-modells nicht offengelegt. im gegensatz zum clientseitigen modell, das aus einem größeren modell destilliert wird, wird es von grund auf trainiert. gleichzeitig werden einige fortgeschrittene trainingsmethoden verwendet, die dem endseitenmodell gemeinsam sind.

das wichtigste merkmal dieses cloud-modells besteht darin, zu erkennen, was cook in erwähnt hat„völlig privat und sicher“, das schutz durch private cloud compute (pcc) bietet.

wie genau ist es so geheimnisvoll? hier gibt es viele professionelle techniken. lassen sie uns einfach den gesamten prozess reproduzieren:

benutzer initiiert eine anfrage: sie fragen siri beispielsweise auf ihrem mobiltelefon: „um wie viel uhr soll ich meine kinder von der schule abholen und es trotzdem zum firmentreffen schaffen?“

sichere kapselung: ihr telefon verschlüsselt die anfrage sofort in ein „geheimes paket“, das nur pcc entschlüsseln kann.

geheim gesendet: dieses „geheime paket“ wird über einen sicheren geheimen kanal an den pcc gesendet. dieser durchgang ist wie ein tunnel mit passwortsperre, und nur wer das passwort kennt, kann hindurchgehen.

pcc entschlüsselt und verarbeitet: nach erhalt des pakets nutzt pcc sein eigenes superhirn (leistungsfähiges ki-modell), um ihre anfrage zu verstehen und die antwort herauszufinden. dabei setzt pcc verschiedene technologien ein, um sicherzustellen, dass ihre daten nicht verloren gehen oder missbraucht werden.

die daten werden gelöscht, sobald sie aufgebraucht sind: nachdem pcc die antwort gefunden hat, löscht es sofort alle ihre vorübergehend gespeicherten daten, so als würden sie die wörter auf einer tafel mit wasser löschen, ohne spuren zu hinterlassen.

rückgabeergebnis: pcc verschlüsselt die antwort dann erneut und sendet sie über einen sicheren kanal an ihr telefon zurück. sie entsperren das telefon und können zum schluss kommen.

kurz gesagt: pcc verschlüsselt ihre anforderungen für sie, übergibt sie zur verarbeitung in einem geheimen kanal an ai und löscht sie nach der verarbeitung. welche technologien nutzt pcc also, um sicherzustellen, dass benutzerdaten nicht verloren gehen oder missbraucht werden?

um es mit einer anschaulichen, aber nicht ganz strengen metapher zu verstehen: pcc ist wie ein speziell gestalteter tresorraum. auch wenn man den tresorraum betreten kann, ist es schwierig herauszufinden, wo bestimmte wertsachen aufbewahrt werden bekannt als „target proliferation“-technologie.

darüber hinaus sind die türen und schlösser des tresors sehr stark und können nur von verifizierten mitarbeitern (also pcc-knoten) geöffnet werden, und jedes mal, wenn die tür geöffnet wird, ist ein spezieller schlüssel (verschlüsselungstechnologie) erforderlich bei einmaliger nutzung wird es ungültig, sodass die tür auch dann nicht geöffnet werden kann, wenn jemand den schlüssel stiehlt.

das wichtigste ist, dass selbst wenn sie den tresorraum betreten können, ihre wertsachen nach der entnahme und durchsicht schnell wieder zurückgelegt und eingesperrt werden, ohne spuren zu hinterlassen, sodass es selbst für den fall, dass jemand möchte, unmöglich ist, ihren vorherigen standort herauszufinden .

derzeit verfügt nur apple über die voraussetzungen, diesen schichtweisen sicherheitsplan umzusetzen.

hier muss der dritte wichtige teil von apple intelligence erwähnt werden, die selbst entwickelte chipschicht.diese sicheren server nutzen apples selbst entwickelten chip m2 ultra.

diese chips bieten leistungsstarke verschlüsselungsfunktionen und sind in der lage, komplexe verschlüsselungsalgorithmen auszuführen, um die sicherheit der daten während der übertragung und verarbeitung zu gewährleisten. es integriert außerdem eine vielzahl von hardware-sicherheitsfunktionen, wie z. b. secure enclave, einen isolierten hardwarebereich, der für die sichere handhabung von verschlüsselungsschlüsseln und sensiblen vorgängen zuständig ist und den schutz der benutzerdaten auch auf serverebene gewährleistet.

darüber hinaus unterstützen die chips die secure boot-technologie, die sicherstellt, dass auf servern nur von apple signierte software ausgeführt werden kann, und verhindert so, dass malware beim systemstart geladen wird.

ob es sich um die chips der a-serie des iphones oder die chips der m-serie des mac handelt, sie sind vollständig von apple selbst entwickelt. dies bedeutet, dass diese chips von anfang an in das apple-system integriert sind und apple intelligence hinsichtlich leistung, stromverbrauch, sicherheit usw. perfekt unterstützen. dies ist ein vorteil, den andere hersteller überhaupt nicht haben.

diese drei merkmale bilden den gesamten kern der intelligenz von apple: das lokal laufende clientseitige modell und eine reihe von basismodellen mit spezifischen funktionen, das cloud-modell, das durch private cloud-computing-dienste bereitgestellt wird, und die leistungsstarke, selbst entwickelte chipschicht.

an dieser stelle fragen sie sich vielleicht: wo ist openai? gab es nicht gerüchte, dass das basismodell von apple intelligence openai verwendet?

apple hat nicht viele details seiner zusammenarbeit mit openai bekannt gegeben. den aktuellen ergebnissen zufolge ist chatgpt nicht in form einer eigenständigen app im system vorinstalliert. apple stellt openai lediglich eine anwendungsprogrammschnittstelle zur verfügung, um chatgpt in das system zu integrieren. genau wie bei der zusammenarbeit zwischen apple und der google-suche wird openai keine höheren berechtigungen erhalten.

dabei haben nutzer das recht, aktiv zu entscheiden, ob sie die dienste von openai nutzen möchten. nach der übergabe der daten an openai übernimmt apple keine verantwortung für die spätere datensicherheit.

darüber hinaus wird openai nicht der einzige partner sein, laut ausländischen medienberichten diskutiert apple auch über eine umfangreiche modellkooperation mit google. daher sollte openai einer der partner im apple intelligence-ökosystem sein.

hinweis: apples offizielles diagramm zur einbettung von gpt in das iphone

fortschrittsinventar: von juni bis august,

wie läuft es mit apple intelligence?

mit einer solchen basisunterstützung können benutzer die produktfunktionen in vollem umfang nutzen.

schauen wir uns zunächst die spezifischen funktionen von apple intelligence an, die auf der wwdc24 im juni angekündigt wurden und sich in die folgenden kategorien einteilen lassen:

schreibwerkzeuge können ihnen beim korrekturlesen, beim umschreiben von inhalten je nach stil, beim zusammenfassen von textinhalten usw. helfen.

die bildgenerierung (image playground) generiert interessante und unterhaltsame bilder auf der grundlage von eingabeaufforderungen

die emoticon-generierung (genmoji) generiert interessante personalisierte emoticons

bei einem fortschrittlicheren siri ist die interaktion natürlicher, personalisierter und tiefer in das system integriert.

erst im vergangenen august, entwickler in nordamerikasie haben bereits damit begonnen, geeignete apple-hardwaregeräte zu verwenden, um einige der funktionen von apple intelligence kennenzulernen.

die vorhandenen funktionen sind detaillierter als bei der ankündigung auf der wwdc24, aber die gesamtfunktionen umfassen im wesentlichen textunterstützung (schreiben, zusammenfassung, e-mail-antwort usw.), bildgenerierung (fotobearbeitung, genmoji), telefonaufzeichnung und -organisation usw. die folgende funktionsliste basiert auf unvollständigen statistiken von tencent technology, die auf öffentlichen informationen basieren:

wir können sehen, dass der schnellste fortschritt bei den textverarbeitungsfunktionen zu verzeichnen ist.

in bezug auf die multimodale verarbeitung scheinen die rein endseitigen teile, wie z. b. die fotosuche, die anrufaufzeichnung usw., noch nicht online zu sein. allerdings scheinen multimodale funktionen, die die mobilisierung von cloud-funktionen erfordern, noch nicht bereit zu sein.

funktionen, die einfach in das system integriert werden, wie z. b. fokusmodi und wichtige benachrichtigungen mit priorität, sollten alle rein endseitig verarbeitet werden und wurden bereits gestartet. einfache funktionen wie die neuen ui-spezialeffekte von siri wurden eingeführt.

das mit spannung erwartete siri-upgrade, das tief in das system integriert ist und über sprachbefehle zwischen verschiedenen apps übertragen werden kann, sowie die integration des openai-großmodells gpt eines drittanbieters wurden jedoch noch nicht eingeführt. laut der offiziellen website von apple werden aktualisierungen für andere sprachen (nicht englisch), funktionen der softwareplattform und andere inhalte im laufe des nächsten jahres abgeschlossen sein.

wenn man sich den fortschrittsbalken ansieht, wird geschätzt, dass nur etwa 30 % des versprechens, das apple auf der wwdc24 gemacht hat, erfüllt wurden.

doch wenn nutzer es nutzen wollen, gibt es sehr strenge voraussetzungen: das verwendete gerät muss das nachfolgemodell von iphone 15 pro, iphone 15 pro max oder dem ipad und mac nach dem m1-chip sein. außerdem muss die sprache von siri und dem gerät auf englisch (usa) eingestellt sein.

hinweis: auf der offiziellen website von apple werden die hardware- und systembedingungen für die nutzung der smart-geräte von apple bekannt gegeben

die diesjährige herbstkonferenz zur einführung neuer produkte,

worauf freuen sie sich am meisten?

der prototyp von apple intelligence ist entstanden, aber es wird noch lange dauern, bis alle apple-nutzer ihn nutzen können.

wenn ihr produkt die von apple genannten hardware-, sprach- und regionsanforderungen erfüllt, können sie sich im herbst zum ersten mal mit apple intelligence treffen.natürlich kann es sein, dass die einführung des neuen produkts nicht im september erfolgt. laut ausländischen medienberichten sollte es im oktober sein.

neben apple intelligence dürfen wir uns bei der herbst-neuheitsvorstellung auch auf den im iphone 16 verbauten a18-chip freuen.

den aktuell veröffentlichten nachrichten zufolgeapple wird für den a18-chip den gleichen tsmc n3e-prozess wie beim m4 verwendenim vergleich zum n3b-prozess, der beim letztjährigen a17 pro zum einsatz kam, bietet n3e größere vorteile bei der verbesserung der energieeffizienz.

was ist der n3e-prozess?

dies entspricht einer internen aufrüstung des mobiltelefonchips. obwohl sich die größe des hauses (grundeinheit) nicht geändert hat, wurden die straßen (stromkreis) und einrichtungen (transistoren) neu gestaltet, um den gesamten bereich (chip) besser laufen zu lassen effizient. dies bedeutet, dass der stadtverkehr reibungsloser wird und die bewohner weniger strom verbrauchen. daher kann der a18-chip, der dieses verfahren verwendet, benutzern das gefühl geben, dass das mobiltelefon schneller reagiert, der akku länger hält und mehrere aufgaben gleichzeitig reibungsloser erledigt werden können.

es wird gemunkelt, dass die npu des a18 soc erheblich verbessert wird und die gesamtrechenleistung höher sein wird als die 38tops des m4.

damit ist die npu-rechenleistung des kommenden iphone 16 bereits mit den besten desktop-systemen von apple vergleichbar. um die speicherschwelle von apple intelligence zu bewältigen, wird das iphone 16 erstmals auch den laufenden speicher des körpers auf 8 gb erhöhen.

vom speicher über den stromverbrauch bis hin zur rechenleistung scheint es für apple intelligence konzipiert zu sein.

der letztes jahr von apple auf den markt gebrachte a17 pro verfügt über eine npu-rechenleistung von 35 tops, der a18 wird nur noch höher sein.

offensichtlich werden ab september dieses jahres alle zukünftigen von apple auf den markt gebrachten hardwareprodukte apple intelligence aktiv nutzen.

nicht nur auf iphone, mac und ipad beschränkt, sondern auch produkte wie apple watch, homepod und vision pro könnten in zukunft teil der ki-strategie von apple werden.

auf der wwdc24 demonstrierte apples senior vice president craig ein schnelles und relevantes nutzungsszenario von apple ai: eine vorübergehende benachrichtigung über die änderung der besprechungszeit ging ein und siri wurde gefragt, ob er die aktivitäten der kinder, an denen er ursprünglich teilnehmen wollte, noch nachholen könne.

er sprach weiter mit siri und die mobile app wechselte reibungslos zwischen mehreren apps wie e-mail, kalender und karten. am ende machte ihm sein telefon, ohne einen finger zu rühren, einen vernünftigen vorschlag.

dies könnte der idealzustand von ki-endgeräten der zukunft sein: mit nur einem befehl kann es automatisch die benötigte app aufrufen und die gewünschte aufgabe erledigen.

in dieser demonstrationsszene sehen wir, dass die von siri aufgerufenen apps allesamt offizielle apple-apps sind. mit anderen worten: es mobilisiert seine „familienmitglieder“, zusammenzuarbeiten, um etwas zu tun. in diesem fall stellt das system, die architektur, die schnittstelle, alles kein problem dar und es gibt keine probleme wie die verteilung von vorteilen.

um es etwas fantasievoller auszudrücken: vielleicht braucht siri in zukunft keine befehlswörter mehr, sondern wartet immer im hintergrund auf gespräche und kann sich sogar einmischen, wenn menschen kommunizieren, genau wie ein echter freund.

apple-intelligenz

können wir weiterhin der ökologische könig sein?

apple nutzte die methode des geringsten widerstands, um die ideale zukünftige ki-interaktionsmethode für mobiltelefone zu demonstrieren. aber wenn es sich nicht um ihre eigene app handelt, können sie die daten innerhalb der app trotzdem frei mobilisieren?

auf der offiziellen einführungsseite von apple intelligence steht dieser satz: „wenn sie standard-ui-frameworks, apis und entwicklungskits verwenden, können sie ganz einfach dafür sorgen, dass die von ihnen entwickelten apps auch über diese ki-funktionen verfügen.“

entwickler können im wwdc24-workshop sogar sehen, dass sie mit nur drei oder vier zeilen code ki-funktionen in ihre apps integrieren können.

hier gibt es zwei informationen: anwendungen von drittanbietern sind herzlich willkommen, sich ai anzuschließen, und apple wird alle kits und tools vorbereiten, damit entwickler apple intelligence auf einfachste weise nutzen können. dies ist in der tat eine köstliche „vorspeise“.

wenn sie jedoch auf apple intelligence zugreifen möchten, müssen apps ihre „daten“ abgeben und ein kleines mitglied des apple-ökosystems werden. ist das wirklich so einfach?

für apple sind die technischen durchbrüche am anfang des artikels die einfachsten probleme, während die ökologischen schwierigkeiten der große berg vor apple sind.

wenn die interaktion auf dem mobiltelefon wirklich so ist, wie craig es gezeigt hat, wird apple der „könig“ mit dem einzigen zugang sein, und siri wird die einzige „sehr mächtige“ person um den könig herum sein, die dafür verantwortlich ist, zu entscheiden, welche app der „könig“ ist. möchte auf den benutzer zugreifen. möchten sie nicht nur „ihre eigene familie“ kennenlernen?

in diesem fall wird apple zur welt aller arten von super-apps.

wer entscheidet über die verteilung der leistungen? werden die geschäftsmodelle, die einst durch super-apps etabliert wurden, bereit sein, über nacht durch ki ausgelöscht zu werden? diese fragen warten immer noch darauf, dass wir darüber nachdenken.

schreibe am ende

siri trägt den romantischen traum von jobs in sich. als er seinen kontakt mit jobs beschrieb, sagte dag kittlaus, einer der gründer der siri company, dass er und jobs zu hause „drei stunden lang geplaudert“ hätten. jobs war voller visionen für die zukunft der künstlichen intelligenz. er überzeugte die gründer von siri, dass „siri irgendwann seine spuren im universum hinterlassen wird.“

bildunterschrift: dag kittlaus, einer der gründer von siri

doch am tag nach der freilassung von siri verstarb jobs und hinterließ diesen ki-traum und siri, die „viele jahre lang umhergewandert“ war.

heute nutzt cook apple intelligence, um siri wieder ins rampenlicht zu rücken, aber der traum könnte ein anderer sein.

das heutige apple ist voller realismus – die aufrechterhaltung der technologischen führung, eine effektive verteidigung, die vermeidung von druck auf den aktienkurs und das warten, bis die superanwendungen im ki-zeitalter gestalt annehmen, bevor man darüber nachdenkt, ob maßnahmen ergriffen werden sollen.

doch während sich alle auf ki-telefone und aipcs freuen, gibt es möglicherweise noch überraschendere ki-native hardwareprodukte, die die geschichte völlig neu schreiben.

referenzen:

einführung in die on-device- und server-foundation-modelle von apple – apple machine learning research

apple intelligence – apple-entwickler

wir stellen vor: apple intelligence für iphone, ipad und mac - apple

blog – private cloud compute: eine neue grenze für ki-datenschutz in der cloud – apple security research

https://mrmad.com.tw/ios-18-new-function