nachricht

die suchpartnerschaft von apple und google nimmt eine neue wendung! die kamera des iphone 16 ruft die google-suche direkt auf

2024-09-11

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

als apple auf der pressekonferenz am montag die funktion „visual intelligence“ ankündigte, gehen analysten davon aus, dass apples suchpartnerschaft mit google einen neuen wandel durchläuft.

derzeit zahlt die google-muttergesellschaft alphabet apple jährlich etwa 20 milliarden us-dollar, um google zur standardsuchmaschine für seinen safari-browser zu machen. allerdings wurde dieser schritt von einem us-gericht als verstoß gegen us-kartellgesetze eingestuft. dieser fall ist der größte kartellrechtsfall in den vereinigten staaten seit mehr als zwei jahrzehnten und könnte die jahrzehntelange dominanz von google auf dem suchmaschinenmarkt untergraben. was apple betrifft, hieß es in einem früheren artikel des wall street journal, dass ohne diese einnahmen etwa 15 % des vorsteuergewinns von apple beeinträchtigt würden.

doch nun scheint es, dass apple seine zusammenarbeit mit google mit den neuen features „aufrüsten“ kann: nutzer des iphone 16 können mit einem klick über die neue kamerasteuerungstaste (capture button) auf die google-suchmaschine und deren visuelle suchfunktion zugreifen das gerät.

apple erklärt, dass die kamerasteuerung es benutzern nicht nur ermöglicht, schnell ein foto oder ein video aufzunehmen, sondern auch optionen wie zoom, belichtung oder schärfentiefe durch verschieben der taste anzupassen.

allerdings bietet die schaltfläche auch zugriff auf apples neue „visual intelligence“-suchfunktionen, die für die partnerschaft mit google von entscheidender bedeutung sind.

anfangs sah diese kamerasteuerungstaste wie apples neue art aus, den „auslöser“ zu nennen, aber im laufe der veranstaltung erläuterte apple weitere verwendungsmöglichkeiten für diese hardwarefunktion. mit der visual intelligence search können benutzer nicht nur leichter verstehen, was die kamera sieht, sondern auch einfacher auf dienste von drittanbietern zugreifen, ohne eine eigenständige app starten zu müssen.

einige medienanalysten glauben, dass diese funktion im wesentlichen dem google lens oder pinterest lens ähnelt. apple beschreibt die visuelle intelligente suche als eine möglichkeit, sofort zu verstehen, was sie sehen.in mehreren beispielen demonstrierte apple, wie benutzer auf die kamerasteuerungstaste tippen können, um informationen über die öffnungszeiten eines restaurants in der stadt zu erhalten, oder wie sie diese funktion nutzen können, um die hunderasse zu identifizieren, die sie bei einem spaziergang gesehen haben. diese funktion wandelt auch veranstaltungsplakate an der wand in einen persönlichen zeitplan mit allen details um.

craig federighi, senior vice president software engineering bei apple, erwähnte später, dass die funktion auch für den zugriff auf die google-suche genutzt werden könne. die demonstration zeigte, dass, wenn der benutzer das iphone auf ein fahrrad richtet und auf die kamerasteuerungstaste klickt, ein kaufinformationsfenster mit ähnlichen optionen auf dem bildschirm angezeigt wird. anschließend erscheint auf dem bildschirm die schaltfläche „weitere google-ergebnisse“, die darauf hinweist, dass nutzer ihre google-suche durch erneutes klicken fortsetzen können.

allerdings hat apple nicht erklärt, wann und wie das klicken auf die kamerasteuerungstaste dazu führt, dass ein drittanbieter statt eines integrierten apple-dienstes die antwort liefert, und es wurde auch nicht detailliert beschrieben, wie benutzer diese funktion steuern oder konfigurieren können. federighi erwähnte nur vage: „natürlich hat man immer die kontrolle darüber, wann man tools von drittanbietern nutzt.“

während ein google-sprecher sagte, es gäbe zum jetzigen zeitpunkt keine weiteren informationen zu teilen, geht man davon aus, dass die funktion teil der bestehenden partnerschaft der beiden unternehmen ist und nichts mit googles gemini ai zu tun hat.

analysten glauben, dass das interessante an dieser funktion darin besteht, dass sie ein neues modell für die interaktion mit software und diensten einführt, das über die dienste hinausgeht, die mit dem iphone von apple geliefert werden. mit der weiterentwicklung der technologie der künstlichen intelligenz können benutzer über neue schnittstellen mit ki-assistenten sprechen oder texte senden, anstatt sich bei der erledigung von aufgaben auf app-store-apps zu verlassen. durch die partnerschaft mit drittanbieterdiensten bleibt apple eng mit neuen technologien verbunden und vermeidet gleichzeitig die direkte konkurrenz mit ki-tools wie chatgpt.

auf der pressekonferenz demonstrierte chatgpt von openai auch seine funktionalität als drittpartner und benutzer können über siri auf chatgpt zugreifen. wie in der demo gezeigt, können benutzer ihr telefon einfach auf kursnotizen richten und auf eine schaltfläche klicken, um hilfe zu einem konzept oder einer frage zu erhalten.