AirPods mit Kameras für visuelle Intelligenz: Apples Revolution in Sachen persönliche Sicherheit?
Darum könnte es eine tolle Sache sein, wenn Apple Kameras in AirPods einbaut
Zusammenfassung:
- Berichten zufolge arbeitet Apple weiterhin daran, Kameras in die AirPods zu integrieren.
- Die visuelle Intelligenz von iOS 18 steht im Mittelpunkt der Pläne von Apple.
- Die Funktionen sind noch „Generationen entfernt“.
Das „Was“ kennen wir schon seit einiger Zeit – Apple experimentiert mit der Integration von Kameras in AirPods – und jetzt wissen wir vielleicht auch das „Warum“. Ein neuer Bericht gibt Aufschluss über Apples Pläne für zukünftige AirPods. Wenn die Technologie hält, was sie verspricht, könnte sie ein wirklich wichtiges persönliches Sicherheitsmerkmal sein. Apple entwickelt AirPods mit integrierten Kameras, wodurch sie zu intelligenteren und leistungsfähigeren Geräten werden.
Allerdings gibt es einen wichtigen Vorbehalt: Es wird noch „mindestens Generationen dauern, bis diese Funktionen auf den Markt kommen“.
Der Bericht stammt vom gut vernetzten Mark Gorman bei Bloomberg, der sagt, dass „Apples ultimativer Plan für visuelle Intelligenz weit über das iPhone hinausgeht.“ Und AirPods sind ein großer Teil dieses Plans. Leaks deuten darauf hin, dass das Unternehmen daran arbeitet, Kameras in AirPods zu integrieren, um die persönliche Sicherheit zu verbessern.
Laut Gorman ist visuelle Intelligenz – das Erkennen der Welt um einen herum und das Bereitstellen nützlicher Informationen oder Hilfe – bei Apple sehr wichtig, und das Unternehmen plant, sowohl die Apple Watch als auch die Apple Watch Ultra mit Kameras auszustatten. Wie bei den AirPods „wird es dem Gerät helfen, die Außenwelt zu sehen und mithilfe künstlicher Intelligenz relevante Informationen bereitzustellen.“ Berichten zufolge erwägt Apple außerdem, seine Smartwatches mit Kameras auszustatten, um deren visuelle Intelligenzfähigkeiten zu verbessern.
Wie funktionieren AirPods mit Visual Intelligence?
Mit der in iOS 18 für das iPhone 16 eingeführten Visual Intelligence können Sie Ihre Kamera auf etwas richten und mehr darüber erfahren: die Pflanzenart, die Hunderasse (wie oben in diesem Artikel abgebildet), die Öffnungszeiten des Cafés, das Sie gerade gefunden haben usw. Diese Technologie wird auch als „visuelle Intelligenz“ bezeichnet und ist eine der wichtigsten Funktionen des Updates.
Visuelle Intelligenz kann auch Texte übersetzen und eines Tages vielleicht Menschen mit schlechtem Gedächtnis für Namen und Gesichter helfen. Diese Technologie könnte vielen Menschen den Alltag erleichtern.
Das große Problem bei Visual Intelligence besteht jedoch darin, dass Sie Ihr Telefon herausnehmen müssen, um es zu verwenden. Es gibt Umstände, unter denen Sie das nicht tun möchten. Ich erinnere mich noch daran, wie Apple Maps auf der Apple Watch verfügbar machte: Die Möglichkeit, Maps zu nutzen, ohne allen in der Nachbarschaft anzuzeigen: „Ich bin nicht von hier und habe mich völlig verlaufen. Außerdem habe ich ein teures Telefon.“ Das war eine wichtige Funktion für die persönliche Sicherheit.
Das könnte es auch sein. Wenn Apple es möglich machen würde, Visual Intelligence durch ein Kopfnicken und Tippen auf die AirPods-Stiele aufzurufen, könnten Sie wichtige Informationen abrufen – beispielsweise ein Wegweiser in einem anderen Land übersetzen – ohne mit dem Telefon herumzuwedeln.
Von diesen Funktionen ist es noch weit entfernt – erwarten Sie sie nicht in den AirPods Pro 3, die wahrscheinlich erst später im Jahr 2025 auf den Markt kommen. Aber ich bin begeistert von der Aussicht: Stellen Sie sich Apple Intelligence vor, nur besser.
Kommentare sind geschlossen.