Laut Daring Fireball gibt es gute Neuigkeiten für iPhone 15 Pro Benutzer: Apples „Visuelle Intelligenz“-Funktion wird auf den Pro-Modellen der 2023er Serie verfügbar sein. Das bedeutet einen Grund weniger, auf die iPhone 16 Serie zu upgraden.

Die Visuelle Intelligenz ähnelt Googles Google Lens und ist Teil von Apples „Apple Intelligence“ KI-Funktionspaket. Benutzer können die Kamera auf ein Objekt richten und es mithilfe von KI in Echtzeit analysieren lassen. Sie kann einige Aufgaben selbstständig erledigen, aber noch mehr nützliche Informationen erhält man über Bildschirm-Shortcuts – ChatGPT oder die Google Bildersuche.

QQ20250221-151158.png

iPhone 16 und iPhone 16 Pro Benutzer können die Visuelle Intelligenz durch langes Drücken des dedizierten Auslösers aktivieren. Da die iPhone 15 Pro und Pro Max sowie das kürzlich erschienene iPhone 16e (die ebenfalls diese Funktion unterstützen) keinen physischen Auslöser haben, müssen diese drei Modelle die Funktion dem „Aktion“-Button zuweisen oder die „Kontrollzentrum“-Verknüpfung verwenden (wird in einem kommenden Software-Update verfügbar sein).

Cherlynn Low von Engadget erklärt beispielsweise: Man findet im Kleiderschrank ein Handtuch mit einem einzigartigen Muster und möchte mehr davon kaufen, hat aber den Kaufort vergessen. Dann kann man die Visuelle Intelligenz aktivieren, den Google-Such-Shortcut auswählen und sehen, ob das gewünschte Produkt in den Suchergebnissen erscheint. Oder man kann ChatGPT fragen, um Informationen über das Produkt und wo man es bestellen kann, zu erhalten.

QQ20250221-151207.png

Die Visuelle Intelligenz funktioniert auch ohne die Hilfe von Google oder OpenAI. Benutzer können mit Text interagieren, übersetzen, vorlesen und zusammenfassen lassen. Oder Informationen über ein Geschäft einsehen, auf das das Telefon gerichtet ist: Öffnungszeiten, Speisekarte, Dienstleistungen oder direkt Produkte kaufen.

Apple hat noch nicht bekannt gegeben, mit welcher iOS-Version die Apple Intelligence visuelle Suchfunktion für die iPhone 15 Pro Serie erscheinen wird. Aber John Gruber von Daring Fireball vermutet, dass die Funktion in iOS 18.4 erscheinen wird und möglicherweise „jederzeit“ in der Beta-Version verfügbar sein könnte.

Daher können iPhone 15 Pro und Pro Max Benutzer diese praktische Funktion voraussichtlich bald nutzen. Für Benutzer, die bereit sind, Beta-Software zu testen, könnte es sogar noch früher sein.