Visuelle Intelligenz für das iPhone 15 Pro: Apple aktiviert KI-Funktion auch ohne iPhone 16

Kevin Kyburz
7. April 2025
Share:

Apple hat überraschend das KI-Feature Visuelle Intelligenz freigeschaltet – und zwar nicht nur für das kommende iPhone 16, sondern ab sofort auch für das iPhone 15 Pro und iPhone 15 Pro Max. Mit iOS 17.4 (und insbesondere iOS 17.4.1) ist die Funktion nun aktiv – wenn auch zunächst in eingeschränkter Form. Sie erlaubt es, Inhalte auf dem Display zu erkennen und kontextbezogene Aktionen vorzuschlagen – ganz ohne Siri-Befehl oder App-Wechsel.

Die Aktivierung dieses Features markiert einen weiteren Schritt in Apples langfristiger Strategie, KI direkt auf dem Gerät (on-device AI) verfügbar zu machen – unter Wahrung der Privatsphäre. Wir fassen für dich zusammen, was „Visuelle Intelligenz“ leistet, wie du sie nutzt und wo sie (noch) ihre Grenzen hat.

Was genau macht die „Visuelle Intelligenz“?

Mit „Visuelle Intelligenz“ führt Apple eine Funktion ein, die du vielleicht schon von Google Lens oder Samsung Bixby kennst: Dein iPhone erkennt Inhalte auf dem Bildschirm und schlägt passende Aktionen vor – etwa:

  • Texte erkennen und kopieren
  • Adressen öffnen (z. B. direkt in Apple Maps)
  • Zahlen wählen oder Texte übersetzen
  • Weblinks identifizieren und im Browser öffnen

Das Ganze funktioniert kontextabhängig – du hältst den Finger auf einen Inhalt (z. B. eine Adresse in einer Chat-App), und das System erkennt, worum es sich handelt. Ein kleines Menü bietet dir daraufhin passende Optionen an.

Auf welchen Geräten ist das Feature aktiv?

Die Funktion ist exklusiv für Geräte mit dem Apple A17 Pro-Chip, also:

  • iPhone 15 Pro
  • iPhone 15 Pro Max

Auf älteren Geräten mit A16 oder älter ist die visuelle Intelligenz derzeit nicht verfügbar, auch wenn die Basisfunktionen wie Texterkennung (Live Text) oder visuelle Suche bereits seit iOS 15 bzw. 16 möglich sind. Apple setzt für die neue Funktion offenbar auf die Neural Engine des A17, die besonders für maschinelles Lernen und KI-Prozesse optimiert ist.

So nutzt du die visuelle Intelligenz

Du brauchst keine App und keine besondere Einstellung – die Funktion ist automatisch aktiv, sobald du iOS 17.4 oder neuer installiert hast. So geht’s:

  1. Öffne eine App mit angezeigtem Inhalt (z. B. Nachrichten-App mit Adresse oder Telefonnummer).
  2. Halte den Finger länger gedrückt auf das relevante Element.
  3. Warte, bis das kontextbezogene Menü erscheint.
  4. Wähle eine vorgeschlagene Aktion, z. B. Route berechnen, Nummer wählen, Text übersetzen.

Die Funktion ist besonders nützlich in Kombination mit Screenshots, PDFs oder Bildern, in denen Text enthalten ist. Auch QR-Codes, Seriennummern oder Produktinfos werden teilweise erkannt – allerdings ist der Funktionsumfang noch nicht mit Google Lens vergleichbar.

Was kann das Feature (noch) nicht?

  • Keine Multielement-Erkennung (z. B. Text + Bild gleichzeitig)
  • Keine OCR von Handschrift (anders als Live Text)
  • Keine Bildsuche per Kamera in Echtzeit
  • Kein Zugriff auf Web-KI-Dienste

Die visuelle Intelligenz von Apple ist aktuell noch sehr basic. Sie arbeitet ausschliesslich lokal auf dem Gerät – was gut für deine Daten ist, aber auch bedeutet, dass der Funktionsumfang begrenzt ist. Für erweiterte Bildanalyse oder KI-Vorschläge musst du weiterhin auf Apps wie Google Lens oder Drittanbieter zurückgreifen.

Warum Apple diesen Schritt geht

Apple setzt zunehmend auf Private AI – also künstliche Intelligenz, die direkt auf dem Gerät läuft, ohne Cloud. Damit unterscheidet sich Apple bewusst von Google oder Samsung, deren Lösungen stark auf serverbasierte Verarbeitung setzen.

Die visuelle Intelligenz ist ein Vorgeschmack auf das, was mit iOS 18 und dem iPhone 16 vermutlich kommen wird: eine tiefere Integration von KI in den Alltag – vom Homescreen bis zur Kamera.

Fazit: Nützlich, aber noch ausbaufähig

Die visuelle Intelligenz auf dem iPhone 15 Pro ist ein erster, sinnvoller Schritt Richtung smarter Interaktion – ähnlich wie „Live Text“, aber kontextsensitiver und handlungsorientierter. Wer regelmässig mit Screenshots, Kontakten oder Chat-Texten arbeitet, wird das Feature zu schätzen wissen.

Noch ist es eher ein Quality-of-Life-Upgrade als ein echtes Gamechanger-Feature. Aber es zeigt: Apple bereitet sich klar darauf vor, KI in den Alltag zu integrieren – dezent, lokal und datenschutzkonform.

Was hältst du von Apples KI-Funktionen?

Reicht dir die visuelle Intelligenz aus – oder wünschst du dir mehr? Schreib’s gerne in die Kommentare!

Written by
Kevin Kyburz

Geschrieben von Kevin Kyburz

Kevin Kyburz ist seit einem Jahrzehnt als Blogger unterwegs und darf seine Meinung zu aktuellen Tech-Themen auch mal im Radio oder in Tageszeitungen unterbringen. Als ehemaliger Kolumnist für eine grosse Pendlerzeitung hat er ein Gespür für technische Fragen von Lesern entwickelt und versucht diese so gut wie möglich zu klären. Wenn er nicht gerade mit Technik beschäftigt ist, widmet er sich der Natur und der Fotografie.

Alle Beiträge vom Autor

Newsletter

Abonniere unseren Newsletter und bleibe über die neuesten Nachrichten auf dem Laufenden.

Subscription Form
techgarage-logo-2-white

Die «Techgarage» ist das grösste unabhängige Tech-News Magazin der Schweiz.

Im App Store laden
Socials
Advertise With Us
Jeden Monat besuchen uns über eine Million Unique Users, welche im Schnitt über 2,5 Minuten auf unserer Seite bleiben.
Copyright © 2010 - 2025 Techgarage.