---
title: "Visuelle Intelligenz für das iPhone 15 Pro: Apple aktiviert KI-Funktion auch ohne iPhone 16"
date: 2025-04-07
author: "Kevin Kyburz"
featured_image: "https://techgarage.blog/wp-content/uploads/2025/04/Apple-Visual-Intelligence.jpg"
categories:
  - name: "News"
    url: "/news.md"
---

# Visuelle Intelligenz für das iPhone 15 Pro: Apple aktiviert KI-Funktion auch ohne iPhone 16

Apple hat überraschend das KI-Feature **„[Visuelle Intelligenz](https://www.apple.com/chde/apple-intelligence/)“** freigeschaltet – und zwar nicht nur für das kommende iPhone 16, sondern ab sofort auch für das **iPhone 15 Pro** und **iPhone 15 Pro Max**. Mit iOS 17.4 (und insbesondere iOS 17.4.1) ist die Funktion nun aktiv – wenn auch zunächst in eingeschränkter Form. Sie erlaubt es, Inhalte auf dem Display zu erkennen und kontextbezogene Aktionen vorzuschlagen – ganz ohne Siri-Befehl oder App-Wechsel.

Die Aktivierung dieses Features markiert einen weiteren Schritt in Apples langfristiger Strategie, **KI direkt auf dem Gerät (on-device AI)** verfügbar zu machen – unter Wahrung der Privatsphäre. Wir fassen für dich zusammen, was „Visuelle Intelligenz“ leistet, wie du sie nutzt und wo sie (noch) ihre Grenzen hat.

## Was genau macht die „Visuelle Intelligenz“?

Mit „Visuelle Intelligenz“ führt Apple eine Funktion ein, die du vielleicht schon von [Google](https://techgarage.blog/companies/google/ "Google") Lens oder Samsung Bixby kennst: Dein iPhone erkennt Inhalte auf dem Bildschirm und schlägt passende Aktionen vor – etwa:

- **Texte erkennen und kopieren**
- **Adressen öffnen** (z.B. direkt in [Apple](https://techgarage.blog/companies/apple/ "Apple") Maps)
- **Zahlen wählen** oder **Texte übersetzen**
- **Weblinks identifizieren** und im Browser öffnen

Das Ganze funktioniert kontextabhängig – du hältst den Finger auf einen Inhalt (z.B. eine Adresse in einer Chat-App), und das System erkennt, worum es sich handelt. Ein kleines Menü bietet dir daraufhin passende Optionen an.

## Auf welchen Geräten ist das Feature aktiv?

Die Funktion ist exklusiv für Geräte mit dem **Apple A17 Pro-Chip**, also:

- **iPhone 15 Pro**
- **iPhone 15 Pro Max**

Auf älteren Geräten mit A16 oder älter ist die visuelle Intelligenz derzeit **nicht verfügbar**, auch wenn die Basisfunktionen wie Texterkennung (Live Text) oder visuelle Suche bereits seit iOS 15 bzw. 16 möglich sind. Apple setzt für die neue Funktion offenbar auf die **Neural Engine des A17**, die besonders für maschinelles Lernen und KI-Prozesse optimiert ist.

## So nutzt du die visuelle Intelligenz

Du brauchst keine App und keine besondere Einstellung – die Funktion ist **automatisch aktiv**, sobald du iOS 17.4 oder neuer installiert hast. So geht’s:

1. **Öffne eine App** mit angezeigtem Inhalt (z.B. Nachrichten-App mit Adresse oder Telefonnummer).
2. **Halte den Finger länger gedrückt** auf das relevante Element.
3. Warte, bis das kontextbezogene Menü erscheint.
4. **Wähle eine vorgeschlagene Aktion**, z.B. Route berechnen, Nummer wählen, Text übersetzen.

Die Funktion ist besonders nützlich in Kombination mit **Screenshots, PDFs oder Bildern**, in denen Text enthalten ist. Auch QR-Codes, Seriennummern oder Produktinfos werden teilweise erkannt – allerdings ist der Funktionsumfang noch nicht mit Google Lens vergleichbar.

## Was kann das Feature (noch) nicht?

- Keine **Multielement-Erkennung** (z.B. Text + Bild gleichzeitig)
- Keine **OCR von Handschrift** (anders als Live Text)
- Keine **Bildsuche per Kamera in Echtzeit**
- Kein Zugriff auf **Web-KI-Dienste**

Die visuelle Intelligenz von Apple ist aktuell noch sehr **basic**. Sie arbeitet ausschliesslich lokal auf dem Gerät – was gut für deine Daten ist, aber auch bedeutet, dass der Funktionsumfang begrenzt ist. Für erweiterte Bildanalyse oder KI-Vorschläge musst du weiterhin auf Apps wie **Google Lens** oder Drittanbieter zurückgreifen.

## Warum Apple diesen Schritt geht

Apple setzt zunehmend auf **Private AI** – also künstliche Intelligenz, die direkt auf dem Gerät läuft, ohne Cloud. Damit unterscheidet sich Apple bewusst von Google oder [Samsung](https://techgarage.blog/companies/samsung/ "Samsung"), deren Lösungen stark auf serverbasierte Verarbeitung setzen.

Die visuelle Intelligenz ist ein Vorgeschmack auf das, was mit **iOS 18 und dem iPhone 16** vermutlich kommen wird: eine tiefere Integration von KI in den Alltag – vom Homescreen bis zur Kamera.

## Fazit: Nützlich, aber noch ausbaufähig

Die visuelle Intelligenz auf dem iPhone 15 Pro ist ein erster, sinnvoller Schritt Richtung smarter Interaktion – ähnlich wie „Live Text“, aber kontextsensitiver und handlungsorientierter. Wer regelmässig mit Screenshots, Kontakten oder Chat-Texten arbeitet, wird das Feature zu schätzen wissen.

Noch ist es eher ein **Quality-of-Life-Upgrade** als ein echtes Gamechanger-Feature. Aber es zeigt: Apple bereitet sich klar darauf vor, KI **in den Alltag zu integrieren – dezent, lokal und datenschutzkonform**.

**Was hältst du von Apples KI-Funktionen?**

Reicht dir die visuelle Intelligenz aus – oder wünschst du dir mehr? Schreib’s gerne in die Kommentare!