Apple macht mal wieder das, was sie am besten können:
Eine Funktion einführen, bei der man sich fragt: Warum gab’s das nicht schon längst?
Mit iOS 26 kommt ein Feature, das vor allem im Alltag nervige Lücken schließt:
- Das iPhone übernimmt für dich das Warteschleifen-Dilemma.
- Es nimmt Anrufe entgegen, sagt freundlich Hallo, fragt, worum’s geht – und transkribiert das Gesagte live auf deinem Screen.
- Es sagt sogar: „Bitte warten Sie kurz, ich hole Alex ans Telefon.“
Was klingt wie ein Sci-Fi-Feature von 2028, ist in den USA ab Herbst 2025 Realität.
Aber: Nicht in Europa.
Was ist das Problem?
Ganz einfach: Der EU AI Act.
Genauer gesagt: Artikel 5 Absatz 1 in Kombination mit Artikel 6 und der Kategorisierung sogenannter „High-Risk AI“.
In Europa ist ein KI-System, das vollautomatisch mit Menschen kommuniziert, ohne dass klar ist, dass es eine KI ist, erst einmal ein Fall für die juristische Lupe. Transparenzpflichten, Kennzeichnung, Datenschutzregeln – alles berechtigt. Aber auch alles sehr komplex.
Und Apple will sich da offenbar (noch) nicht die Finger verbrennen.
Ein Feature mit Potenzial – und einem Haken
Wenn dein iPhone einen Anruf entgegennimmt und für dich spricht, ist das im Kern ein autonomer Dialog mit einem Menschen. Klingt harmlos, ist regulatorisch aber heiß. Denn:
- Die Person am anderen Ende weiß nicht sofort, dass sie mit einer KI spricht.
- Das iPhone analysiert Sprache, macht daraus Text, interpretiert Inhalte – und das in Echtzeit.
- In der EU gilt das bereits als fortgeschrittenes Sprachmodell mit sozialen Interaktionsfunktionen – und damit potenziell „hochriskant“.
Ironischerweise ist genau diese Vorsicht Teil des europäischen Wegs in der KI-Politik: erst regulieren, dann launchen. Nicht umgekehrt. Aus Sicht des Verbraucherschutzes sinnvoll. Aus Sicht der Innovation: ausbaufähig.
USA first. EU später?
Ja, leider.
Apple bringt das Feature vorerst nur in den USA. Dort können iPhone-Nutzer:
- sich automatisch zurückrufen lassen, wenn sie in der Warteschleife hängen,
- Anrufe von Unbekannten durch das System beantworten lassen,
- sehen, was gesagt wird, bevor sie sich entscheiden, das Gespräch anzunehmen.
In der EU ist das nicht mal in der Beta sichtbar.
Apple selbst kommuniziert das elegant wie eh und je:
„Dieses Feature ist nur in bestimmten Regionen verfügbar.“
Und was bedeutet das konkret?
Es zeigt uns ein Muster, das sich gerade häuft:
KI wird nicht mehr durch Technik gebremst, sondern durch Gesetze.
Das ist in vielen Fällen gut – aber manchmal auch hinderlich.
Denn:
- KI kann helfen, Menschen zu entlasten.
- Gerade bei Barrierefreiheit, Stressreduktion oder Sicherheit.
- Und Call Screening ist eben kein Spielzeug, sondern ein Feature mit echtem Nutzen.
Aber genau dort beißen sich Nutzen und Regulierung gerade in Europa regelmäßig.
Ist der EU AI Act schuld?
Jein.
Der AI Act ist der weltweit erste ernstzunehmende Rechtsrahmen für KI. Und das ist ein starkes Signal.
Nur: Die Einstufung von KI-Funktionen ist oft nicht eindeutig, sondern abhängig vom Kontext, vom Anbieter, vom Einsatz. Das heißt im Klartext:
Apple müsste für Europa einen eigenen rechtssicheren Rahmen schaffen.
Und dafür fehlt aktuell anscheinend der Wille – oder das Risiko scheint zu hoch.
Ein Blick zurück: Damals, als Siri noch neu war
Wir erinnern uns an die Anfänge von Siri. Sprachsteuerung war spannend – aber oft unbrauchbar.
Heute? Siri wird jetzt selbst zum KI-Kopf – mit Apple Intelligence, ChatGPT-Integration und smarterem Kontext.
Aber: Auch diese Features starten nicht überall gleichzeitig.
Apple testet vorsichtig. Vor allem in Europa.
Das ist kein Zufall, sondern Kalkül.
Was lernen wir daraus?
- KI ist nicht gleich KI.
- Der Ort, an dem du wohnst, bestimmt, welche Funktionen du bekommst.
- Technische Innovation läuft schneller als ihre Regulierung.
- Und: Unternehmen gehen lieber auf Nummer sicher, bevor sie gegen EU-Recht verstoßen.
Zwischen Fortschritt und Vorschrift
iOS 26 zeigt: Apple kann KI, wenn sie wollen. Ja, es ginge besser. Aber es geht.
Aber Europa muss aufpassen, nicht wieder Zuschauer statt Mitgestalter zu werden.
Es ist wichtig, dass Transparenz, Datenschutz und ethische Standards eingehalten werden – keine Frage.
Aber genauso wichtig ist, dass Menschen in Europa nicht dauerhaft auf praktische Features verzichten müssen, nur weil die Regulierungslandschaft nicht Schritt hält.
Vielleicht wäre es Zeit für eine neue Kategorie im AI Act:
„Low-risk, high-usefulness.“
Denn das iPhone, das meine Anrufe für mich entgegennimmt, macht mein Leben nicht gefährlicher, sondern entspannter.


