9 Minuten
Siri könnte endlich aufhören, wie ein Torwächter zu wirken — und stattdessen wie eine Vermittlungszentrale arbeiten.
Im vergangenen Jahr hatte Apples Sprachassistent nur einen einzigen Ausweg, wenn er an seine Grenzen stieß: die Anfrage an ChatGPT weiterzugeben. Das war der Deal, als Apple Intelligence 2024 eingeführt wurde. Nützlich, ja — aber einschränkend. Jetzt scheint diese Einschränkung zu verschwinden.
Berichten von Mark Gurman bei Bloomberg zufolge plant Apple mit iOS 27 eine Änderung, die still und heimlich die Art und Weise verändern könnte, wie Millionen von Nutzerinnen und Nutzern mit KI auf ihren Geräten interagieren. Statt alles über einen einzigen Partner zu leiten, könnte Siri den Anwendern künftig die Wahl lassen.
Die Änderung dreht sich um etwas, das Apple Berichten zufolge „Extensions“ nennt. Denk weniger an eine komplette Überholung, mehr an das Öffnen von Türen. Wenn Sie KI-Apps wie Google Gemini oder Anthropic’s Claude aus dem App Store installiert haben, sollen Sie diese in den Siri-Einstellungen aktivieren können. Von dort aus könnten Anfragen je nach Präferenz — oder vielleicht sogar je nach Aufgabe — weitergeleitet werden.
Benötigen Sie präzisere Antworten auf komplexe Fragen? Dann könnte Gemini einspringen. Brauchen Sie eine fein formulierte Textvorlage? Claude könnte übernehmen. Zahlen Sie bereits für ChatGPT? Dann bleiben Sie bei dem, was Sie kennen.
Apples leiser Richtungswechsel weg von Exklusivität
Das ist nicht nur eine kleine Funktionsanpassung. Es signalisiert das Ende von Apples einspuriger Herangehensweise an KI-Partnerschaften. Seit 2024 war OpenAI faktisch das einzige Drittanbieter-Modell, auf das Siri zurückgreifen konnte. Dieser Vorteil könnte bald verschwinden.
OpenAI wird nicht zwangsläufig ausgeschlossen — aber es wäre nicht mehr allein. In einem dicht gefüllten App Store mit sich schnell entwickelnden KI-Tools verändert das die Wettbewerbslandschaft über Nacht. Für Nutzerinnen und Nutzer bedeutet das mehr Auswahl, für Entwicklerinnen und Entwickler mehr Chancen, ihre Modelle direkt in ein Betriebssystem-Ökosystem einzubinden.
Es gibt auch einen unternehmerischen Aspekt, den man nicht ignorieren kann. Apple erhält einen Anteil an Abonnements, die über den App Store verkauft werden. Mehr KI-Apps, die um Aufmerksamkeit und monatliche Gebühren konkurrieren, könnten zu einem spürbaren Anstieg von Apples Services-Umsatz führen — ein wichtiger Wachstumsbereich für das Unternehmen.
Parallel dazu läuft offenbar ein separates Vorhaben hinter den Kulissen. Apple arbeite laut Berichten mit Google zusammen, um Gemini-Modelle tiefer in Siri selbst zu integrieren. Dabei geht es weniger um Schnittstellen als um den Wiederaufbau der Kernintelligenz des Assistenten. Die Extensions hingegen stehen für Flexibilität: Sie erlauben es Apps, einzuspringen, wenn spezielle Fähigkeiten gefragt sind — ähnlich wie Drittanbieter-Tastaturen oder Widgets heute funktionieren.
Wenn sich all das zusammenfügt, ist mit einer offiziellen Enthüllung auf der WWDC am 8. Juni zu rechnen.
Und vielleicht bekommen wir endlich eine Version von Siri, die nicht vorgibt, alle Antworten zu kennen — sondern genau weiß, wo sie die richtige Expertise findet.
Wie Extensions in Siri funktionieren könnten
Die Idee hinter Extensions ist simpel, aber wirkungsvoll: Siri bleibt die zentrale Schnittstelle für Spracheingabe und Gerätesteuerung, während spezialisierte KI-Modelle als optionale Backends fungieren. Technisch würde das bedeuten, dass Entwicklerinnen und Entwickler ihre KI-Services so anbieten, dass sie vom Betriebssystem erkannt und autorisiert werden — eine Form von Plug-in-Architektur für Sprachmodelle.
Erwartete Nutzerführung und Einstellungen
In den Siri-Einstellungen von iOS 27 dürfte es eine neue Kategorie geben, in der verfügbare Erweiterungen gelistet sind. Nutzerinnen und Nutzer könnten dort wählen, welche KI-Apps sie aktivieren wollen, Prioritäten setzen oder Regeln definieren, etwa bestimmte Aufgaben an ein bestimmtes Modell weiterzuleiten. Ein Beispiel: Navigation und Faktenabfragen könnten standardmäßig an ein Modell mit starkem Echtzeitwissen gehen, während kreative Schreibaufgaben an ein anderes weitergegeben werden.
Routing basierend auf Kontext oder Präferenz
Das Routing kann auf zwei Ebenen stattfinden: manuell und automatisch. Manuell bedeutet, dass die Person in den Einstellungen ein Default-Modell festlegt. Automatisch bedeutet, dass Siri anhand von Aufgabenart, Sprachkontext oder verfügbarem Systemwissen entscheidet, welches Modell den Auftrag übernimmt. Ein solches Kontext-Routing würde die User Experience verbessern, weil es die zugeordnete KI auf die Stärken der jeweiligen Aufgabe abstimmt.
Technische Umsetzung und Schnittstellen
Für Entwicklerinnen und Entwickler würde Apple vermutlich eine API oder ein SDK bereitstellen, das Sicherheitsrichtlinien, Bewertungsprozesse und Performance-Standards beinhaltet. Apps, die als Siri-Extensions fungieren wollen, müssten sich an diese Vorgaben halten — sowohl in technischer Hinsicht (Latenz, Verfügbarkeit) als auch in Bezug auf Datenschutz und Transparenz. Die Architektur dürfte so gestaltet sein, dass sensible Daten lokal verarbeitet oder verschlüsselt übertragen werden, je nach Modell und Anwendungsfall.
Integration mit Google Gemini und anderen Modellen
Die Berichte über eine verstärkte Zusammenarbeit zwischen Apple und Google deuten darauf hin, dass Gemini nicht nur als Extension verfügbar sein wird, sondern womöglich tiefer in Siri eingebettet wird. Diese Art von Zusammenarbeit würde Apples eigenen Assistenten durch zusätzliche Sprach- und Wissensfähigkeiten stärken.
Eine tiefere Integration könnte Vorteile bieten wie schnellere Antwortzeiten, optimierte Energieeffizienz auf iPhones und iPads sowie bessere Multimodalität (Text, Sprache, Bild). Für Google würde eine solche Partnerschaft den Zugang zu Millionen von Apple-Nutzern bedeuten — ein strategisch wertvoller Markt für KI-Anbieter.
Wettbewerb zwischen Anbietern
Wenn Gemini, Claude, ChatGPT und andere nebeneinander verfügbar sind, entsteht ein neuer Wettbewerb, der Innovation antreiben dürfte. Anbieter müssen sich durch bessere Antworten, niedrigere Latenzzeiten, spezialisierte Fähigkeiten oder Datenschutzoptionen differenzieren. Das könnte wiederum zu einer schnelleren Entwicklung spezialisierter Modelle führen: zum Beispiel juristische Beratung, medizinische Fragestellungen, kreative Textproduktion oder technische Programmierhilfe, jeweils optimiert für spezifische Aufgaben.
Auswirkungen für Entwickler und den App Store
Für App-Entwicklerinnen und -Entwickler eröffnet sich ein neuer Vertriebs- und Integrationskanal. Eine App, die als Siri-Extension zugelassen ist, wird sichtbarer und kann potenziell direkt in alltägliche Sprachinteraktionen eingebunden werden. Damit steigt die Bedeutung von Qualität, Performance und Vertrauen: Apple wird wohl strenge Richtlinien festlegen, um Missbrauch zu verhindern und Nutzersicherheit zu gewährleisten.
Gleichzeitig könnte Apples Anteil an Abonnements, die über den App Store verkauft werden, zunehmen. Entwicklerinnen und Entwickler müssen abwägen, ob sie ihre Geschäftsmodelle anpassen wollen — etwa durch Abonnements, In-App-Käufe oder hybride Modelle — um in diesem neuen Ökosystem rentabel zu sein.
Neue Monetarisierungsstrategien
Wenn Nutzerinnen und Nutzer spezifische KI-Extensions abonnieren, entsteht ein Anreiz für Anbieter, Premiumfunktionen zu entwickeln. Beispiele sind Unternehmenslösungen, erweiterte Datenschutz-Optionen, höhere Antwortqualität oder Branchenlösungen mit zertifizierter Expertise. Für Apple bedeutet das potenziell wachsende Services-Erlöse, aber auch die Notwendigkeit, faire Regeln und Abrechnungsmechanismen zu etablieren.
Datenschutz, Transparenz und Sicherheit
Eine Öffnung von Siri für mehrere KI-Anbieter wirft Fragen zum Datenschutz und zur Transparenz auf. Apple hat sich in der Vergangenheit stark auf Privatsphäre als Differenzierungsmerkmal berufen. Wenn Anfragen an Drittanbieter geleitet werden, müssen Nutzerinnen und Nutzer klar darüber informiert werden, welche Daten übermittelt werden und wie sie verarbeitet werden.
Datenschutzoptionen und lokale Verarbeitung
Je nach Aufgabe könnte Apple verschiedene Datenschutzstufen anbieten: lokale Modellverarbeitung auf dem Gerät, verschlüsselte Übertragung an vertrauenswürdige Server oder anbieter-spezifische Datenverarbeitung mit klaren Nutzungsbedingungen. Transparente Labels, ähnliche dem Nutri-Score für Apps, könnten anzeigen, welche Daten erhoben werden und wie lange sie gespeichert werden.
Regulatorische und ethische Überlegungen
Regulatorische Behörden weltweit beobachten KI-Entwicklungen genau. Apple muss sicherstellen, dass seine Erweiterungs-Architektur den geltenden Datenschutzgesetzen folgt, etwa der DSGVO in der EU. Zudem sind ethische Rahmenbedingungen wichtig: Wie wird mit sensiblen Inhalten umgegangen? Wer haftet bei falschen oder schädlichen Antworten? Solche Fragen verlangen klare Richtlinien und Mechanismen zur Qualitätssicherung.
Erwartungen für WWDC und die Zeitlinie
Wenn Apple die Extensions-Strategie bei der Worldwide Developers Conference (WWDC) am 8. Juni offiziell vorstellt, dürften die Präsentation und die Entwickler-Dokumentation im Mittelpunkt stehen. Apple wird wahrscheinlich Beispiele zeigen, wie verschiedene KI-Extensions in alltäglichen Szenarien funktionieren — etwa beim Erstellen von E-Mails, beim Suchen nach Informationen oder bei kreativen Aufgaben.
Die Einführung könnte stufenweise erfolgen: zuerst eine Beta-Phase für Entwickler, dann eine öffentliche Freigabe mit iOS 27, gefolgt von regelmäßigen Updates und Richtlinienanpassungen. Diese schrittweise Einführung würde Apple Zeit geben, Feedback zu sammeln, Performanceprobleme zu beheben und Sicherheitsvorkehrungen zu verfeinern.
Wettbewerbs- und Marktfolgen
Auf dem Markt für Sprachassistenten und KI-Modelle bedeutet mehr Offenheit mehr Wettbewerb. Das Druckverhältnis zwischen Plattformbetreibern (Apple) und KI-Anbietern könnte sich verschieben. Anbieter, die früh Qualität liefern und Vertrauen schaffen, haben die Chance, sich als bevorzugte Erweiterung zu etablieren.
Für Nutzerinnen und Nutzer könnte dies die beste Entwicklung seit langem sein: mehr Wahlfreiheit, bessere Antworten und spezialisierte Modelle für konkrete Anwendungsfälle. Für Apple ist es eine Balance zwischen Kontrolle und Offenheit, zwischen Nutzererfahrung und einem florierenden Ökosystem von Drittanbietern.
Fazit: Siri als Vermittler in einer Multi-KI-Welt
Die mögliche Einführung von Extensions in iOS 27 könnte Siri fundamental verwandeln — weg von einem Gatekeeper, der bei Problemen auf eine einzige externe Intelligenz verweist, hin zu einem flexiblen Vermittler, der die passende Expertise auswählt. Diese Entwicklung hat technische, geschäftliche und regulatorische Implikationen.
Wenn Apple es schafft, eine sichere, transparente und leistungsfähige Architektur bereitzustellen, könnten Nutzerinnen und Nutzer von einer neuen Generation des Sprachassistenten profitieren: einem System, das verschiedene spezialisierte KI-Modelle orchestriert und so relevantere, verlässlichere Antworten liefert. Die WWDC 2026 wird zeigen, ob und wie Apple diesen Weg geht — und welche Chancen sich daraus für Entwicklerinnen, Anbieter und Endanwender ergeben.
Kommentar hinterlassen