3 Minuten
Seit Jahren trägt die KI auf dem Smartphone ein kleines Versteckspiel. Man fragt, sie antwortet, doch irgendwo unterwegs wandern die eigenen Daten zu einem entfernten Server, werden dort verarbeitet und kommen dann zurück. Dieser versteckte Umweg war immer der Kompromiss in Bezug auf Geschwindigkeit und Datenschutz. Google will jetzt die Verbindung kappen, und Gemma 4 ist das deutlichste Zeichen dafür, dass On-Device-KI auf Android ernsthaft wird.
Google DeepMind stellte Gemma 4 letzte Woche gemeinsam mit Arm vor, mit einem klaren Ziel: fortgeschrittene KI direkt auf Arm-basierten Android-Smartphones laufen zu lassen, statt auf die Cloud zu setzen. Laut Google ist die neue Modellfamilie bis zu viermal schneller als frühere Versionen und kann bis zu 60 % weniger Energie verbrauchen. Die kleineren Varianten E2B und E4B wurden für Telefone optimiert und können Text, Bilder und Audio verarbeiten, ohne eine Anfrage über das Internet zu senden.
Warum Arm hier wichtig ist
Der stille Motor hinter diesem Sprung ist Arms SME2-Befehlssatz, der in neueren Armv9-Chips enthalten ist. Einfach gesagt beschleunigt er die Matrixberechnungen, auf die moderne KI angewiesen ist. Arm zufolge zeigten erste Ingenieurtests im Schnitt eine 5,5-fache Verbesserung bei der Verarbeitung von Nutzereingaben, und die Generierung von Antworten war beim Gemma 4 E2B-Modell bis zu 1,6-mal schneller. Das Interessante: Entwickler müssen ihre Apps nicht neu schreiben, um die Vorteile zu nutzen. Arms KleidiAI-Softwarelayer verbindet sich mit den bestehenden Laufzeitbibliotheken von Google, sodass die Verbesserung mit sehr geringem Aufwand eintritt.
Eine solche unsichtbare Verbesserung könnte genau das sein, was On-Device-KI vom Demo-Status in etwas verwandelt, das Menschen tatsächlich täglich nutzen. Schneller. Leichter. Weniger abhängig von einer Datenverbindung. Das sind die drei Eigenschaften, die mobile KI von Anfang an verfolgt hat.
Das deutlichste Beispiel liefert Envision, eine Accessibility-App für blinde und sehbehinderte Nutzer. Bisher hing die Szenenerkennung oft von Cloudzugang ab. In einem Prototyp, der Gemma 4 lokal auf Arm-CPUs nutzte, konnte ein Nutzer ein Foto aufnehmen und sofort eine detaillierte Beschreibung der Szene erhalten, ganz ohne Netzwerk. Für eine solche App ist Offline-Unterstützung kein Bonus, sondern die zentrale Funktion.
Google bereitet auch den nächsten Schritt vor. Gemma 4 dient als Basis für Gemini Nano 4, das kommende On-Device-Modell für Android. Das bedeutet: Entwickler, die heute mit Gemma 4 arbeiten, dürften kompatibel zu Gemini Nano 4 sein, wenn es später in diesem Jahr in Flaggschiff-Geräten erscheint. Gemini Nano treibt bereits lokale Funktionen wie intelligente Antworten und Audio-Zusammenfassungen an, und Chiphersteller wie MediaTek treiben in dieselbe Richtung. Gemma 4 bringt zusätzlich Multimodalität und integrierte Agentenfunktionen.
Für Entwickler ist der Zugang bereits offen. Die Modelle E2B und E4B sind über die Google AI Edge Gallery auf Android und iOS unter der Apache-2.0-Lizenz verfügbar. Und das ist wichtig, weil das Rennen um nützliche, private KI mit niedriger Latenz nicht mehr nur in der Cloud stattfindet. Es verlagert sich in das Telefon in Ihrer Hand.
Kommentar hinterlassen