10 Minuten
Googles nächster Tensor‑Chip wirkt weniger wie ein isoliertes Experiment und mehr wie ein Schüler, der sich Notizen von einem Klassenkameraden macht. Frühe Leaks deuten darauf hin, dass der Tensor G6 einige mutige Designentscheidungen übernehmen wird, die MediaTeks Dimensity 9500 populär gemacht hat — ein Chip, der die Erwartungen mit aggressiven Kernkonfigurationen und beeindruckenden Benchmark‑Ergebnissen bereits durcheinandergebracht hat.
Zwei große Lehren, denen Google offenbar folgt
Auf hoher Ebene ist die Geschichte simpel: MediaTek hat Leistung durch ein Umdenken bei der Kernbalance und den Einsatz der neuesten ARM‑Designs vorangetrieben, und Google scheint bereit, diesem Vorgehen zu folgen. Der Tensor G6 (Codename Malibu) soll demnach sein CPU‑Layout verändern und seine Kernaufstellung aktualisieren — Maßnahmen, die helfen sollten, die Lücke zu Wettbewerbern zu schließen. Wie immer sind die Kompromisse aber wichtig.
Hier ist, was sich Berichten zufolge ändert und warum das für Smartphones relevant ist — von Leistung über Wärmeverhalten bis zur Akkulaufzeit.
CPU: weniger kleine Kerne, mehr große Leistung. Der Tensor G5 setzte auf ein 1+5+2 Layout. Der G6 wird voraussichtlich ein 1+6+1 Konfigurationsmodell übernehmen: ein hochmoderner Super‑Core, sechs Performance‑Cores und ein einzelner Effizienz‑Core. Dieser zusätzliche Performance‑Core ist eine taktische Entscheidung. Indem ein Effizienz‑Core zugunsten eines größeren Performance‑Kerns reduziert wird, will Google die anhaltende, nachhaltige Leistung erhöhen — besonders wenn der Chip auf TSMCs 2‑nm‑Fertigungslinie produziert wird, die Energie‑ und thermisches Verhalten verbessern sollte.

Neue ARM‑Kerndesigns statt alter Standardlösungen. Eine wiederkehrende Kritik am Tensor G5 war die Nutzung älterer generischer ARM‑Kerne, während Wettbewerber auf neuere Designs setzten. Der G6 soll auf einen neuen ARM‑Super‑Core (in Berichten als X930‑Klasse angegeben) und modernere große Kerne umrüsten, was die Single‑Thread‑ und Multi‑Thread‑Leistung gegenüber dem G5 direkt verbessern sollte.
GPU und AI: ein gemischtes Ergebnis. Ironischerweise wird die geleakte GPU‑Wahl für den G6 als eine ältere Imagination‑Kernfamilie beschrieben als die im Tensor G5, sodass die Grafikleistung möglicherweise nicht im gleichen Maß mit den CPU‑Gewinnen Schritt halten wird. Im Bereich der künstlichen Intelligenz setzt Google weiterhin auf einen zweistufigen Ansatz: eine vollwertige TPU für rechenintensive Modelle und eine nano‑TPU für leichte On‑Device‑Aufgaben, was die Effizienz für Alltagsfunktionen wie Sprache und Fotografie erhöht.
Modem‑Wechsel. Eine weitere bemerkenswerte Änderung: Google soll sich offenbar vom Modem von Samsung entfernen und stattdessen auf MediaTeks M90‑Modem setzen, das theoretische Downlink‑Geschwindigkeiten von bis zu 12 Gbit/s ermöglicht. Schnelleres Modem‑Equipment trägt zur Zukunftssicherheit der 5G‑Konnektivität bei, auch wenn reale Geschwindigkeiten weiterhin durch Netze und Carrier begrenzt werden.
Was bedeutet das also für Verbraucher? Erwartet, dass Google glattere, länger anhaltende Leistung in anspruchsvollen Apps und beim Multitasking priorisiert. Die Akkulaufzeit könnte von der 2‑nm‑Migration und intelligenter AI‑Offloading profitieren, aber die GPU‑Wahl könnte Fortschritte beim Gaming und bei grafikintensiven Anwendungen dämpfen.
Letztlich ist die Tensor‑G6‑Geschichte eine Erinnerung daran, dass Chip‑Design iterativ und wettbewerbsorientiert ist: Wenn ein Unternehmen Risiken eingeht und Erfolg hat, adaptieren andere schnell. Google scheint bereit, aus MediaTeks Spielbuch zu lernen, aber ob der G6 einen echten Sprung nach vorne darstellt, hängt davon ab, wie die Plattform rohe Leistung, Grafik und On‑Device‑AI‑Effizienz ausbalanciert, wenn sie Ende 2026 in die Geräte kommt.
Technische Hintergründe: Gründe für die Architekturänderungen
Die Entscheidung, von einer 1+5+2‑Architektur zu einem 1+6+1‑Design zu wechseln, ist kein rein ästhetischer Schritt — sie basiert auf tieferen technischen Überlegungen zum Zusammenspiel von Leistung, Wärme, Energieverbrauch und Scheduling. Moderne Smartphone‑Betriebssysteme, insbesondere Android, nutzen komplexes Task‑Scheduling, um Threads und Prozesse auf die verfügbaren Kerne zu verteilen. Ein größeres Verhältnis an Performance‑Kernen kann in der Praxis dazu führen, dass anspruchsvolle Anwendungs‑Threads seltener auf langsamere Effizienz‑Kerne abgeworfen werden, was in Summe zu konstanter höherer Performance führt.
Hinzu kommt, dass TSMC‑Fertigung in 2‑nm‑Technologie nicht nur mehr Transistoren pro Fläche erlaubt, sondern auch niedrigere Leckströme und bessere Energieeffizienz bringen kann. In Kombination mit einer Core‑Architektur, die mehr starke Kerne enthält, ergibt sich ein Umfeld, in dem sustained (anhaltende) Leistung deutlich verbessert werden kann — wichtig für lang andauernde Workloads wie Spiele, Videobearbeitung oder komplexe AI‑Aufgaben.
Warum weniger Effizienz‑Kerne manchmal sinnvoll sind
Der traditionelle Ansatz mit mehreren Effizienz‑Kernen (little cores) ist darauf ausgelegt, Hintergrundaufgaben und einfache Threads sehr energieeffizient zu verarbeiten. Doch bei modernen Nutzungsmustern, in denen Apps häufiger im Vordergrund komplexe Aufgaben ausführen oder mehrere Apps parallel laufen, werden häufig mehr mittlere bis hohe Rechenressourcen benötigt. Ein zusätzlicher Performance‑Core kann die Antwort liefern, ohne bei gleichzeitiger Nutzung alle Kerne in einen thermischen oder energetischen Engpass zu bringen.
Thermische und Energie‑Tradeoffs
Mehr große Kerne bedeuten auf dem Papier auch höhere Spitzenleistungsaufnahme. Daher ist die Fertigungstechnik (z. B. 2 nm) entscheidend: Sie senkt die Verlustleistung und verbessert das Wärmemanagement. Auf Systemebene müssen SoC‑Hersteller (System on Chip) und Gerätehersteller zudem Kühlungsstrategien, Power‑Management‑Firmwares und CPU‑Governor fein abstimmen, damit das Nutzererlebnis nicht durch thermisches Throttling beeinträchtigt wird.
GPU, NPU und AI‑Subsystem: Balanceakt zwischen Leistung und Effizienz
Die GPU‑Wahl ist ein kritischer Faktor für Gaming, UI‑Flüssigkeit und bestimmte AI‑Workloads, die von GPU‑Beschleunigung profitieren. Wenn der G6 tatsächlich eine ältere Imagination‑GPU verwendet, könnte das kurzfristig die Erwartungen bei Grafikbenchmarks dämpfen. Dennoch darf man die Rolle der TPU‑Einheiten (Tensor Processing Units) nicht unterschätzen: Google investiert stark in dedizierte AI‑Beschleuniger, die viele Aufgaben übernehmen können, für die früher GPUs nötig waren.
Dual‑Tier AI‑Ansatz
Google verfolgt weiterhin einen Dual‑Tier‑Ansatz: eine leistungsfähige TPU für große Modelle und eine nano‑TPU für alltägliche, weniger rechenintensive On‑Device‑Aufgaben. Dieser Ansatz verbessert die Energieeffizienz für Funktionen wie Live‑Sprachverarbeitung, Fotobearbeitung (z. B. HDR‑Rekonstruktion), Kontext‑Erkennung und kleinere ML‑Inferenzen. Durch Workload‑Partitionierung — also das Verschieben großer Modelle auf die TPU und leichterer Tasks auf die nano‑TPU — lässt sich die Gesamtleistung steigern, während der Energieverbrauch kontrolliert bleibt.
Welche Rolle spielt die GPU noch?
Für Szenarien, die intensive Grafikverarbeitung erfordern — High‑End‑Gaming, ray tracing (sofern unterstützt), komplexe UI‑Effekte oder manche hybride ML‑Modelle — bleibt die GPU relevant. Sollte der G6 hier gegenüber Konkurrenten zurückfallen, könnte das bei Gaming‑Benchmarks und visuellen Tests sichtbar werden. Hersteller können dies allerdings teilweise durch Softwareoptimierungen, Treiberverbesserungen und Engine‑Level‑Tuning kompensieren.
Modem und Konnektivität: 5G‑Fortschritt durch M90
Der Wechsel zu MediaTeks M90‑Modem ist ein weiterer strategischer Schritt. Theoretische Downlink‑Raten von bis zu 12 Gbit/s sind beeindruckend, auch wenn reale Geschwindigkeiten von der Netzinfrastruktur und Provider‑Beschränkungen abhängen. Entscheidend ist: Ein fortschrittliches Modem kann Aggregation, Carrier‑Aggregation, mmWave‑Support und effizienteres Power‑Management für Funkverbindungen bieten — alles Faktoren, die das Nutzererlebnis bei Streaming, Cloud‑Gaming und großen Downloads verbessern.
Praktische Vorteile und Limitationen
- Bessere Netzabdeckung und Durchsatz in unterstützten Regionen, vor allem bei aggregierten Carrier‑Konfigurationen.
- Verbesserte Latenz und Stabilität bei Echtzeitdiensten.
- Reale Limits bleiben Netzinfrastruktur, Tarifpolitik und lokale Frequenzverfügbarkeit.
Benchmark‑Erwartungen und reale Nutzererfahrung
Benchmarks liefern greifbare Vergleichswerte, aber sie sind nur ein Teil des Puzzles. Ein Chip kann in synthetischen Tests hervorragend abschneiden, aber im Alltag spielt das Zusammenspiel von SoC, Betriebssystem‑Optimierungen, thermischer Konstruktion des Geräts und App‑Optimierung die größere Rolle. Deshalb ist die anhaltende, nachhaltige Leistungsfähigkeit (sustained performance) oft aussagekräftiger als ein maximaler Single‑Core‑Score.
Was Nutzer wahrscheinlich spüren werden
- Flüssigeres Multitasking: Mehr Performance‑Kerne helfen bei mehreren parallel laufenden Anwendungen.
- Längere Phasen ohne Leistungseinbrüche bei Spielen und prozessintensiven Aufgaben.
- Verbesserte AI‑Features: schnellere On‑Device‑Verarbeitung etwa bei Sprachsteuerung und Fotofunktionen.
- Mögliche Einschränkungen bei High‑End‑Grafik‑Benchmarks, falls die GPU hinterherhinkt.
Wettbewerbsstrategie: Warum Google MediaTeks Vorsprung kopiert
Die Industrie zeigt oft ein Muster: Ein Hersteller probiert eine neue Kernkonfiguration oder eine aggressive Taktik, erzielt Vorteile, und andere adaptieren erfolgreiche Elemente. MediaTeks Dimensity‑Design hat gezeigt, dass die Balance aus modernen ARM‑Kernen und einem höheren Anteil an Performance‑Cores realen Nutzen bringt. Google reagiert darauf, weil die Pixel‑Reihe als Flaggschiff‑Marke in direktem Vergleich zu Apples und Qualcomms Plattformen stehen muss.
Differenzierung durch Software
Neben der reinen Hardwarekompetenz hat Google einen Vorteil bei der Integration von Betriebssystem und On‑Device‑AI, etwa durch tiefe Verzahnung von Android‑Features mit TPU‑Fähigkeiten. Selbst mit einer GPU, die nicht die jeweils schnellste ist, kann Softwareoptimierung die gefühlte Performance stark verbessern — durch Priorisierung, Modellkompression und adaptive Qualitätssteuerung.
Risiken und offene Fragen
Trotz der positiven Indikatoren bleiben Fragen offen: Wie gut sind die Treiber und das GPU‑Tuning für die gewählte Imagination‑Familie? Wie effizient ist das thermische Design der endgültigen Pixel‑Geräte mit G6? Und wie wird sich die Akkulaufzeit in echten Nutzungsszenarien entwickeln, wenn man höhere Performance‑Anforderungen konstant ausreizt?
Außerdem sind Fertigungsfragen relevant: 2‑nm‑Produktion ist anspruchsvoll, und Yield‑Raten, Kosten sowie Verfügbarkeit können den Zeitplan und den Preis der Geräte beeinflussen. Google muss hier mit TSMC eng zusammenarbeiten, um Lieferbarkeit und Qualität sicherzustellen.
Schlussbetrachtung: Iteration statt Revolution
Der Tensor G6 erscheint als Beispiel für inkrementelle, aber sinnvolle Evolution: Google übernimmt bewährte Architekturprinzipien von Mitbewerbern, integriert modernere ARM‑Kerne und optimiert sein AI‑Subsystem weiter. Das Ziel ist klar: eine bessere Balance aus nachhaltiger Leistung, On‑Device‑AI‑Effizienz und moderner Konnektivität.
Ob der G6 als echter Meilenstein wahrgenommen wird, hängt vor allem von der praktischen Umsetzung ab — Hardware‑Integration, thermisches Design, Treiberqualität und Softwareoptimierungen sind genauso entscheidend wie die reine Kern‑Topologie. Für Nutzer bedeutet das: Erwartet spürbare Verbesserungen bei Multitasking und AI‑Features, aber beurteilt Gaming‑ und GPU‑Leistung erst nach unabhängigen Tests, sobald Geräte mit dem G6 verfügbar sind.
Insgesamt zeigt die Entwicklung: Chip‑Design bleibt ein dynamisches Feld, in dem Ideen schnell adaptiert werden. Google scheint bereit, sich anzupassen — doch die Feinabstimmung entscheidet darüber, ob der Tensor G6 wirklich die Lücke zu den stärksten Smartphone‑Plattformen schließen kann.
Quelle: wccftech
Kommentar hinterlassen