11 Minuten
Der ehemalige Intel-CEO Pat Gelsinger hat in der Tech‑Welt für erhebliches Aufsehen gesorgt, indem er argumentierte, ein Durchbruch im Quantencomputing könne den aktuellen KI‑Hype dämpfen — und dass GPUs, das Rückgrat der heutigen KI‑Infrastrukturen, das Jahrzehnt womöglich nicht überstehen werden.
Warum Gelsinger glaubt, dass Quantencomputing das KI‑Spiel neu mischt
In einem ausführlichen Interview mit der Financial Times bezeichnete Gelsinger das Quantencomputing als Teil einer neuen Rechen‑„Trinität“ neben klassischen und KI‑Systemen. Ausgehend von seiner Arbeit mit der Venture‑Firma Playground Global und direkten Einblicken in die Quantenforschung schlug er vor, dass Qubits die heutige, stark GPU‑zentrierte Herangehensweise deutlich schneller obsolet machen könnten, als viele erwarten.
Gelsingers Sicht ist bewusst provokativ: Statt einer graduellen Evolution sieht er das Potenzial für einen vergleichsweise schnellen Wandel, falls ein bedeutsamer Quantendurchbruch eintritt. Eine solche Veränderung könnte, so warnte er, die KI‑Investitionsblase entlüften, die sich rund um teure GPU‑Rechenleistung und Modelskalierung gebildet hat — insbesondere dort, wo Unternehmensbewertungen davon abhängen, dass diese Chips unvergleichlich bleiben.
Technische Gründe für die Prognose
Gelsinger bezieht sich nicht nur auf Spekulationen, sondern auf technische Beobachtungen aus dem Quantenbereich. Qubits ermöglichen prinzipiell eine andere Form des Rechens: Superposition und Verschränkung erlauben es, bestimmte Klassen von Problemen exponentiell effizienter anzugehen als mit klassischen Bits. Für bestimmte Optimierungsaufgaben, bestimmte Simulationen in Chemie und Materialwissenschaften sowie für einige lineare Algebra‑Probleme könnten Quantenalgorithmen reale Vorteile bringen — vorausgesetzt, Hardware und Fehlerkorrektur entwickeln sich wie erforderlich.
Wichtig ist, die Grenzen dieser Aussage zu verstehen: Nicht jede KI‑Arbeitslast profitiert gleichermaßen. Viele aktuelle Deep‑Learning‑Workloads — insbesondere solche, die massiv parallelisierte Float‑Operationen nutzen — sind optimal für GPUs und spezialisierte KI‑Beschleuniger. Quantenrechner könnten jedoch für Nischen‑Workloads disruptive Vorteile bringen, die wiederum die Gesamtökonomie der KI‑Infrastruktur verändern.
Schock in zwei Jahren oder jahrzehntelange Drift? Die Debatte erhitzt sich
Nicht alle stimmen hinsichtlich des Zeitplans überein. Nvidia‑CEO Jensen Huang hat zuvor erklärt, dass es Jahrzehnte dauern werde, bis Quantencomputing breit akzeptiert wird. Gelsinger hingegen deutete an, der Zeitrahmen könne dramatisch kürzer sein. Ob zwei Jahre oder zwanzig: Beide Positionen teilen die Auffassung, dass das kommende Jahrzehnt entscheidend für die Rechenlandschaft ist.
Zeithorizonte und Unsicherheiten
Prognosen zur Kommerzialisierung des Quantencomputings variieren stark, weil mehrere technische, ökonomische und infrastrukturelle Hürden überwunden werden müssen:
- Skalierung von Qubit‑Anzahlen und Verbesserung der Kohärenzzeiten,
- Entwicklung praktikabler Fehlerkorrektur‑Schemen,
- Kosteneffiziente Integration in Cloud‑ und Rechenzentrums‑Ökosysteme,
- Entwicklung von nutzbaren Quantenalgorithmen für industrielle Probleme.
Wenn mehrere dieser Faktoren innerhalb kurzer Zeit Fortschritte machen, könnte die Marktwirkung schnell eintreten. Gelingt das nicht, bleibt Quantencomputing länger ein spezialisiertes Forschungs‑ und Dienstleistungsfeld.

Warum Timing wichtig ist: Die KI‑Entwicklung stützt sich heute stark auf GPUs für Training und Inferenz von Modellen. Sollten Quanten‑Systeme beginnen, für bestimmte Workloads echte Vorteile zu bieten, würde Kapital schnell umgeschichtet — und Firmen, die auf GPU‑Ökosystemen aufgebaut sind, müssten sich neu positionieren oder raschem Marktdruck begegnen.
Mögliche Übergangswege: Hybridarchitekturen
Ein realistisches Szenario für die nächsten Jahre sind hybride Architekturen, in denen klassische GPU‑basierte Systeme und Quantenprozessoren kooperieren. Solche Ansätze nutzen die Stärken beider Welten: klassische Beschleuniger für die umfangreiche numerische Lineare Algebra und Quantensysteme für subproblemspezifische Beschleunigung (z. B. kombinatorische Optimierung, Monte‑Carlo‑Schätzungen oder Quantensimulationen). Entwickler und Forschungsabteilungen sollten daher heute bereits mit Hybrid‑Frameworks experimentieren, um Schnittstellen, Datenflüsse und Tooling vorzubereiten.
Ein Echo der Branche: Microsoft, OpenAI und alte Software‑Strategien
Gelsinger zog eine historische Parallele und verglich die Partnerschaft zwischen Microsoft und OpenAI mit Bill Gates’ Allianz mit IBM in den 1990er‑Jahren. Er stellte OpenAI als Vertriebs‑ und Verteilungs‑partner dar, der Microsofts enorme Rechenkapazitäten nutzt — eine Erinnerung daran, dass strategische Cloud‑ und Rechenabkommen oft ebenso stark beeinflussen, welche Technologien kommerziell erfolgreich werden wie reine Laborleistung.
Cloud‑Partnerschaften als Markteintrittsbarriere
Die heutigen Cloud‑Provider (Microsoft Azure, AWS, Google Cloud) kontrollieren große Teile der kommerziellen Recheninfrastruktur. Wer Zugang zu Milliarden an GPU‑Stunden, spezialisierten KI‑Instanzen und integrierten Software‑Stacks hat, kann die Marktdynamik erheblich beeinflussen. Wird Quantenhardware in Cloud‑Umgebungen als Dienst verfügbar, werden dieselben strategischen Hebel wirksam: Wer früh ausreichende Quantum‑as‑a‑Service‑Kapazitäten bereitstellt, setzt Standards und gewinnt Entwickler‑Communities.
Diese Dynamik erklärt auch, warum Verteilungs‑ und Lizenzpartnerschaften für Startups im Quantenbereich strategisch wertvoll sind: Zugang zu Rechenkapazität bedeutet Geschwindigkeit bei Forschung, Produktentwicklung und Markteinführung.
Intels interne Geschichte: Disziplin, Verzögerungen und die 18A‑Saga
Das Interview konzentrierte sich nicht ausschließlich auf Quanten. Gelsinger reflektierte offen über seine Zeit bei Intel und beschrieb eine Periode, in der grundlegende Disziplinen verloren gegangen seien. Er sagte den FT‑Reportern, in den fünf Jahren vor seiner Rückkehr habe kein einziges Intel‑Produkt termingerecht ausgeliefert worden — ein Verfall, der seiner Aussage nach tiefer ging, als er erkannt hatte.
Zu den Opfern zählte auch Intels ehrgeiziger 18A‑Knoten. Gelsinger erklärte, dass er der Führung ein Fünfjahres‑Zeitrahmen versprochen hatte, um 18A zu liefern, organisatorische Probleme und Verzögerungen jedoch dazu geführt hätten, dass das Unternehmen seine internen Ziele verfehlte. Nachdem er gegangen war, entschied der neue CEO, das Projekt innerhalb dieses Zeitrahmens einzustellen — ein Beispiel dafür, wie technische Fahrpläne und Führungswechsel das Schicksal eines Chipherstellers schnell neu ordnen können.
Lehren aus der 18A‑Erfahrung
Die 18A‑SAGA illustriert mehrere wichtige Management‑ und Technologieprinzipien:
- Transparente Roadmaps und realistische Meilensteine sind entscheidend, um Vertrauen bei Investoren und Kunden zu erhalten.
- Organisatorische Disziplin und Fertigungskompetenz müssen mit F&E‑Ambitionen Schritt halten, vor allem in der Halbleiter‑Fertigung.
- Führungskräftewechsel können strategische Projekte beschleunigen oder abrupt beenden; langfristige Technologieprogramme brauchen institutionelle Verankerung, um politische Zyklen zu überdauern.
Für andere Chiphersteller zeigt dies, wie schnell ein vermeintlicher technologischer Vorsprung durch Managementprobleme oder Fertigungsschwierigkeiten wieder verloren gehen kann.
Was das für Technologen und Investoren bedeutet
Egal ob Forscher, Ingenieur oder Investor: Gelsingers Aussagen sind eine Mahnung, mehrere technologische Achsen gleichzeitig zu beobachten. KI ist heute eng mit der GPU‑Ökonomie und Rechenzentrums‑Skalierung verknüpft. Quantencomputing eröffnet die Möglichkeit, dass einige der rechenintensivsten Probleme auf einem anderen Substrat neu gedacht werden könnten, was Gewinner und Verlierer in Hardware, Cloud‑Services und KI‑Plattformen verschieben würde.
Konkrete Handlungsempfehlungen
Für verschiedene Akteure ergeben sich unterschiedliche Strategien:
- Investoren: Diversifizieren Sie Portfolios über klassische Halbleiter, spezialisierte KI‑Beschleuniger und vielversprechende Quantenstartups. Achten Sie auf Partnerschaften mit großen Cloud‑Anbietern sowie auf die Fähigkeit von Firmen, Fertigung und Skalierung zu beherrschen.
- Ingenieure und Forscher: Bauen Sie Kenntnisse in Hybrid‑Algorithmen auf, experimentieren Sie mit Quantensimulatoren und verfolgen Sie Fortschritte in Fehlerkorrektur und Qubit‑Technologien (supraleitend, gefangene Ionen, photonisch).
- Unternehmen und CIOs: Evaluieren Sie Beschaffungsstrategien für Rechenkapazität, prüfen Sie langfristige Verträge mit Cloud‑Anbietern und planen Sie Migrationspfade, falls bestimmte Workloads von Quantenvorteilen profitieren.
Eine proaktive Haltung ist sinnvoll: Selbst wenn Quanten nicht sofort dominante Produktionslasten übernehmen, können frühe Experimente und Pilotprojekte strategische Vorteile sichern.
Beispiele für potenzielle Anwendungsfelder
Bereiche, in denen Quantenbeschleunigung realistische Vorteile bieten könnte, umfassen:
- Materialwissenschaften und Chemiesimulationen — schnelleres Design von Katalysatoren und neuen Werkstoffen,
- Optimierungsprobleme in Logistik und Supply Chain — bessere Routen‑ und Ressourcenplanung,
- Finanzmodellierung und Risikomanagement — effizientere Monte‑Carlo‑Methoden,
- Quantenunterstützte maschinelle Lernverfahren — Hybridmodelle zur Verbesserung bestimmter Lernaufgaben.
Diese Anwendungsfelder zeigen, wie heterogene Rechenansätze (GPU + Quantum) künftig komplementär arbeiten können.
Technische Einordnung: Warum GPUs heute dominieren
GPUs sind aus mehreren Gründen zur dominierenden Architektur für Deep Learning geworden: hohe Parallelisierbarkeit für Matrix‑ und Vektoroperationen, gut entwickelte Software‑Ökosysteme (CUDA, PyTorch, TensorFlow), und eine breite Verfügbarkeit in Cloud‑Rechenzentren. Außerdem hat die Ökonomie von Trainingsjobs — enorme Datenmengen, iterative Optimierung, lange Trainingsläufe — die Nachfrage nach skalierbarer, kosteneffizienter GPU‑Rechenleistung weiter verstärkt.
Herausforderungen für GPUs
Dennoch stehen GPUs vor Herausforderungen: steigende Energie‑ und Kühlungskosten in Hyperscale‑Rechenzentren, physikalische Grenzen der Prozessorkonstruktion und zunehmender Wettbewerb durch spezialisierte KI‑Beschleuniger (TPUs, FPGAs, IPUs). Wenn Quantenhardware in bestimmten Nischen einen klaren Vorteil demonstriert, könnte dies die wirtschaftliche Basis für groß angelegte GPU‑Investitionen verändern.
Quantenhardware: Aktuelle Ansätze und technische Hürden
Es existieren verschiedene konkurrierende Quantenhardware‑Plattformen, jede mit eigenen Vor‑ und Nachteilen:
- Supraleitende Qubits: relativ gut skalierbar, aktuell führend bei vielen Industrieprojekten, benötigt tiefe Kryokühlung,
- Gefangene Ionen: exzellente Kohärenzzeiten und Fehlerraten, aber Herausforderungen bei der Skalierung und beim Integrationsaufwand,
- Photonische Systeme: arbeiten bei Raumtemperatur und sind vielversprechend für bestimmte Simulationen, stehen aber vor Schwierigkeiten in der Interaktion und Fehlerkontrolle.
Unabhängig von der Plattform bleibt Fehlerkorrektur ein zentraler Engpass. Vollständige, fehlerkorrigierende Quantencomputer, die allgemeine Probleme zuverlässig lösen können, erfordern eine große Anzahl physischer Qubits pro logischem Qubit und damit erhebliche technische Innovationen.
Software‑ und Algorithmusseite
Auf der Softwareseite werden Quantenalgorithmen (z. B. QAOA, VQE, HHL) weiterentwickelt, und es entstehen Bibliotheken sowie Emulationsumgebungen, die Entwicklern den Einstieg erleichtern. Hybride Algorithmen, die klassische Optimierer mit quantenbasierten Subroutinen kombinieren, sind besonders vielversprechend, weil sie mit heute verfügbarer Hardware praktikable Vorteile erzielen können.
Strategische Implikationen für Cloud‑Provider und Chip‑Fabriken
Cloud‑Provider investieren massiv in Quanten‑Hosting, um frühe Marktanteile zu sichern. Azure Quantum, AWS Braket und Google Quantum AI sind Beispiele für Angebote, die Forschungs‑ und Industriepartner anziehen. Für Chip‑Hersteller bedeutet dies: Wer Produktionskapazitäten, IP und Partnerschaften beherrscht, kann strategische Vorteile erzielen. Gerade für integrierte Halbleiterunternehmen wie Intel ist es entscheidend, Fertigungsexzellenz mit Forschungskapazitäten zu verbinden.
Sicherheits‑ und Regulierungsgesichtspunkte
Quantenfähigkeiten haben auch sicherheitsrelevante Implikationen, etwa für Kryptografie. Fortschritte in Fehlerkorrektur und Qubit‑Skalierung könnten langfristig kryptografische Annahmen herausfordern — was Staaten und Unternehmen zwingt, Post‑Quantum‑Kryptographie und Sicherheitsstrategien zu überdenken. Regulatorische Rahmenbedingungen für Quanten‑Forschung, Exportkontrollen und nationale Förderprogramme werden in den nächsten Jahren wichtiger werden.
Fazit: Bereit sein für Überraschungen — aber nicht panisch handeln
Die Kernbotschaft von Gelsinger ist pragmatisch: Halten Sie mehrere technologische Optionen offen. Während GPUs heute den KI‑Stack dominieren, könnte Quantencomputing in einigen Schlüsselbereichen disruptive Vorteile bieten. Das ist kein garantiertes Szenario, aber genug Plausibilität liegt vor, um strategische Vorkehrungen zu treffen.
Konkrete Maßnahmen umfassen das Investieren in Forschung und Pilotprojekte, das Aufbauen von Wissen über Hybrid‑Architekturen, das Evaluieren von Cloud‑Partnerschaften und das Überdenken langfristiger Beschaffungs‑ und Investitionspläne. Die nächsten zehn Jahre werden wahrscheinlich sowohl inkrementelle als auch punktuelle disruptive Veränderungen sehen — und Unternehmen sowie Forschende sollten darauf vorbereitet sein, schnell zu adaptieren.
Gelsingers Stimme, gestützt durch seine industriellen Erfahrungen und jüngste Einblicke in Quanten‑Startups, erinnert daran, dass technologische Vorhersagen sowohl Chancen als auch Risiken bergen. Für Entscheider heißt das: beobachten, testen, und strategisch diversifizieren — ohne mögliche technologische Durchbrüche zu ignorieren, aber auch ohne kurzfristig in Panik zu verfallen.
Quelle: wccftech
Kommentar hinterlassen