10 Minuten
Design begann früher mit Boxen. Wireframes, Raster, präzise Ausrichtung — das waren die ersten Schritte jeder Produktgestaltung. Google schlägt nun vor, dieses Paradigma radikal zu überdenken und das starre System teilweise über Bord zu werfen, indem es die Initialphase des Designs weniger formal und strukturorientiert gestaltet. Die traditionelle Herangehensweise, bei der Entwickler und Designer erst ein Skelett aus rechteckigen Containern erstellen, um Funktion und Informationsarchitektur festzulegen, bleibt weiterhin relevant, doch Google signalisiert mit seinem neuen Fokus, dass die Entstehung digitaler Oberflächen auch deutlich intuitiver, konzeptioneller und gefühlsorientierter beginnen kann. Diese Entwicklung hat Auswirkungen auf UI-Design, Interaktionsdesign und Designsysteme und stellt Designer vor neue Chancen und Herausforderungen, insbesondere im Kontext von KI-gestützten Arbeitsabläufen und kollaborativen Prototyping-Prozessen.
Mit dem jüngsten Update von Stitch, dem experimentellen KI-Design-Tool, das in Google Labs entwickelt wird, setzt das Unternehmen stark auf eine weniger rigide Methode: das sogenannte Vibe-Design. Anstatt Layouts zuerst zu skizzieren, fängt die Arbeit mit einer Stimmung an — einem Gefühl, das noch nicht vollständig in konkrete Elemente übersetzt ist. Diese Stimmung dient als kreativer Ausgangspunkt: Farben, Typografie, Raumgefühl und Interaktionsdynamik werden aus einer übergeordneten Stimmung heraus abgeleitet. Stitch versucht, diese abstrakten Vorgaben zu konkretisieren, indem es aus vagen formalen oder emotionalen Beschreibungen brauchbare Interface-Vorschläge generiert und diese Vorschläge iterativ verfeinert. Für Designer bedeutet das, mehr Zeit auf konzeptionelle Entscheidungen und Nutzerforschung verwenden zu können, während die KI die arbeitsintensiven Detailaufgaben übernimmt und gleichzeitig sicherstellt, dass visuelle Konsistenz und Usability-Prinzipien eingehalten werden.
Es ist eine feine, aber grundlegende Verschiebung — eine Veränderung, die verdeutlicht, wie KI die allerersten Momente der Produktgestaltung umgestaltet. Statt allein technische Aufgaben abzuarbeiten, kann KI zunehmend kreative Intuitionen unterstützen und so die Lücke zwischen strategischer Vision und konkreter Umsetzung überbrücken. Diese Veränderung beeinflusst nicht nur einzelne Workflows, sondern auch Teamstrukturen, Rollenverteilungen und die Integration von Designsystemen in Entwicklungszyklen. Insbesondere für Agenturen, Produktteams und UX-Designer eröffnen sich neue Wege, wie Ideen exploriert, validiert und skaliert werden können, ohne dass die Kontrolle über Markenidentität und Nutzererfahrung verloren geht.
Wenn Design mit einem Gefühl beginnt
Stitch konnte bereits zuvor Benutzeroberflächen aus Textanweisungen erzeugen — eine inzwischen weit verbreitete Basisfunktion vieler Design-KI-Tools. Doch das neue Vorgehen geht darüber hinaus: Designer können Absichten in abstrakten, emotionalen oder narrativen Begriffen beschreiben, nicht nur in technischen Spezifikationen. Das heißt, anstatt zu fordern „Baue mir ein Dashboard mit drei Bereichen“, formuliert man eher „Lass es ruhig, minimal und fokussiert wirken“ oder „Sorge für eine freundliche, aber seriöse Stimmung“. Diese Art der Beschreibung verlangt von der KI ein Verständnis von Designprinzipien, Kontext und Zielgruppen. Stitch übersetzt solche Beschreibungen in konkrete Interface-Elemente, Layout-Alternativen, Farbpaletten und Typografie-Vorschläge. Während der Iteration bleibt das System reaktionsfähig: Veränderungen in der Beschreibung — etwa das Verschieben der Stimmung von „ruhig“ zu „dynamisch“ — werden live in Varianten umgesetzt, sodass Designer verschiedene Richtungen schnell vergleichen und bewerten können.
Die Intention hinter diesem Ansatz liegt auch in einer veränderten Sicht auf Kreativität: weniger als strikt sequentiellen Prozess, mehr als ein exploratives, multidimensionales Spiel. Designer behalten die Kontrolle über Leitentscheidungen, während die KI als beschleunigender, generativer Partner fungiert. Das ermöglicht eine schnellere Ideenfindung, größere Variantentiefe und effizientere Validierungszyklen, etwa beim Testing von visuellen Hypothesen oder A/B-Tests. Zudem unterstützt das System, implizite Designregeln explizit zu machen — etwa Kontrastverhältnisse, Abstände oder Interaktionsmuster — und hilft so, Barrierefreiheit (Accessibility) und Konsistenz über Plattformen hinweg besser zu garantieren.
Der eigentliche Motor dieser Veränderung ist eine überarbeitete Benutzeroberfläche, die Google als "infinite AI canvas" bezeichnet. Genau wie der Name suggeriert, handelt es sich um eine flexible Arbeitsfläche, auf der Ideen nicht in vordefinierte Rahmen gezwängt werden müssen. Auf dieser Leinwand können Text, Bilder, UI-Komponenten und sogar Code nebeneinander existieren und gemeinsam weiterentwickelt werden. Das „infinite canvas“ unterstützt non-lineare Arbeitsweisen: statt von links nach rechts oder oben nach unten zu arbeiten, können Teams parallel explorieren, Skizzen annotieren, Designentscheidungen dokumentieren und gleichzeitig interaktive Prototypen herausarbeiten. Diese Offenheit ist speziell für größere, iterative Projekte vorteilhaft, weil sie Freiheiten schafft, ohne die Nachvollziehbarkeit oder Versionskontrolle zu opfern.
Und die Leinwand wartet nicht einfach stumm auf Befehle; sie ist aktiv und dialogfähig.
Gestützt von Gemini Live wird die Leinwand konversationell: Designer können mit ihr sprechen oder chatten, als wäre es ein kollegialer Partner. Fragen nach Alternativen, Farbänderungen oder kompletten Neuüberlegungen von Abläufen werden in natürlicher Sprache gestellt und fast unmittelbar umgesetzt. Beliebte Interaktionen könnten zum Beispiel lauten: „Zeig mir drei Menüvarianten“, „Mach das primäre CTA lebendiger“ oder „Reduziere visuelle Ablenkung in diesem Abschnitt“. Die KI antwortet in Echtzeit, passt Elemente an und schlägt Varianten vor, die sofort visuell überprüfbar sind. Diese konversationelle Ebene reduziert die Reibung zwischen Intention und Ergebnis und macht schnelle Explorationen leichter nachvollziehbar, gerade wenn mehrere Stakeholder eingebunden sind.

Eine KI, die nicht nur generiert — sie kooperiert
Einer der interessantesten Neuerungen ist ein Design-Agent, der ein Projekt von der groben Idee bis zum funktionalen Prototyp begleitet. Dieser Agent generiert nicht nur Bildschirme; er analysiert Entscheidungen, dokumentiert Kontextinformationen und gibt während des Prozesses gezieltes Feedback. Solch ein Agent kann Designentscheidungen begründen, Abhängigkeiten erkennen und potenzielle Usability-Probleme aufzeigen — etwa wenn Kontraste nicht ausreichen oder Ladezeiten durch komplexe Illustrationen unnötig steigen. Damit wird die KI weniger zum reinen Produktionswerkzeug und mehr zum aktiven Ko-Autor: Sie erinnert an vorher getroffene Vorgaben, schlägt konsistente Anpassungen vor und sorgt dafür, dass Änderungen nicht inkonsistent über das Designsystem hinweg eingeführt werden.
Neben diesem Agenten gibt es einen Agent Manager, der wie ein Kontrollzentrum für komplexe Projekte wirkt. Wenn mehrere Ideen, parallele Explorationen oder unterschiedliche Designrichtungen gleichzeitig verfolgt werden, verhindert diese Schicht, dass Informationen verloren gehen oder Entscheidungen unkoordiniert umgesetzt werden. Der Agent Manager organisiert Tasks, priorisiert Vorschläge und ermöglicht es Teams, Explorationspfade systematisch nachzuvollziehen. Für Teams, die mit zahlreichen Iterationen jonglieren, kann dies Stunden oder sogar Tage an Koordinationsaufwand einsparen, da Abstimmungen einfacher werden und Redundanzen reduziert werden.
Es gibt außerdem eine praktische Dimension zu dieser Kreativität: Stitch kann nun ein komplettes Designsystem aus jeder beliebigen URL extrahieren, indem es visuelle Regeln, Farbschemata, Typografie und Komponentenidentitäten von bestehenden Produkten quasi rückentwickelt. Diese Fähigkeit zur Reverse-Engineering von Designrichtlinien ist besonders wertvoll, wenn Unternehmen Marken- oder Produktportfolios vereinheitlichen wollen. Kombiniert man diese Funktion mit dem neuen DESIGN.md-Dateiformat, entsteht ein portables, maschinenlesbares Paket aus Designanweisungen, Tokens und Richtlinien, das zwischen verschiedenen Tools und Teams ohne Reibungsverluste ausgetauscht werden kann. DESIGN.md fungiert dabei als verbindliche Spezifikation, die sowohl für Designer als auch für Entwickler verständlich ist und die Brücke zwischen visueller Identität und Implementierung schlägt.
Mit anderen Worten: Nutzer sind nicht länger vollständig an ein einzelnes Ökosystem gebunden. Export, Anpassung und Wiederverwendung von Design-Assets oder -Regeln sind möglich, ohne dass man bei null anfangen muss. Das verbessert Interoperabilität und langfristige Wartbarkeit von Produkten, weil Designentscheidungen dokumentiert und in standardisierten Formaten transportiert werden können. Solche Formate erleichtern auch die Zusammenarbeit mit externen Agenturen, Freelancern oder internationalen Teams, da die Designprinzipien konsistent weitergegeben werden.
Auch das Prototyping ist deutlich dynamischer geworden. Statische Bildschirme sind nur der Anfang: Mit der „Play“-Funktion generiert Stitch interaktive Flows und sagt die nächsten logischen Schritte in einer Nutzerreise voraus. Statt lediglich einen statischen Vorschau-Modus zu bieten, wird der Entwurf in ein lebendes Modell verwandelt, das Klickpfade, Animationen und Übergänge simuliert. Diese Vorhersage von Nutzerpfaden hilft Designern, User Flows schneller zu testen, zu validieren und auf Schwachstellen zu prüfen — zum Beispiel unklare Navigation, fehlende Rückmeldungen oder problematische Zustände in Formularen. Das führt zu besser getesteten Prototypen vor dem eigentlichen Engineering-Aufwand und kann die Time-to-Market für neue Features verkürzen.
Unter der Haube öffnet Google die Plattform auch für tiefere Integrationen. Über den MCP-Server und ein SDK kann Stitch mit externen KI-Tools wie Cursor oder Gemini CLI verbunden werden. Das verwandelt die Anwendung in einen kreativen Hub, der nicht als isolierte Lösung fungiert, sondern als zentrales Element in einem Tool-Ökosystem, in dem spezialisierte Funktionen von Drittanbietern eingebunden werden können. Solche Integrationen ermöglichen zum Beispiel automatisierte Code-Generierung, erweiterte Bildbearbeitung, datengetriebene Personalisierung oder erweiterte Nutzungsanalysen, die direkt in das Design- und Prototyping-Environment zurückfließen.
Es ist noch früh: Stitch bleibt ein experimentelles Produkt und es bestehen viele offene Fragen dazu, wie Designer diese Arbeitsweise langfristig annehmen und in bestehende Prozesse integrieren werden. Fragen zur Nachvollziehbarkeit von Entscheidungen, zur Qualität der generierten Vorschläge, zu geistigem Eigentum und zur Kontrolle über Markenidentität sind weiterhin zentral. Gleichzeitig eröffnen sich durch KI-Assistenz Chancen, die kreative Arbeit zu beschleunigen, neue Ideen schneller zu validieren und gestalterische Experimente in größerem Maßstab durchzuführen. Entscheidend wird sein, wie gut Tools wie Stitch in bestehende Design- und Entwicklungsworkflows eingebettet werden können — inklusive Versionskontrolle, Accessibility-Checks, Performance-Optimierung und teamübergreifender Zusammenarbeit.
Die Richtung ist jedoch klar: Die Zukunft des UI-Designs könnte weniger strukturiert beginnen als bisher. Statt starrer Layouts steht die Intention, die Stimmung und die Nutzererfahrung am Anfang. KI-gestützte Systeme helfen dabei, diese abstrakten Vorgaben in konkrete, nutzbare Interfaces zu übersetzen und so den kreativen Prozess zu beschleunigen. Für Designer bedeutet das eine Verschiebung hin zu stärker konzeptioneller Arbeit, kombiniert mit einem verstärkten Fokus auf Governance, Designsysteme und interdisziplinäre Zusammenarbeit.
Vielleicht beginnt die Gestaltung künftig wirklich mit einer „Vibe“-Vorgabe — einem Gefühl — und überlässt der KI die Aufgabe, die Details herauszuarbeiten. Stitch zeigt, wie solche Ansätze aussehen können: eine Kombination aus konversationeller KI, einem unendlichen Arbeitsraum, Agenten, die Projekte begleiten, und offenen Integrationen, die das Tool in ein größeres Produktions-Ökosystem einbinden. In dieser Kombination liegt das Potenzial, Konzepte schneller zu explorieren, Prototypen realistischer zu machen und Designentscheidungen fundierter zu treffen — ohne den kreativen Kern der menschlichen Gestalterinnen und Gestalter zu ersetzen.
Kommentar hinterlassen