8 Minuten
Wer hat wirklich für Tilly Norwood bezahlt?
Die Geschichte von Tilly Norwood — der KI-Schauspielerin, die in Hollywood und im britischen Bildschirmsektor eine breite Debatte ausgelöst hat — bekommt eine neue Wendung. Eline Van Der Velden, die Technologin hinter dem Projekt, hat öffentlich klargestellt, dass Mittel des British Film Institute (BFI) nicht zur Entwicklung des Avatars verwendet wurden. Sie erklärt, dass die Arbeit stattdessen über eine separate Gesellschaft, Xicioa, sowie durch persönliche Investitionen finanziert wurde, während Particle6 — ihr früheres Unternehmen — eine eigenständige BFI-Förderung erhielt, die auf internationales Wachstum abzielte.
Diese Unterscheidung ist relevant. Als die Geschichte zuerst öffentlich wurde, befürchteten viele Schauspielerinnen und Schauspieler sowie Stimmen aus der Branche, dass öffentliche Gelder für Technologien genutzt werden könnten, die Darstellende verdrängen — insbesondere solche in frühen Karrierephasen. Die Debatte erinnert an frühere Kontroversen wie die digitale Wiederbelebung verstorbener Darsteller in kommerziellen Filmprojekten und die kontroverse Aufnahme synthetischer Bildnisse in Werbung und Unterhaltung.
Van Der Velden erklärte, dass der £120.000 schwere Zuschuss aus dem UK Global Screen Fund an Particle6 (verliehen im November 2023) ausdrücklich der internationalen Geschäftsentwicklung diente — der Teilnahme an Auslandsmärkten, dem Erwerb von IP-Rechten und der Einstellung von Mitarbeitenden für internationales Outreach — und nicht der Schaffung von KI-Talenten. Das BFI bestätigte, dass die Förderung an Particle6 getrennt von der späteren Gründung von Xicioa und dem öffentlichen Launch von Tilly Norwood Mitte 2025 vergeben wurde.
Branchenausblick und warum das wichtig ist
KI-Schauspieler und virtuelle Influencer sind Teil eines wachsenden Trends in der Unterhaltungs- und Medienbranche. Studios, Produktionsfirmen und Werbeagenturen experimentieren zunehmend mit synthetischen Darstellern — sowohl in Social-Media-Kampagnen als auch zur Promotion von Serien und Filmen. Die wirtschaftlichen Anreize reichen von skalierbarem Marketing über markenkonforme 24/7-Präsenzen bis hin zu neuen Erzählformaten, die mit rein digitalen Talenten erst möglich werden.
Die politischen und ethischen Dimensionen verschärfen sich jedoch, sobald öffentliche Institutionen oder kulturelle Einrichtungen in die Finanzierung eingebunden erscheinen. Der Juni-Bericht 2025 des BFI mit dem Titel „AI in the Screen Sector: Perspectives and Paths Forward“ plädiert für eine ethische und transparente Integration von KI — und diese Leitlinien sind mittlerweile zentral für die laufende Debatte über Governance, Förderpolitik und öffentliche Rechenschaftspflicht.

Vergleicht man den aktuellen Fall mit früheren Branchenzeiten, entstehen Parallelen: die digitale Rekonstruktion verstorbener Schauspieler in großen Blockbustern, Richtlinienänderungen bei Technologieunternehmen, die KI-generierte Ähnlichkeiten von Persönlichkeiten des öffentlichen Lebens einschränken, und die wiederkehrende Forderung nach klareren Likeness-Rechten. Jede dieser Episoden hat die Branche dazu gezwungen, Innovation gegen die Rechte und die Arbeitsplatzsicherheit von Künstlerinnen und Künstlern abzuwägen.
Hinter den Kulissen hat sich die Positionierung der beteiligten Firmen deutlich verändert: Particle6 (gegründet 2015 und unterstützt von Channel 4 sowie Creative UK) präsentiert sich inzwischen als AI-Produktionsfirma, während Xicioa als AI-Talent-Studio vermarktet wird. Van Der Velden betont, dass das geistige Eigentum (IP) an Tilly Norwood Xicioa zugeordnet ist, während Particle6 vertragliche Leistungen für das Projekt erbracht habe.
Der Unterschied zwischen staatlich geförderter Expansion und privat finanzierter Produktentwicklung ist nicht allein eine buchhalterische Feinheit — er betrifft Transparenz, Rechenschaft und das öffentliche Vertrauen in Förderinstitutionen. Historiker und Branchenbeobachter weisen darauf hin, dass die Herkunft von Mitteln darüber entscheidet, welche öffentlichen Erwartungen bestehen und welche Rechenschaftspflichten gelten.
„Die Unterscheidung zwischen grant-finanzierter Expansion und privat finanzierter Produktentwicklung ist entscheidend für Transparenz“, sagt der Filmhistoriker Marko Jensen. „Publikum und Darstellende brauchen klare Verantwortlichkeitslinien, wenn neue Technologien in die Produktionskette gelangen.“
Kritiker fordern deshalb klarere Industriestandards: Wer besitzt einen AI-Darsteller? Wie sind Likeness- und Persönlichkeitsrechte zu schützen? Welche vertraglichen und technischen Safeguards schützen menschliche Schauspielerinnen und Schauspieler? Befürworter synthetischer Talente argumentieren, dass diese neue kreative Möglichkeiten eröffnen — von innovativen Erzählformen über kosteneffiziente Vermarktung bis hin zu jederzeit verfügbaren virtuellen Repräsentantinnen — wenn entsprechende Regelungen vorhanden sind.
Tilly Norwood fungiert als Kristallisationspunkt für Fragen an der Schnittstelle von Kunst, Technologie und öffentlicher Förderung. Anstatt eine einfache Antwort auf die Frage ‚wer hat wofür bezahlt‘ zu liefern, zeigt der Fall, wie schnell Startups umschwenken, wie IP zwischen Gesellschaften transferiert wird und warum Transparenz für das öffentliche Vertrauen unerlässlich ist.
Unabhängig davon, ob man KI-Darsteller als kreative Werkzeuge oder als existenzielle Bedrohung für Bühnenberufe betrachtet, liefert die Geschichte von Tilly Norwood ein lehrreiches Fallbeispiel zu Governance, Ethik und zur Zukunft des filmischen Erzählens. Sie wirft Fragen auf, die die Branche, Gesetzgeber und Förderinstitutionen in nächster Zeit beantworten müssen.
Technische Details sind für eine fundierte Debatte wichtig: Die Erstellung fotorealistischer Avatare basiert typischerweise auf vielschichtigen Pipelines, die 3D-Modellierung, Performance-Capture, neuronale Rendering-Verfahren und generative Modelle kombinieren. Trainierte KI-Modelle benötigen Trainingsdaten — Fotografien, Videoaufnahmen und gegebenenfalls gesprochene Samples — sowie klare Lizenzrechte für die Nutzung dieser Daten. Ohne transparente Dokumentation der Datenherkunft und der Trainingsprozesse bleiben Zulässigkeit und Verantwortlichkeit schwer überprüfbar.
Aus rechtlicher Perspektive stehen mehrere Felder zur Diskussion: Urheberrecht, Persönlichkeitsrechte, Vertragsrecht und Datenschutz. In Europa und im Vereinigten Königreich kommen zusätzlich regulatorische Vorgaben zur Anwendung, die sich mit dem Schutz biometrischer Daten, dem Recht am eigenen Bild und mit allgemeinen Prinzipien zur Fairness von automatisierten Systemen befassen. Wer für eine KI-Stimme, ein digitales Gesicht oder eine charakteristische Performance zahlt und welche Rechte daran verknüpft sind, lässt sich oft erst nach Einsicht in Verträge und Finanzflüsse vollständig klären.
Ökonomisch betrachtet verändert synthetische Darstellertechnologie Geschäftsmodelle: Produktionskosten können an manchen Stellen sinken, Marketingkampagnen lassen sich skalieren, und IP-Streams können neu monetarisiert werden. Gleichzeitig entstehen Unsicherheiten am Arbeitsmarkt für Schauspielerinnen und Schauspieler, Stuntleute, Sprecherinnen und Sprecher sowie Make-up‑ und Kostümbildnerinnen und -bildner. Gewerkschaften, Branchenverbände und Förderinstitutionen müssen abwägen, wie sie Umschulungen, faire Vergütung und Schutzmechanismen sicherstellen.
Die Rolle öffentlicher Förderer ist dabei besonders heikel. Wenn Kulturförderungen indirekt oder direkt Technologien unterstützen, die bestehende Berufsfelder verändern, steigt der gesellschaftliche Anspruch an Nachvollziehbarkeit, Dialog und Mitbestimmung. Das BFI-Beispiel zeigt, wie wichtig es ist, Förderrichtlinien klar zu kommunizieren und etwaige Interessenkonflikte offenzulegen.
Ein pragmatischer Weg könnte in mehreren Maßnahmen bestehen:
- Transparenzpflichten bei Förderungen: Offenlegung, welche Aktivitäten durch öffentliche Gelder subventioniert werden und wie diese Gelder verwendet werden.
- Klare Lizenz- und Vergütungsmechanismen: Wenn ein menschliches Abbild oder eine Stimme Grundlage für ein KI-Modell ist, sollten Rechteinhaberinnen und Rechteinhaber sowie betroffene Darstellende fair beteiligt werden.
- Technische Audits und Dokumentation: Nachvollziehbare Aufzeichnungen zu Trainingsdaten, Modellarchitekturen und Pipeline-Prozessen, um Missbrauch zu verhindern und Haftungsfragen zu klären.
- Branchenweite Standards: Definitionen, wer als Eigentümer eines KI-Darstellers gilt, und welche vertraglichen Mindeststandards sicherstellen, dass menschliche Jobs nicht unangemessen ersetzt werden.
Solche Maßnahmen verlangen Kooperation zwischen Industrie, Förderinstitutionen, Gewerkschaften, Rechtsexpertinnen und -experten sowie Technologieanbietern. Nur ein multilateraler Ansatz kann ein Gleichgewicht zwischen Innovationsförderung und dem Schutz künstlerischer Arbeitsplätze schaffen.
Ein weiterer Punkt ist die öffentliche Wahrnehmung: Transparente Kommunikation über die Herkunft von Mitteln, die Nutzung von Fördergeldern und die Eigentumsverhältnisse kann das Vertrauen stärken. In Fällen wie Tilly Norwood ist nicht nur juristische Klarheit wichtig, sondern auch narrativ glaubwürdige Kommunikation — etwa, wenn Förderer oder Firmen erklären, welche ethischen Grundprinzipien bei der Entwicklung beachtet wurden.
Abschließend bleibt eine Reihe offener Fragen: Wie werden Verträge für KI-basierte Performances standardisiert? Welche Rolle spielen Gewerkschaften bei der Aushandlung neuer Vergütungsmodelle? Wie lassen sich Trainingsdaten fair und datenschutzgerecht beschaffen? Die Antworten werden Auswirkungen auf die langfristige Rolle von KI in Film, Fernsehen und Werbung haben.
Ein kurzer Hinweis: Viele Fragen zu Verträgen, Einwilligungen und Urheberrecht sind weiterhin ungeklärt — Bereiche, in denen Regulierungsbehörden und die Branche voraussichtlich zeitnah tätig werden müssen. Die Debatte um Tilly Norwood ist deshalb nicht nur ein Einzelfall, sondern ein Prüfstein für die künftige Ausgestaltung von Technologieeinsatz in der Kreativwirtschaft.
Quelle: deadline
Kommentar hinterlassen