6 Minuten
Hast du schon einmal einen Livestream in einem lauten Café geschaut und dir gewünscht, die Welt einfach stummzuschalten? Samsung hat diesen Wunsch still und leise zur Realität gemacht. Mit einer Kombination aus praktischer Bedienung und integrierter KI-Funktionalität adressiert das Unternehmen ein alltägliches Problem: störende Hintergrundgeräusche während des Live-Streamings. Diese Verbesserung richtet sich nicht nur an Technik-Enthusiasten, sondern vor allem an Pendler, Gelegenheitszuschauer und Menschen, die Inhalte unterwegs konsumieren.
Audio Eraser sorgte erstmals für Aufsehen, als die Funktion mit One UI 7.0 auf der Galaxy S25-Serie debütierte und als KI-gestützter Helfer zum Nachbearbeiten von Videoclips in der Galerie fungierte. Tippe auf die AI-Schaltfläche, und unerwünschte Hintergrundgeräusche – Verkehrslärm, Gespräche, ein bellender Hund – konnten aus aufgezeichnetem Material entfernt werden. Das war praktisch, nützlich und dennoch dezent implementiert: eine Funktion, die im Alltag half, ohne laut angepriesen zu werden. Technisch basierte das Feature auf Modellen zur Geräuschtrennung und -unterdrückung, die gezielt Störquellen analysierten und Sprache sowie relevante Audioanteile weitgehend unangetastet ließen.
Springen wir zur One UI 8.5 und zur Galaxy S26-Familie: Das Feature hat seinen Käfig in der Galerie verlassen und ist nun in Live-Streams innerhalb von Drittanbieter-Apps nutzbar – YouTube, Netflix, Instagram und mehr. Samsung behauptet, dass jede Live-Übertragung damit bearbeitet werden kann. Das ist nicht nur ein Weg, die Reichweite der Funktionalität zu vergrößern, sondern ändert auch den Nutzungszusammenhang grundlegend. Audio Eraser ist nicht länger ein reines Tool zur Postproduktion, sondern ein Live-Betrachtungswerkzeug, das sich während der Wiedergabe aktivieren lässt und unmittelbar die Hörbarkeit verbessert. Dadurch verschiebt sich die Rolle von Audio-Erkennung und -Bearbeitung hin zu Echtzeit-Audio-Optimierung für Endnutzer.
Die Bedienung ist fast ärgerlich einfach: Während eines Livestreams ziehst du die Statusleiste nach unten und tippst im Schnellpanel auf den Audio Eraser-Schalter. Kein App-Wechsel, kein Anhalten des Streams. Die Funktion verhält sich in puncto Zugänglichkeit und Komfort ähnlich wie Live-Captions – schnell zu aktivieren und so unauffällig, dass man sie bald vergisst, weil sie einfach funktioniert. Praktisch bedeutet das: niedrige Einstiegshürde, minimaler Bedienaufwand und sofortiger Nutzen. Für viele Anwender besteht der Mehrwert darin, dass keine speziellen Kenntnisse zu Audiobearbeitung nötig sind; die KI übernimmt die komplexe Analyse und Filterung.

Dieses Update reframt Audio Eraser von einem Werkzeug für Editoren zu einer Alltagsfunktion für Gelegenheitszuschauer und Pendler. Praktisch bedeutet das: Wenn du unterwegs bist oder in einer lauten Umgebung Inhalte konsumierst, kannst du mit einem einfachen Schalter die Verständlichkeit verbessern, ohne in eine Nachbearbeitung gehen zu müssen. Die Verlagerung hin zu Live-Nutzbarkeit betont Samsungs Strategie, KI-Funktionen tief in die Systemebene von One UI zu integrieren, sodass sie in verschiedensten Apps und Kontexten nutzbar werden—ein Schritt, der langfristig die Erwartungshaltung an mobile Betriebssysteme verändern kann.
Es gab anfangs einige Verwirrung bezüglich der Hardware-Grenzen. Zunächst wurden die erweiterten Fähigkeiten von Audio Eraser mit Qualcomms Snapdragon 8 Elite in Verbindung gebracht. Samsung hat die Funktion jedoch per One UI-Updates auch auf andere Geräte, einschließlich Exynos-basierter Modelle, ausgerollt. Praktisch bedeutet das: Das S26 und S26+ werden in den meisten Märkten mit dem Exynos 2600 ausgeliefert und in anderen Märkten mit dem Snapdragon 8 Elite 5, während das S26 Ultra global mit dem Snapdragon-Chip kommt. Unabhängig vom zugrundeliegenden SoC ist die verbesserte Audio Eraser-Funktion über Software-Updates auf der Gerätefamilie verfügbar. Das zeigt, dass die wichtigste technische Voraussetzung nicht unbedingt ein einzelner High-End-Chip ist, sondern eine Kombination aus optimierten Modellen, On-Device-Beschleunigung, gutem Energiemanagement und effizienter Integration in das Betriebssystem.
Warum das über reine Bequemlichkeit hinaus relevant ist, verdient einen Moment der Betrachtung. Das Mediennutzungsverhalten verschiebt sich eindeutig in Richtung Live- und flüchtiger Inhalte: Kurzvideos, Livestreams, interaktive Shows. Menschen sehen Streams an belebten Orten, in öffentlichen Verkehrsmitteln oder beim Multitasking. Ein Schalter, der Audio in Echtzeit säubert, reduziert Reibung und erhöht die Zugänglichkeit ohne technische Vorkenntnisse. Außerdem verbessert es die Nutzererfahrung für Hörgeschädigte oder bei eingeschränkten Lautsprechern, da störende Frequenzen gezielt vermindert werden können. Gleichzeitig wirft das Feature Fragen zur Verarbeitungsweise von Audiodaten auf: Erfolgt die Bearbeitung vollständig lokal auf dem Gerät (On-Device), oder werden Teile der Analyse in die Cloud ausgelagert? Samsung kommuniziert primär On-Device-Verarbeitung, was Datenschutzvorteile mit sich bringt, da weniger Audioinhalte das Gerät verlassen müssen. Dennoch bleibt zu beobachten, wie sich Latenz, Performance und Akkulaufzeit in realen Nutzungsszenarien auswirken, insbesondere bei langen Live-Streams oder energieintensiven Netzwerkbedingungen.
Technisch basiert die Funktion auf Modellen zur Audiotrennung (Source Separation) und zur Rauschunterdrückung (Noise Reduction), kombiniert mit Sprachfokus-Algorithmen (Speech Enhancement). Moderne neuronale Netze können mehrere Tonquellen unterscheiden: Sprache, Musik, Umgebungsgeräusche. Die Herausforderung liegt darin, relevante Audiosignale zu erhalten, ohne Artefakte zu erzeugen oder die natürliche Klangfarbe zu verfälschen. Gute Implementationen nutzen adaptive Filter, die sich dynamisch an wechselnde Klangumgebungen anpassen. Darüber hinaus spielt die Latenz eine wichtige Rolle: Für Live-Streaming-Anwendungen muss die Verarbeitung nahezu verzögerungsfrei ablaufen, damit Bild- und Tonspur synchron bleiben und der Zuschauer keine asynchrone Wahrnehmung erlebt. Samsung scheint hier einen Kompromiss gefunden zu haben, der praktikabel ist: spürbare Reduktion von Störgeräuschen bei minimaler Verzögerung.
Erwarte künftig mehr dieser leisen, intelligenten Verbesserungen – Funktionen, die nicht mit Trompeten angekündigt werden, die man aber beim ersten Mal bemerkt, wenn sie dich vor Chaos im Hintergrund und einem verpassten Pointen-Moment retten. Weitere Entwicklungen könnten erweiterte Nutzungsoptionen bieten, etwa einstellbare Filterstufen (leicht, mittel, streng), die Unterscheidung zwischen musikalischen und nicht-musikalischen Störgeräuschen oder sogar App-spezifische Profile für unterschiedliche Streaming-Dienste. Ebenso denkbar sind API-Erweiterungen für Entwickler, die erlauben, Audio Eraser selektiv in eigene Apps zu integrieren oder zusätzliche Steuerungs- und Monitoring-Daten bereitzustellen. Für Unternehmen, die barrierefreie Inhalte anbieten möchten, stellt die Funktion eine einfache Möglichkeit dar, Live-Streams zugänglicher zu machen.
Quelle: sammobile
Kommentar hinterlassen