9 Minuten
Wissenschaftlerinnen und Wissenschaftler von Skoltech haben ein mathematisches Modell des Gedächtnisses entwickelt, das zu einer überraschenden Erkenntnis führt: Ein konzeptueller Raum mit sieben Dimensionen könnte die Anzahl eindeutig unterscheidbarer Erinnerungen maximieren. Die Studie, erschienen in Scientific Reports, beschreibt Erinnerungen als sich entwickelnde abstrakte Objekte und zeigt, dass eine bestimmte Anzahl sensorisch-ähnlicher Merkmale optimal für Speicherung und Unterscheidung ist.
Was das Modell abbildet: Engramme im konzeptuellen Raum
Das Forschungsteam knüpft an eine lange Tradition in der Kognitionswissenschaft und der mathematischen Neurowissenschaft an, die Gedächtnisspuren – sogenannte Engramme – als elementare Informationseinheiten begreift. Ein Engram wird als dünn besetzte neuronale Assemblage modelliert, die über verschiedene Hirnregionen verteilt ist; sein "Inhalt" ist ein abstraktes Objekt, das durch mehrere Merkmale beschrieben wird. Beispielsweise enthält die mentale Repräsentation einer Banane visuelle, olfaktorische, gustatorische, taktile und kontextuelle Attribute. Diese Sinnes- oder Merkmal-Kanäle legen die Dimensionalität eines konzeptuellen Raums fest, in dem alle Engramme existieren und miteinander interagieren.
Im Modell sind Engramme keine starren Einheiten: Sie schärfen sich oder verwaschen, je nachdem wie häufig sie durch sensorische Eingaben reaktiviert werden. Wiederholte Aktivierung entspricht Lernen und Konsolidierung; ausbleibende Aktivierung führt zu Vergessen. Die Autorinnen und Autoren untersuchten die stationäre Verteilung von Engrammen, die nach vielen Interaktionen mit Reizen entsteht, und analysierten, wie viele eindeutig unterscheidbare Konzepte diese Verteilung tragen kann, wenn die Anzahl der Merkmalsdimensionen variiert wird.
Kernaussage: Die Kapazität erreicht ihr Maximum bei sieben Dimensionen
Die mathematische Analyse liefert ein bemerkenswertes Ergebnis: Die Zahl zuverlässig unterscheidbarer Engramme im stationären Zustand erreicht ein Maximum, wenn jedes Konzept durch sieben unabhängige Merkmale charakterisiert ist. Anders gesagt optimiert ein sieben-dimensionaler konzeptueller Raum in diesem Modell die Gedächtniskapazität – vergleichbar mit der Vorstellung, sieben Sinne statt fünf zu haben. Die Forschenden betonen, dass dieses Optimum über einen weiten Bereich von Modellannahmen robust bleibt, etwa hinsichtlich der Statistik der Reize oder der Geometrie der konzeptuellen Repräsentationen.

Professor Nikolay Brilliantov von Skoltech AI, Mitautor der Studie, fasst die Bedeutung so zusammen: „Unsere Analyse zeigt, dass bei einer Codierung von Konzepten mit sieben charakteristischen Merkmalen die Anzahl der unterscheidbaren Items am höchsten ist. Das ist ein theoretisches Ergebnis, das erklären helfen könnte, wie Sinneskanäle in künstlichen Systemen sinnvoll organisiert werden – und vielleicht, spekulativ, auch in biologischen Systemen.“
Die Forschenden weisen auf eine wichtige Modell-Einschränkung hin: Cluster ähnlicher Engramme, die um ein gemeinsames Zentrum gruppiert sind, werden bei der Kapazitätsberechnung als ein einziges Konzept behandelt. Das beeinflusst, wie "eindeutig" ein Gedächtniseintrag gezählt wird und ist entscheidend für die Interpretation der Ergebnisse.
Methodik und wissenschaftlicher Kontext
Die Studie kombiniert mathematische Methoden aus frühen Theorien des Gedächtnisses mit Techniken der statistischen Physik. Anstatt ausschließlich auf neuronale Netzsimulationen zu setzen, leiteten die Forschenden analytische Ausdrücke her, die beschreiben, wie Ensembles von Engrammen zu einer reifen, stationären Verteilung konvergieren. Durch das Durchforsten verschiedener Dimensionalitäten des konzeptuellen Raums und das Zählen der stabilen, attraktorähnlichen Engram-Cluster im Gleichgewicht identifizierten sie den Kapazitätsgipfel bei sieben Dimensionen.
Diese analytische Perspektive ergänzt experimentelle Neurowissenschaften und rechnerische Modelle, weil sie klare Vorhersagen macht: Das Hinzufügen von Merkmal-Kanälen – etwa neue Sensortypen oder Modalitäten – sollte die Gedächtniskapazität eines Systems auf vorhersagbare Weise verändern. Das ist eine nützliche Brücke zwischen Theorie und experimenteller Prüfung.
Warum analytische Modelle wichtig sind
Analytische Modelle erlauben oft tiefere Einsichten als reine Simulationen: Sie zeigen Abhängigkeiten zwischen Parametern, die ansonsten verborgen bleiben würden, und ermöglichen die Formulierung robuster Hypothesen. In diesem Fall eröffnet die Herangehensweise Fragen zur optimalen Architektur von Repräsentationsräumen in Gehirn und Maschine – und liefert messbare Kriterien, anhand derer man Hypothesen empirisch testen kann.
Praktische Implikationen für KI, Robotik und Neurowissenschaft
Wenn sich das Ergebnis über das vereinfachte Modell hinaus verallgemeinern lässt, hat es konkrete Anwendungen:
- Robotik und AI: Designer von verkörperten Agenten und multimodalen Modellen könnten das Lernen und Abrufen verbessern, indem sie eine breitere Palette orthogonaler Sensoren integrieren (z. B. Magnetfeld-, Temperatur- oder Vibrationssensoren), die unabhängige Achsen im Repräsentationsraum liefern.
- Maschinelles Lernen: Reichhaltigere multimodale Embeddings mit gezielt gewählten, unabhängigen Kanälen könnten die Fähigkeit eines Modells erhöhen, Konzepte zu speichern und zu entwirren, ohne die Netzgröße drastisch zu vergrößern.
- Neurowissenschaft und Evolution: Das Ergebnis liefert Hypothesen für vergleichende Studien der Sinnesökologie und Gedächtniskapazität verschiedener Arten und lädt zu kontrollierten Experimenten ein, die prüfen, ob das Hinzufügen künstlicher Modalitäten die Gedächtnisleistung verändert.
Gleichzeitig warnen die Autorinnen und Autoren davor, Dimensionen des Modells zu direkt mit biologischen "Sinnen" gleichzusetzen. Evolutionäre, entwicklungsbedingte und metabolische Zwänge formen Sinnesysteme, die Eingaben in stark korrelierten, hierarchischen Mustern organisieren – anders als idealisierte unabhängige Merkmale. Diese Realitäten schränken die direkte Übertragbarkeit der sieben-Dimensionen-These auf biologische Systeme ein.
Beispiele für konkrete Anwendungen
Stellen Sie sich einen Serviceroboter vor, dessen Wahrnehmung neben Kamera und Mikrofon um Magnetfeld- und Temperaturmesser erweitert wird. Wenn diese Sensoren wirklich unabhängige, informative Achsen liefern, könnte der Roboter in der Lage sein, Objekte besser auseinanderzuhalten – nicht nur durch mehr Daten, sondern durch diversifizierte, nicht-redundante Merkmalsachsen. Solche Designs sind kosteneffizienter, wenn sie gezielt auf orthogonale Information zielen statt einfach mehr identische Sensoren hinzuzufügen.
Zukünftige Experimente und empirische Tests
Die nächsten Schritte sind experimentelle Prüfungen und ingenieurtechnische Prototypen. In der Neurowissenschaft könnten Forschende untersuchen, ob das Augmentieren sensorischer Eingänge (etwa durch tragbare Magnetfeldsensoren für Menschen) messbare Veränderungen in der Gedächtnisunterscheidung hervorruft, die mit den Modellvorhersagen übereinstimmen. In der KI wären kontrollierte Versuche denkbar, bei denen Agenten mit derselben Architektur auf identischen Aufgaben trainiert werden, jedoch mit unterschiedlicher Anzahl und Unabhängigkeit von Modalitäten.
Solche Experimente sollten mehrere Aspekte berücksichtigen: Wie stark sind neue Kanäle wirklich unabhängig? Verändern sie die statistische Struktur der Eingaben? Und wie interagiert die Netzwerkarchitektur mit der Anzahl von Merkmalen – ist das Optimum von sieben Dimensionen unabhängig vom Modelltyp (z. B. rekurrent vs. transformatorbasiert)?
Praktische Studien, die man jetzt durchführen kann
- Behaviorale Versuche mit Sensor-Augmentation bei Menschen, mit prä- und post-Tests zur Gedächtnisdiskrimination.
- Ablationsstudien in multimodalen ML-Systemen, bei denen einzelne Kanäle systematisch entfernt oder hinzugefügt werden, um den Einfluss auf Speicherkapazität und Generalisierung zu messen.
- Vergleichende Untersuchung verschiedener Spezies oder Robotikplattformen, um ökologische und technische Einschränkungen zu kartieren.
Expertenstimme: Was Forscherinnen und Ingenieure mitnehmen sollten
Dr. Elena Park, Cognitive-AI-Forscherin am Global Cognitive Systems Lab, kommentiert: „Das Skoltech-Ergebnis ist ein hilfreicher Orientierungswert. Es bedeutet nicht, dass die Biologie zwingend genau sieben Sinne haben muss, aber es zeigt, dass die Gedächtniskapazität sensibel auf die Zahl und Unabhängigkeit von Repräsentationsachsen reagiert. Für Entwickler ist die praktische Botschaft klar: Das Hinzufügen gut gewählter, unabhängiger Sensor-Kanäle kann effektiver sein als bloßes Hochskalieren von Modellgröße.“
Diese Einschätzung betont einen pragmatischen Ansatz: Nicht Quantität, sondern Qualität und Orthogonalität der Information bestimmen oft, wie gut ein System differenzieren kann. Das gilt sowohl für biologische Netzwerke als auch für künstliche Embeddings.
Wo die Grenzen der Theorie liegen
Ein mathematisches Optimum ist eine nützliche Leitlinie, aber keine ultimative Wahrheit. Das Modell macht idealisierte Annahmen über Unabhängigkeit von Merkmalen und statistische Eigenschaften von Reizen, die in natürlichen Umgebungen selten exakt zutreffen. Außerdem berücksichtigt es metabolische Kosten, Entwicklungsmechanismen oder die strukturelle Organisation des Cortex nicht im Detail. Diese Faktoren können die optimale Anzahl effektiver Repräsentationsachsen in realen Organismen deutlich verschieben.
Dennoch hat das Modell Wert: Es liefert messbare Hypothesen und ein Framework, um die Wirkung zusätzlicher Modalitäten systematisch zu untersuchen. Selbst wenn das biologische Optimum anders liegt, hilft die Theorie, Experimente zielgerichtet zu planen und technische Systeme effizienter zu gestalten.
In der Praxis wäre ein iterativer Weg sinnvoll: Theoretische Vorhersagen in kontrollierten technischen Systemen prüfen, experimentelle Befunde in biologischen Studien sammeln und dann das Modell schrittweise mit empirischen Parametern verfeinern. So können robuste Aussagen über Gedächtniskapazität, Repräsentationsdimensionalität und pragmatische Designprinzipien entstehen.
Die Skoltech-Arbeit ist ein Beispiel dafür, wie analytische Modelle bestehende Annahmen herausfordern und neue Forschungsfragen generieren: Wie definieren wir „Merkmal“ in einem praktischen Sinn? Welche Arten von Sensoren liefern wirklich orthogonale Informationen? Und auf welche Weise interagieren Repräsentationsdimensionen mit Lernalgorithmen und Speicherdynamiken?
Wer sich mit den Schnittstellen von Neurowissenschaft, Robotik und KI beschäftigt, findet in der Studie konkrete Anknüpfungspunkte: Sie liefert eine messbare Vorhersage (das sieben-dimensionale Optimum) und eine Methodik, um die Abhängigkeit von Kapazität und Dimensionalität zu prüfen. Ob die Zahl sieben in der realen Welt eine zentrale Rolle spielt oder nur ein theoretisch nützlicher Richtwert ist, müssen empirische Arbeiten und technische Experimente nun zeigen.
Am Ende bleibt eine faszinierende Möglichkeit: Durch das bewusste Entwerfen orthogonaler, informativer Sinneskanäle könnten wir Gedächtnissysteme bauen, die effizienter unterscheiden, kompakter lernen und resilienter erinnern. Das ist eine Einladung an Ingenieurinnen und Wissenschaftler gleichermaßen: Testet das Modell, variiert Modalitäten, und findet heraus, welche Kombinationen in eurer Domäne am besten funktionieren.
Quelle: sciencedaily
Kommentar hinterlassen