Microsoft verstärkt das interne Training von KI-Modellen

Microsoft verstärkt das interne Training von KI-Modellen

0 Kommentare

3 Minuten

Microsoft verstärkt das interne Training von KI-Modellen

Microsoft hat einen klaren Schritt in Richtung eigener Frontier-KI-Modelle unternommen und angekündigt, erheblich in die Rechenkapazität zu investieren, die nötig ist, um das Modelltraining zu skalieren. Die ersten internen Modelle von Microsoft AI wurden kürzlich vorgestellt, doch laut der Führung sind diese ersten Bemühungen nur der Anfang, während das Unternehmen seine Vor-Ort- und Cloud-Trainingscluster erweitern will.

Führung und Strategie

Mustafa Suleyman, Leiter von Microsoft AI, teilte den Mitarbeitenden mit, dass das Unternehmen die Fähigkeit besitzen wolle, erstklassige Modelle unterschiedlicher Größe selbst zu trainieren und zugleich pragmatisch externe Modelle dort zu nutzen, wo dies sinnvoll ist. Er wies darauf hin, dass das MAI-1-Preview auf etwa 15.000 H100-GPUs trainiert wurde — ein im Vergleich zu den künftigen Ambitionen relativ kleines Cluster. Suleyman ergänzte, Microsoft plane, Cluster zu bauen, die sechs- bis zehnmal größer sind, um mit den führenden Anstrengungen von Meta, Google und xAI konkurrieren zu können.

Microsoft-CEO Satya Nadella bekräftigte den Vorstoß zu interner Modellkompetenz und betonte das Ziel, produktorientierte, modellgetriebene Lösungen zu schaffen. Er hob zudem einen Multi-Model-Ansatz für die Produktintegration hervor und nannte GitHub Copilot als Beispiel dafür, wie sich verschiedene Modellquellen kombinieren lassen, um Entwicklerinnen und Entwicklern starke Erfahrungen zu bieten.

Produktfunktionen und Integrationen

Das Unternehmen plant, eigene Foundation- und Frontier-Modelle in Produktlinien einzubinden und gleichzeitig Partner‑Modelle zu integrieren, wenn diese Vorteile bieten. Berichten zufolge wird Microsoft 365 Copilot bald teilweise durch Modelle von Anthropic unterstützt, nachdem interne Benchmarks gezeigt haben, dass Anthropic bei Aufgaben in Excel und PowerPoint stark abgeschnitten hat. Dieser hybride Ansatz zielt darauf ab, Produktivitätsfunktionen, kontextbewusste Assistenz und Enterprise-Sicherheit zu verbessern.

Vergleiche und Vorteile

Der Aufbau größerer interner Cluster gibt Microsoft mehr Kontrolle über Modellarchitektur, Feinabstimmung, Daten‑Governance und Latenz für Unternehmenskunden. Im Vergleich zur ausschließlichen Nutzung Drittanbieter‑Modelle kann das Besitzen von Trainingsinfrastruktur Abhängigkeitsrisiken verringern und die Optimierung für Microsoft‑spezifische Produktabläufe ermöglichen.

Einsatzbereiche und Marktrelevanz

Die ausgebaute Trainingskapazität unterstützt fortgeschrittene Anwendungsfälle wie großflächiges Dokumentenverständnis, Echtzeit‑Coding‑Assistenz, Enterprise‑Copilot‑Funktionen und maßgeschneiderte Modelle für Branchenvertikale. In einem wettbewerbsintensiven Markt, in dem Rechenleistung (z. B. H100‑GPUs) und Modellvielfalt zählen, signalisiert Microsofts Investition eine strategische Wette auf die Kombination interner Modelle, Partner‑Modelle wie Anthropic und OpenAI sowie hybride Deployments, um differenzierte KI‑Erlebnisse zu liefern.

Quelle: theverge

Kommentare

Kommentar hinterlassen