3 Minuten
Microsoft setzt neue Maßstäbe für das Finetuning von großen Sprachmodellen mit innovativen Updates in der Azure AI Suite. Die neuesten Verbesserungen am Azure AI Foundry-Portal und an den APIs sowie SDKs des Azure OpenAI Service unterstützen jetzt die Direct Preference Optimization (DPO) für GPT-4.1 und GPT-4.1-mini.
Was bedeutet Direct Preference Optimization (DPO) und warum ist es wichtig?
Die Direct Preference Optimization ist eine fortschrittliche Technik zur Modellanpassung, bei der menschliche Präferenzen zur Feinabstimmung von künstlicher Intelligenz eingesetzt werden – anstelle der bislang dominierenden Methode Reinforcement Learning with Human Feedback (RLHF). Durch den Vergleich bevorzugter und abgelehnter KI-Antworten passt DPO die Gewichtungen des Modells gezielt an, um die Ergebnisse stärker auf Nutzungsanforderungen und Markenidentität auszurichten. Anders als RLHF ist DPO wesentlich ressourcenschonender und schneller, erreicht aber dennoch eine hohe Genauigkeit in der Modellausrichtung.
Diese Innovation ermöglicht es Unternehmen, KI-Modelle gezielt an ihren individuellen Sprachstil, ihre Sicherheitsanforderungen und Markenrichtlinien anzupassen, während Trainingszeiten und Kosten deutlich reduziert werden.
Globale Erweiterung des Azure AI Trainings in neue Regionen
Zudem erweitert Microsoft die globale Reichweite der Azure AI Trainingsfunktion um zwölf weitere Regionen, darunter Ost-USA, Westeuropa, UK South und die Schweiz Nord. Trotz dieser erweiterten Verfügbarkeit bleibt das Global Training Feature im öffentlichen Vorschau-Modus. Die Ausweitung kommt zu einem günstigen Zeitpunkt, da Datensouveränität – insbesondere in Europa – aufgrund strikter Vorschriften für Datenschutz und Compliance immer wichtiger wird.
Zukünftige Funktionen und Innovationen
Anstehende Updates versprechen zusätzliche Features wie Pause- und Fortsetzungsoptionen beim Finetuning sowie Unterstützung für kontinuierliche Modelloptimierung. Darüber hinaus plant Microsoft, das neue GPT-4.1-nano in den erweiterten Azure-Regionen bereitzustellen – für noch mehr Flexibilität und Leistung bei der Entwicklung maßgeschneiderter KI-Lösungen.
Neue Responses API für intelligente KI-Integrationen
Entwickler profitieren nun von der neuen Responses API, die eine nahtlose Integration individuell angepasster Modelle in Anwendungen und Geschäftsprozesse erlaubt. Die API eignet sich besonders für agentenbasierte und mehrstufige Gespräche, behält langen Kontext bei und ermöglicht effizienten Aufruf von Tools – alles im Hintergrund orchestriert.
Zusätzlich verfolgt die Responses API den Gesprächsverlauf, zeigt die Modellbegründung transparent an, liefert Schritt-für-Schritt-Statusupdates während der Generierung und unterstützt parallele Verarbeitung. Sie ist vollständig kompatibel mit zahlreichen KI-Tools – von Echtzeitsuche im Internet bis zur Dokumentenrecherche.
Markteinfluss und Anwendungsbereiche
Dank dieser Entwicklungen positioniert sich Azure AI als flexible, globale Plattform für sicheres und skalierbares KI-Development. Das neue DPO-basierte Finetuning, die regionale Expansion und die entwicklerorientierten APIs ermöglichen Unternehmen sämtlicher Branchen, KI-Lösungen zu erstellen, die sowohl hochgradig personalisiert als auch konform mit aktuellen Datenschutzrichtlinien sind.
Für Unternehmen, die Conversational AI im Kundenservice, in der Inhaltserstellung oder der Kundeninteraktion einsetzen möchten, bietet das aktualisierte Azure AI Toolkit einen neuen Standard für Effizienz, Flexibilität und Datenschutz.
Quelle: neowin
Kommentare