Tages-Snapshot · 10. Mai 2026

Microsoft baut Foundry breiter aus, während Rivalen bei Modellen und Enterprise-KI zulegen


Microsoft hat Azure AI Foundry in dieser Woche zur klarsten Produktgeschichte gemacht, weil das Unternehmen sowohl die eigene Modellpalette als auch das Angebot darum herum verbreitert hat. Die Plattform bekam OpenAIs GPT-chat-latest (GPT-5.5 Instant) dazu, nahm IBM Granite 4.1, NVIDIA Nemotron Nano Omni und Qwen 3.6-35B-A3B auf und rollte mit GPT-realtime-translate, GPT-realtime-whisper und GPT-realtime-2 drei weitere Modelle über die Realtime API aus. Das ist wichtig, weil Microsofts Enterprise-Argument inzwischen weniger an einem einzelnen Flaggschiffmodell hängt, sondern stärker daran, der Ort zu sein, an dem Unternehmen führende Chat-, Sprach-, Vision- und Realtime-Werkzeuge kombinieren können, ohne Azure zu verlassen.

Der Wettbewerbsvorteil liegt hier in der Flexibilität, aber genau das zeigt auch eine anhaltende Abhängigkeit. Mehrere der Erweiterungen kamen nicht von Microsoft selbst, sondern von OpenAI und anderen Modellanbietern. Das ist gut für die Auswahl der Kunden, bedeutet aber auch, dass das Momentum von Foundry weiter davon abhängt, externe Partner eng einzubinden und deren Updates schnell bereitzustellen.

Microsoft erweitert Azure AI Foundry, bleibt dabei aber auf Partner angewiesen

Gerade darin liegt der eigentliche Kern von Foundrys Positionierung. Microsoft verkauft nicht nur Zugang zu einzelnen Modellen, sondern eine Umgebung, in der sich verschiedene Bausteine für Unternehmensanwendungen zusammenfügen lassen. Je breiter dieses Menü wird, desto attraktiver wird Azure für Teams, die nicht auf einen einzigen Anbieter festgelegt sein wollen.

Gleichzeitig ist diese Offenheit nicht kostenlos. Wenn die stärksten Neuerungen regelmässig von ausserhalb kommen, muss Microsoft zeigen, dass Azure nicht nur ein Regal für fremde Modelle ist, sondern die schnellste und verlässlichste Plattform, um solche Modelle produktiv zu nutzen. Sonst wird aus Flexibilität leicht Austauschbarkeit.

OpenAI drückt tiefer in Sicherheits- und Entwicklerabläufe hinein

OpenAI bewegt sich über allgemeine Chat-Anwendungen hinaus und erhöht damit den Druck auf Microsoft in besonders wertvollen Spezialbereichen. GPT-5.5-Cyber wurde in einer begrenzten Vorschau für geprüfte Cybersecurity-Teams eingeführt und ist so ausgelegt, dass es bei Aufgaben wie Schwachstellenidentifikation, Patch-Validierung und Malware-Analyse freizügiger arbeitet. Zusätzlich hat OpenAI eine Codex Chrome extension gestartet, mit der der Coding-Agent über Browser-Tabs hinweg arbeiten kann.

Die unmittelbare Bedeutung liegt darin, dass sich der Wettbewerb von allgemeinen Assistentenversprechen zu domänenspezifischen Werkzeugen verschiebt, die direkt in Sicherheits- und Entwickler-Workflows sitzen können. Für Unternehmenskunden ist das oft greifbarer, weil sich der Nutzen näher an konkrete Arbeitsschritte und Zuständigkeiten anlehnen lässt.

Für Microsoft hebt das die Messlatte sowohl bei Azure-Sicherheitsangeboten als auch bei Entwicklerwerkzeugen. GitHub Copilot und der breitere Copilot-Stack von Microsoft stehen damit einem Rivalen gegenüber, der sich stärker auf konkrete Einsatzfälle verengt statt nur allgemeine Fähigkeiten zu betonen. Genau das erleichtert in der Regel Kaufentscheidungen im Unternehmen.

Oracle und AWS erhöhen den Druck auf einen vollständigeren KI-Stack

Auch die Cloud-Konkurrenz verschärft das Rennen um Enterprise-KI, statt Microsoft das Spielfeld allein definieren zu lassen. Oracle startete OCI Enterprise AI mit Unterstützung für Grok 4.3 und Nemotron 3 Nano Omni. AWS zeigte mit Amazon Bedrock AgentCore Payments zusammen mit Coinbase und Stripe eine Vorschau darauf, wie KI-Agenten für APIs, Webinhalte, MCP-Server und andere Agenten bezahlen können.

Das sind unterschiedliche Schritte, aber zusammen zeigen sie dieselbe Richtung. Wettbewerber wollen ihre Clouds als vollständige KI-Betriebsumgebungen darstellen und nicht bloss als Schicht für das Hosting von Modellen. Für Microsoft ist das relevant, weil Azure damit ebenso nach Vollständigkeit von Abläufen bewertet wird wie nach dem reinen Zugang zu Modellen.

Wenn Oracle Frontier-Modelle mit dem eigenen Enterprise-Stack koppeln kann und AWS Agenten in Echtzeit Transaktionen ausführen lässt, reicht Azure-Skalierung allein nicht mehr als Antwort. Microsoft muss funktionale Lücken bei Agenten, Werkzeugen und Deployment-Mustern weiter schliessen. Genau deshalb wirkt die Erweiterung von Foundry weniger wie ein Katalog-Update und mehr wie eine Verteidigung der Plattformposition.

xAI und Anthropic machen Tempo selbst zum Wettbewerbsfaktor

Auch der breitere Modellmarkt blieb so aktiv, dass nicht nur Fähigkeiten, sondern das Tempo selbst als Wettbewerbswaffe sichtbar wurde. xAI veröffentlichte Grok 4.3 mit agentic tool calling, Unterstützung für einen non-reasoning mode und einem Kontextfenster von 1 Million Token. Danach erklärte das Unternehmen, dass ältere Grok-Modelle am 15. Mai 2026 zugunsten der neuen Version eingestellt werden.

Parallel dazu verdoppelte Anthropic die Rate Limits für Claude Code, entfernte Beschränkungen zu Spitzenzeiten, erhöhte die API-Limits für Claude Opus und sicherte sich mehr als 300 MW GPU-Kapazität bei Colossus 1. Die Botschaft an Microsoft ist ziemlich direkt: Enterprise-KI-Kunden werden darauf konditioniert, schnellen Modellwechsel, steigende Nutzungsgrenzen und sichtbar abgesicherte Rechenkapazität zu erwarten.

Das hilft auch zu erklären, warum Microsoft in dieser Woche den Schwerpunkt auf Katalogbreite und Deployment-Hinweise gelegt hat. Dazu gehören der Global AI Diffusion Report für Q1 2026 und neue Botschaften zur digitalen Souveränität, auch wenn diese eher den Rahmen setzen als eigentliche Produktneuigkeiten zu sein. Sie passen trotzdem ins Bild einer Plattform, die nicht nur neue Modelle aufführt, sondern Unternehmen das Gefühl geben will, bei Tempo, Betrieb und Governance nicht zurückzufallen.

← Zurück zum Archiv