Tages-Snapshot · 1. Mai 2026

Microsoft erhöht die KI-Ausgaben weiter, während Rivalen den Zugang verbreitern


Die Q3-Zahlen von Microsoft haben einen Punkt sehr klar gemacht: Das Unternehmen befindet sich bei KI weiterhin im Ausbau-Modus. Microsoft meldete im dritten Quartal 82,89 Milliarden Dollar Umsatz und 4,27 Dollar Gewinn je Aktie, stellte für Azure ein Wachstum von 39-40% in Aussicht und prognostizierte für das Geschäftsjahr 2026 Investitionsausgaben von 190 Milliarden Dollar. Das ist wichtig, weil Microsoft dem Markt damit signalisiert, dass die Nachfrage nach KI- und Cloud-Kapazität stark genug bleibt, um ein weiteres Jahr mit aussergewöhnlich hohen Ausgaben zu rechtfertigen, obwohl Investoren weiter fragen, wann sich diese Ausgaben in klareren Margen niederschlagen.

Azure-Wachstum und die Nutzung von Copilot waren die praktische Antwort, die Microsoft auf diese kritischen Fragen gegeben hat. Microsoft 365 Copilot erreichte 20 Millionen bezahlte Enterprise-Sitze, nach 15 Millionen im Januar, während die wöchentliche Nutzung pro Anwender das Niveau von Outlook erreichte und die Zahl der Anfragen pro Anwender gegenüber dem Vorquartal um fast 20% stieg. Für Microsofts Position ist das der bislang stärkste kurzfristige Beleg dafür, dass KI innerhalb bestehender Software-Franchises zur Gewohnheit wird und nicht bloss ein Seitenexperiment bleibt.

Microsoft will mehr als nur den KI-Chatbot im Unternehmen stellen

Microsoft nutzte die Woche auch, um zu zeigen, dass es mehr von der Steuerungsebene rund um den Einsatz von Enterprise-KI besetzen will. Das Unternehmen stellte Microsoft IQ für kontextbezogene KI und Agent 365 für Governance vor und hatte die agentischen Fähigkeiten von Microsoft 365 Copilot bereits allgemein verfügbar gemacht, darunter Multi-Agent-Orchestrierung und Copilot Cowork. Entscheidend sind dabei weniger die Produktnamen als die Richtung: Microsoft versucht, sich von einem Anbieter eines Assistenten zu einem Anbieter eines Betriebsmodells für KI in Unternehmenssoftware zu entwickeln, bei dem Governance Teil des Angebots ist und kein nachträglicher Zusatz.

Diese Strategie reicht auch bis zur Infrastruktur für Kunden, die nicht einfach alles in eine normale Public-Cloud-Umgebung verschieben können. Azure Local unterstützt nun Bereitstellungen mit bis zu Tausenden von Servern innerhalb einer einzigen souveränen Umgebung für Microsoft Sovereign Private Cloud. Das stärkt Microsofts Position in regulierten und nationalen Märkten, in denen es zwar KI-Nachfrage gibt, Kontrolle über Daten, Modelle und Betrieb aber oft genauso wichtig ist wie die Qualität der Modelle.

OpenAIs Schritt zu AWS schwächt Azures Exklusivität, beendet die Partnerschaft aber nicht

Die wichtigste externe Entwicklung für Microsoft war nicht ein neues Modell, sondern eine Änderung bei der Verteilung. OpenAI startete eine begrenzte Vorschau auf Frontier-Modelle, darunter GPT-5.5, Codex und Managed Agents, über Amazon Bedrock, kurz nachdem Microsoft und OpenAI eine angepasste Partnerschaft bekanntgegeben hatten. Diese sichert Microsoft weiterhin primäre Cloud-Rechte und eine nicht-exklusive Lizenz auf OpenAIs geistiges Eigentum bis 2032, während OpenAI zugleich mehr Spielraum für eine breitere Multi-Cloud-Nutzung erhält. Einfach gesagt: Azure behält eine privilegierte Beziehung, aber Microsoft kann nicht mehr dieselbe saubere Exklusivitätsgeschichte erzählen wie zuvor.

Das ist auf zwei Ebenen relevant. Erstens kann AWS den Zugang zu OpenAI nun nutzen, um eine Wettbewerbslücke bei Enterprise-KI zu verkleinern. Zweitens muss Microsoft zeigen, dass Kunden wegen des gesamten Stacks bleiben - also wegen Azure, Copilot, Security, Governance und der Bereitstellungsoptionen - und nicht nur deshalb, weil OpenAI dort bisher am einfachsten zu bekommen war.

Konkurrenten greifen Microsofts KI-Vertrieb aus mehreren Richtungen an

Auch der breitere Markt hat sich in eine Richtung bewegt, die jede Annahme infrage stellt, Microsofts aktueller Vorsprung werde automatisch unangetastet bleiben. AWS startete Amazon Quick als KI-Assistenten für die Arbeit, Anthropic ergänzte kreative Konnektoren für Claude über Adobe Creative Cloud, Blender, Ableton, SketchUp und andere, und Google sagte, dass Gemini in Autos mit Google built-in ausgerollt wird. Das sind unterschiedliche Märkte, aber das Muster ist dasselbe: Wettbewerber verankern KI direkt in etablierten Arbeitsabläufen und Geräten, statt darauf zu warten, dass Nutzer zu einem eigenständigen Chatbot kommen.

Für Microsoft erhöht das die Messlatte gleichermassen für Copilot und Azure. Der eigentliche Wettbewerb dreht sich zunehmend um Vertrieb, Standardplatzierung und Integration in Arbeitsabläufe, nicht nur um Modell-Benchmarks. Es bedeutet auch, dass Microsofts eigener Vorstoss bei Agents und Governance gut getimt ist, weil die Rivalen nicht mehr nur über Modellqualität konkurrieren, sondern darüber, wie tief ihre KI in die tägliche Arbeit und Nutzung eingebettet wird.

← Zurück zum Archiv