Tages-Snapshot · 8. Mai 2026

Microsoft baut Foundry breiter aus, während sich der KI-Wettbewerb zu Kapazität und Agenten verschiebt


Microsoft nutzte die Woche, um Azure AI Foundry zugleich breiter und aktueller zu machen. Neu als Standard-Chatmodell ist OpenAIs GPT-chat-latest (GPT-5.5 Instant), dazu kommt eine erweiterte Auswahl mit IBM Granite 4.1, NVIDIA Nemotron Nano Omni und Qwen 3.6-35B-A3B. Das ist wichtig, weil Microsoft Foundry stärker als Modell-Marktplatz und Steuerungsebene positioniert und nicht nur als Zugang zu einem einzelnen Flaggschiffmodell. Genau diese breitere Rolle ist besser zu verteidigen, wenn Unternehmenskunden Auswahl wollen statt einer Wette auf einen einzigen Stack.

Dasselbe Muster zeigte sich bei Sprache. Microsoft brachte GPT-realtime-translate, GPT-realtime-whisper und GPT-realtime-2 über die Realtime API und schob Foundry damit weiter in Anwendungsfälle mit niedriger Latenz für Übersetzung, Transkription und Reasoning. Für Microsoft geht es dabei weniger um eine auffällige Demo als darum, Azure AI Foundry für produktive Workloads brauchbar zu machen, bei denen Antwortgeschwindigkeit und multimodale Eingaben darüber entscheiden, ob sich eine KI-Funktion überhaupt ausrollen lässt.

Microsoft macht Azure AI Foundry zur breiteren Plattform

Die Ausweitung von Modellen und Realtime-Funktionen zeigt, wie Microsoft den Schwerpunkt verschiebt. Nicht das eine Modell soll im Zentrum stehen, sondern die Plattform, auf der Unternehmen Modelle auswählen, kombinieren und kontrollieren. Wenn sich der Markt in diese Richtung bewegt, wird Foundry für Microsoft strategisch wertvoller als eine Positionierung, die vor allem an einem einzelnen Modellnamen hängt.

Microsoft baut Azure-Kapazität in Europa aus, während beim Energieziel Zweifel wachsen

Microsoft erweitert seine Azure-Kapazität in Europa, während zugleich die Fragen rund um die Energiekosten der KI lauter werden. Ein neuer Azure-Beitrag hob den Ausbau von Datacenter-Regionen in Österreich, Belgien, Dänemark, Griechenland und Finnland hervor und stellte ihn unter das Thema souveräne und regelkonforme Infrastruktur für Cloud- und KI-Nachfrage. Praktisch betrachtet reagiert Microsoft damit auf eine einfache Vorgabe vieler Unternehmen: Sie wollen fortgeschrittene KI, aber sie wollen sie auch in der eigenen Region und unter vertrauten Compliance-Regeln.

Unbequem wird diese Expansion durch Berichte, wonach Microsoft intern bespreche, ob das Ziel für 2030 verschoben oder aufgegeben werden soll, den stündlichen Stromverbrauch zu 100 Prozent mit Käufen erneuerbarer Energie abzugleichen. Die Spannung zwischen Ausbau und Nachhaltigkeit lässt sich inzwischen schwerer ausblenden, weil der KI-Aufbau keine abstrakte Zukunftsfrage mehr ist, sondern ein laufendes Infrastrukturrennen. Für alle, die Microsofts KI-Position verfolgen, ist die Botschaft klar: Kapazität bleibt strategisch, aber die Kosten zeigen sich nicht nur in hoher Kapitalintensität, sondern auch bei Nachhaltigkeitszusagen.

Anthropic und AWS treiben den Wettlauf um Agenten in die nächste Phase

Die Konkurrenz bewegt sich weg vom allgemeinen Assistenten und hin zu branchenspezifischen und transaktionsfähigen Agenten. Anthropic veröffentlichte zehn Agenten-Templates für Finanzdienstleistungen, darunter Abläufe wie Pitchbook-Erstellung, KYC-Screening und Monatsabschluss, und kombinierte diesen Vorstoss mit Microsoft 365 Add-ins, Connectors und einer MCP-App. Das ist ein direkter Versuch, Unternehmenskunden dort abzuholen, wo sie ohnehin arbeiten - genau auf dem Feld also, das Microsoft mit Copilot für sich beanspruchen will.

AWS ging bei der Agenten-Infrastruktur noch einen Schritt weiter und zeigte mit Amazon Bedrock AgentCore Payments mit Coinbase und Stripe eine Vorschau auf ein System, mit dem KI-Agenten in Echtzeit für APIs, Webinhalte, MCP-Server und andere Agenten bezahlen können. Auch wenn das noch früh ist, zeigt es ein konkreteres Schlachtfeld. Gewinnen werden womöglich nicht einfach die Firmen mit dem besten Chatbot, sondern jene, die die Schienen dafür liefern, dass Agenten Arbeit erledigen, Tools aufrufen und Transaktionen in Geschäftssystemen abschliessen.

Rechenleistung und Strom rücken ins Zentrum des KI-Wettbewerbs

Der Wettbewerb bei KI-Infrastruktur dreht sich inzwischen fast so sehr um Megawatt wie um Modelle. Anthropic erklärte, man habe die Rate Limits von Claude Code verdoppelt, Spitzenzeit-Begrenzungen entfernt, die API-Rate-Limits für Claude Opus erhöht und sich über eine SpaceX-Partnerschaft im Datacenter Colossus 1 mehr als 300 MW an GPU-Kapazität gesichert. Das ist relevant, weil Servicequalität im Unternehmensmassstab immer stärker von reservierter Rechenleistung abhängt und nicht nur vom Modelldesign.

In derselben Woche gab es weitere Hinweise darauf, dass sich der Ausbau weit über die eigentlichen Modellanbieter hinaus ausbreitet. Hut 8 unterzeichnete für die erste Phase seines Beacon Point AI Datacenter-Campus einen 15-Jahres-Mietvertrag über 9,8 Milliarden Dollar und reiht sich damit in eine Serie von Finanzierungs- und Kapazitätsbewegungen im Sektor ein. Für Microsoft ist dieses breitere Marktsignal wichtig, weil Azure in einem Umfeld konkurriert, in dem Zugang zu Strom, Land und GPUs für alle zu einer strategischen Grenze wird und nicht bloss ein Hintergrunddetail ist.

Microsoft vertieft seine Rolle bei KI-Aufsicht und Bewertung

Microsoft setzt zudem politisches Kapital auf Bewertungs- und Sicherheitsrahmen für KI. Das Unternehmen kündigte neue Vereinbarungen mit dem U.S. Center for AI Standards and Innovation und dem U.K.'s AI Security Institute an und schloss sich ausserdem einer Regelung an, die dem U.S. Commerce Department's CAISI frühen Zugang zu Frontier-KI-Modellen für Sicherheitstests geben soll. Das schafft nicht sofort Produktumsatz, stärkt aber Microsofts Stellung bei Regierungen und grossen regulierten Käufern, die zunehmend erwarten, dass KI-Systeme mit formalen Tests und Aufsicht kommen und nicht nur mit Marketingversprechen.

← Zurück zum Archiv