Technologie

GPT-5.5 ist gerade auf AWS gelandet und beendet Microsofts siebenjährigen Lock-in mit OpenAI

Das Modell, das fast ein Jahrzehnt lang exklusiv auf Azure lief, taucht jetzt auf Amazon Bedrock auf. Microsoft behält bis 2032 den Status als bevorzugter Partner — aber der Lock-in ist vorbei.
Susan Hill

OpenAIs leistungsstärkstes Modell, GPT-5.5, läuft erstmals auf Amazon Web Services. Der Start kommt einen Tag, nachdem Microsoft und OpenAI die Bedingungen ihrer Partnerschaft neu geschrieben haben — und damit endete eine fast siebenjährige Periode, in der Azure die einzige Cloud-Plattform mit der rechtlichen Erlaubnis war, OpenAIs Frontier-Modelle zu hosten. AWS-Kunden können GPT-5.5 — zusammen mit GPT-5.4 sowie den Open-Weight-Modellen gpt-oss-20b und gpt-oss-120b — jetzt über dieselben Amazon-Bedrock-APIs aufrufen, die sie bereits für Anthropic, Meta und Amazons eigene Nova-Familie nutzen, und sie können den Verbrauch auf bestehende AWS-Spend-Verpflichtungen anrechnen.

Der Start ist eine Limited Preview, keine General Availability; eine breitere Freigabe wird in einigen Wochen erwartet. Drei Dinge landen gleichzeitig: OpenAIs Modelle auf Bedrock; Codex, OpenAIs Coding-Agent, erreichbar über die Bedrock-API sowie über Codex CLI, die Codex-Desktop-App und die VS-Code-Erweiterung; und Amazon Bedrock Managed Agents, ein neuer Dienst, der OpenAIs Agent-Harness mit AWS-nativer Identität, Logging und Tool-Anbindung umschließt. AWS positioniert Managed Agents als Produktionspfad für Unternehmen, die langlaufende OpenAI-Agenten ausrollen wollen, ohne die Infrastruktur drumherum selbst aufbauen zu müssen.

Microsoft und OpenAI haben ihre Partnerschaft am Tag vor dem AWS-Start neu strukturiert. Azure bleibt OpenAIs „primärer Cloud-Partner“ bis 2032, und Microsoft behält eine nicht-exklusive Lizenz auf OpenAIs geistiges Eigentum bis zum gleichen Zeitpunkt, mit einer gedeckelten Umsatzbeteiligung. Aber die Exklusivität, die OpenAIs Frontier-Modelle den Großteil des vergangenen Jahrzehnts an Azure band, ist weg. AWS wird zum zweiten Hyperscaler mit dem rechtlichen Recht, OpenAIs Enterprise-Plattform zu vertreiben, und die rasche Abfolge — Microsoft-Ergänzung an einem Tag, AWS-Preview am nächsten — legt nahe, dass die Integration über Monate hinweg vorbereitet wurde.

Für Entwickler ist der praktische Effekt einer von Procurement, nicht von Technologie. OpenAIs Direct-API war immer verfügbar — aber Unternehmen mit Multi-Millionen-AWS-Verpflichtungen konnten dieses Volumen nicht für OpenAI-Nutzung anrechnen, und Sicherheitsteams mussten eine separate Lieferantenbeziehung prüfen. Bedrock räumt beide Reibungspunkte ab. OpenAI-Inferenz auf Bedrock erbt standardmäßig AWS IAM, PrivateLink, Guardrails, Verschlüsselung und CloudTrail-Logging, und verbrauchte Token zählen für bestehende AWS Enterprise Discount Programs und Savings Plans. Für Großkunden ist genau das vielleicht der eigentliche Deal: nicht Zugriff auf GPT-5.5, sondern Zugriff auf GPT-5.5 mit den AWS-Verträgen, die sie ohnehin schon unterschrieben haben.

Die Begeisterung verdient ein paar Eingrenzungen. Der Start ist Limited Preview — nicht alle Kunden können bereits Zugang anfordern, und die Dokumentation verweist darauf, dass das Pricing über Bedrock von OpenAIs direkter API abweichen kann. Microsoft tritt nicht zurück: Azure bleibt primärer Cloud-Partner bis 2032, GitHub Copilot, Microsoft 365 Copilot und Dynamics 365 behalten tiefe OpenAI-Integrationen, und die Umsatzbeteiligung von Microsoft läuft weiter. Die finanzielle Größenordnung der AWS-OpenAI-Partnerschaft wird je nach Quelle unterschiedlich beziffert: einmal als 38-Milliarden-Dollar-Compute-Verpflichtung über sieben Jahre, die OpenAI Ende vergangenen Jahres mit AWS unterzeichnete, und einmal als 50-Milliarden-Dollar-Investition Amazons in OpenAI, die diese Woche angekündigt wurde — beide Zahlen können sich überlappen, und OpenAI hat keine einheitliche Aufschlüsselung veröffentlicht. Und Bedrock beherbergt bereits Claude, Llama, Mistral, Cohere und Amazons eigene Nova-Familie; OpenAI tritt in ein umkämpftes Feld ein, nicht in eine leere Bühne.

Der Cross-Cloud-Schritt markiert eine klare Etappe in der Reifung des KI-Infrastrukturmarkts. Anbieter von Foundation-Modellen sind die letzten drei Jahre dorthin gelaufen, wo am schnellsten am meisten Compute verfügbar war; die nächste Phase ist die Distribution, in der Kunden Modelle so konsumieren wollen, wie sie heute schon Datenbanken oder Storage konsumieren — über bestehende Cloud-Verträge, innerhalb bestehender Sicherheitsgrenzen. AWS gewinnt eine Frontier-Modellmarke, die Bedrock bisher fehlte. OpenAI gewinnt die Procurement-Pipeline der größten Cloud der Welt. Und Anthropic, bisher das Schaufenster-Foundation-Modell auf Bedrock, wird zu einer Frontier-Option unter mehreren, statt zur naheliegenden Wahl.

GPT-5.5 selbst kam am 23. April auf OpenAIs direkter API. Die Microsoft-OpenAI-Ergänzung wurde am 27. April angekündigt. AWS öffnete die Bedrock-Preview am 28. April auf seiner Veranstaltung What’s Next with AWS. Die General Availability wird in einigen Wochen erwartet, weitere OpenAI-Modelle — darunter GPT-5.5 Pro und die o-Serie der Reasoning-Modelle — sollen folgen, sobald die Limited-Preview-Phase abgeschlossen ist.

Diskussion

Es gibt 0 Kommentare.