Der Blog

OpenAI bietet über die API eine breite Modellpalette für Textgenerierung, Reasoning, Coding, Tool-Nutzung, strukturierte Ausgaben und dokumentennahe Workflows an. Laut offizieller Modellübersicht unterstützen die aktuellen Modelle Text- und Bild-Input, Text-Output, Multilingualität und Vision; sie sind über die Responses API und Client-SDKs verfügbar. Für komplexe Aufgaben empfiehlt OpenAI standardmäßig gpt-5.4; für geringere Latenz und Kosten verweist OpenAI auf gpt-5.4-mini und gpt-5.4-nano Open AI

LLM „Access our frontier models and APIs.“

(0)

Deine Bewertung

Klicke auf die Sterne, um deine Bewertung zu starten.

Herkunft: USA OpenAI OpCo, LLC, 1455 3rd Street, San Francisco, CA 94158, USA

data residency. File Search Function Calling GPT-4.1 GPT-4o GPT-5.4 GPT-5.4 mini GPT-5.4 nano GPT-5.4 pro GPT-o3 GPT-o4-mini Large Language Model OpenAI API Reasoning-Modell Structured Outputs
Free Es gibt im API-Ratelimit-System einen Free-Nutzungstier für Nutzer in erlaubten Geografien Sonstiges Preise in USD pro 1 Mio. Tokens. Ich liste hier die offiziell verifizierbaren Text-/Reasoning-Modelle, die als API-LLMs verfügbar sind. Aktuelle Kernmodelle: GPT-5.4: $2.50 Input / $0.25 Cached Input / $15 Output; bei >272K Input-Tokens gelten bei 1,05M-Kontextmodellen Aufschläge für die gesamte Session. GPT-5.4 mini: $0.75 / $0.075 / $4.50. GPT-5.4 nano: $0.20 / $0.02 / $1.25. GPT-5.4 pro: $30 Input / $180 Output; auf der zentralen Pricing-Seite zusätzlich Batch/Flex/Priority-Varianten. Für regionale Verarbeitung nennt OpenAI bei der GPT-5.4-Familie einen 10-%-Aufschlag. Weitere API-LLMs / weiterhin verfügbare Modellfamilien: GPT-5.1: $1.25 / $0.125 / $10. GPT-5: $1.25 / $0.125 / $10. GPT-5 mini: $0.25 / $0.025 / $2. GPT-5 nano: $0.05 / $0.005 / $0.40. GPT-5.2: $1.75 / $0.175 / $14. GPT-4.x / GPT-4o-Familie: GPT-4.1: $2 / $0.50 / $8. GPT-4.1 mini: $0.40 / $0.10 / $1.60. GPT-4.1 nano: $0.10 / $0.025 / $0.40. GPT-4o: $2.50 / $1.25 / $10. GPT-4o mini: $0.15 / $0.075 / $0.60. Reasoning-/o-Serie: o3-pro: $20 Input / $80 Output. o3: $2 / $0.50 / $8. o4-mini: $1.10 / $0.275 / $4.40. o3-mini: $1.10 / $0.55 / $4.40. o1: $15 / $7.50 / $60. Legacy, aber laut offizieller Modellseite/API weiterhin verfügbar: GPT-3.5 Turbo: $0.50 Input / $1.50 Output. OpenAI empfiehlt dort inzwischen ausdrücklich gpt-4o-mini als Nachfolger für neue Projekte.

Hosting & Daten ?1) On-Prem / lokales Hosting
Bedeutung: Die Firma betreibt die Lösung auf eigener Hardware oder in der eigenen Infrastruktur. Im strengsten Sinn läuft dabei nicht nur die Anwendung, sondern idealerweise auch das Modell lokal.

2) Private Cloud / RZ
Bedeutung: Die Lösung läuft in einer dedizierten oder stärker abgegrenzten Cloud-Umgebung, oft bei einem Hosting-Anbieter oder Hyperscaler, aber in einem deutschen Rechenzentrum oder in einer besonders kontrollierten Umgebung.

3) EU-SaaS / Managed
Bedeutung: Der Anbieter betreibt die Lösung selbst als Dienst. Die Firma nutzt das Tool als fertigen Cloud-Service, idealerweise mit EU-Datenresidenz.

4) Hybrid
Bedeutung: Ein Teil der Verarbeitung bleibt intern / lokal / in privater Cloud, ein anderer Teil läuft in einer externen Cloud oder EU-SaaS.

5) AVV / DPA
Bedeutung: Das ist der Auftragsverarbeitungsvertrag bzw. Data Processing Addendum. Er regelt, dass der Anbieter personenbezogene Daten im Auftrag verarbeitet und an die Weisungen des Kunden gebunden ist.

6) Kein Training
Bedeutung: Der Anbieter nutzt deine Prompts, Uploads, Anhänge, Chatverläufe oder Outputs nicht zum Training oder zur Verbesserung des allgemeinen Modells — idealerweise vertraglich ausgeschlossen.

7) Open-Source-/Transparenz-Pfad
Bedeutung: Es gibt einen Weg zu mehr technischer Transparenz und Souveränität, etwa durch:
- offene Modelle
- dokumentierte Komponenten
- self-hostbare Teile
- nachvollziehbare Architektur
- Export-/Wechselmöglichkeiten

✅ = gut passend ⚠️ = nur teilweise / indirekt ❓ = nicht vorhanden / unklar
On-Prem / lokales Hosting ⚠️
Private Cloud / RZ
EU-SaaS / Managed
Hybrid ⚠️
AVV / DPA
Kein Training
Open-Source-/Transparenz-Pfad ⚠️
Einschätzung: Für die OpenAI API sind DPA, standardmäßig kein Training, EU Regional Storage und EU Regional Processing offiziell dokumentiert. Ein On-Prem-/Transparenzpfad besteht nur teilweise über separate Open-Weight-Modelle wie gpt-oss; diese laufen auf eigener Infrastruktur, gehören aber nicht zur OpenAI-API-Serving-Schicht.
On-Prem / lokales Hosting ⚠️
Private Cloud / RZ
EU-SaaS / Managed
Hybrid ⚠️
AVV / DPA
Kein Training
Open-Source-/Transparenz-Pfad ⚠️
✅ = gut passend ⚠️ = nur teilweise / indirekt ❓ = nicht vorhanden / unklar
Einschätzung: Für die OpenAI API sind DPA, standardmäßig kein Training, EU Regional Storage und EU Regional Processing offiziell dokumentiert. Ein On-Prem-/Transparenzpfad besteht nur teilweise über separate Open-Weight-Modelle wie gpt-oss; diese laufen auf eigener Infrastruktur, gehören aber nicht zur OpenAI-API-Serving-Schicht.

Stärken & Schwächen im Überblick

Stärken Schwächen
- Sehr breite Modellabdeckung von günstig bis Frontier. - Das Portfolio ist komplex; Modellwahl, Preisstaffeln, Kontextgrenzen und Toolkosten sind erklärungsbedürftig.
- Starke Eignung für Coding, Agenten, Tool Calling, strukturierte Outputs und lange Kontexte. - Die stärksten Modelle sind deutlich teurer als Mini-/Nano-Varianten.
- Für API-/Business-Daten gilt laut OpenAI standardmäßig kein Training auf Inputs/Outputs. - Datenschutz- und Datenresidenzoptionen sind nicht pauschal für jeden Fall identisch, sondern teils an Organisationstyp, Endpunkt oder Freischaltung gebunden.
- Datenresidenz, Zero Data Retention und DPA sind - Ältere, weiter verfügbare Modellfamilien erhöhen die operative Komplexität bei Auswahl und Lifecycle-Management.

Letzter Datenstand: 16. April 2026

Bewertungen

0 Bewertungen insgesamt

(0)
5★ 0,0%
4★ 0,0%
3★ 0,0%
2★ 0,0%
1★ 0,0%

Für dieses Tool liegen noch keine bestätigten Bewertungen vor.