Der Blog

Anthropic bietet über die Claude API aktuelle LLMs für Sprachverarbeitung, Reasoning, Coding, agentische Workflows, Tool-Nutzung und dokumentennahe Aufgaben an. Alle aktuellen Claude-Modelle unterstützen laut offizieller Modellübersicht Text- und Bild-Input, Text-Output, Multilingualität und Vision. Für den direkten API-Einstieg verweist Anthropic auf die Messages API; zusätzlich gibt es Managed Agents für länger laufende Aufgaben. Anthrophic Claude API Docs

LLM - „highly performant, trustworthy, and intelligent AI platform“

(0)

Deine Bewertung

Klicke auf die Sterne, um deine Bewertung zu starten.

Herkunft: USA Anthropic, PBC, 548 Market Street, PMB 90375, San Francisco, CA 94104, USA

agentisches Coding Anthropic LLM API-Automatisierung Claude API Claude Haiku 4.5 Claude Opus 4.7 Claude Sonnet 4.6 Computer Use data residency. Dokumentenanalyse Enterprise-KI Langkontext-Verarbeitung Prompt Caching Tool Use Zero Data Retention
Free Anthropic dokumentiert, dass neue Nutzer eine kleine Menge kostenloser Credits zum Testen der API erhalten. Das ist aber kein klassischer dauerhafter Free-Plan im SaaS-Sinn, sondern eher ein Testguthaben. Sonstiges Pay-as-you-go pro 1 Mio. Tokens (USD): Aktuell empfohlene Hauptmodelle: • Claude Opus 4.7: $5 Input / $25 Output; Batch: $2.50 / $12.50; 1M Kontext, 128k Max Output. • Claude Sonnet 4.6: $3 / $15; Batch: $1.50 / $7.50; 1M Kontext, 64k Max Output. • Claude Haiku 4.5: $1 / $5; 200k Kontext, 64k Max Output. Weitere aktive API-Modelle: • Claude Opus 4.6: $5 / $25; Batch: $2.50 / $12.50. • Claude Opus 4.5: $5 / $25; Batch: $2.50 / $12.50. • Claude Opus 4.1: $15 / $75; Batch: $7.50 / $37.50. • Claude Sonnet 4.5: $3 / $15; Batch: $1.50 / $7.50. Preislogik / Zusatzmodelle: • Prompt Caching: 5-Min-Write 1,25x Base-Input, 1h-Write 2x, Cache-Read 0,1x. • US-only Inference (inference_geo) auf Claude API (1P) für Opus 4.6 und neuere Modelle: 1,1x auf alle Tokenpreis-Kategorien. • Fast Mode für Opus 4.6: $30 Input / $150 Output, also 6x Standardpreis. • Batch API: 50 % Rabatt auf Input und Output. • Partnerplattformen: AWS/Vertex regionale bzw. Multi-Region-Endpunkte für Claude 4.5+ haben laut Docs 10 % Aufpreis gegenüber globalen Endpunkten. • Enterprise / Priority Tier: kundenspezifische Kapazitätszusagen, Volumenrabatte und dedizierte Bedingungen; Anthropic nennt Standard, Priority und Batch als Service Tiers.

Hosting & Daten ?1) On-Prem / lokales Hosting
Bedeutung: Die Firma betreibt die Lösung auf eigener Hardware oder in der eigenen Infrastruktur. Im strengsten Sinn läuft dabei nicht nur die Anwendung, sondern idealerweise auch das Modell lokal.

2) Private Cloud / RZ
Bedeutung: Die Lösung läuft in einer dedizierten oder stärker abgegrenzten Cloud-Umgebung, oft bei einem Hosting-Anbieter oder Hyperscaler, aber in einem deutschen Rechenzentrum oder in einer besonders kontrollierten Umgebung.

3) EU-SaaS / Managed
Bedeutung: Der Anbieter betreibt die Lösung selbst als Dienst. Die Firma nutzt das Tool als fertigen Cloud-Service, idealerweise mit EU-Datenresidenz.

4) Hybrid
Bedeutung: Ein Teil der Verarbeitung bleibt intern / lokal / in privater Cloud, ein anderer Teil läuft in einer externen Cloud oder EU-SaaS.

5) AVV / DPA
Bedeutung: Das ist der Auftragsverarbeitungsvertrag bzw. Data Processing Addendum. Er regelt, dass der Anbieter personenbezogene Daten im Auftrag verarbeitet und an die Weisungen des Kunden gebunden ist.

6) Kein Training
Bedeutung: Der Anbieter nutzt deine Prompts, Uploads, Anhänge, Chatverläufe oder Outputs nicht zum Training oder zur Verbesserung des allgemeinen Modells — idealerweise vertraglich ausgeschlossen.

7) Open-Source-/Transparenz-Pfad
Bedeutung: Es gibt einen Weg zu mehr technischer Transparenz und Souveränität, etwa durch:
- offene Modelle
- dokumentierte Komponenten
- self-hostbare Teile
- nachvollziehbare Architektur
- Export-/Wechselmöglichkeiten

✅ = gut passend ⚠️ = nur teilweise / indirekt ❓ = nicht vorhanden / unklar
On-Prem / lokales Hosting
Private Cloud / RZ
EU-SaaS / Managed
Hybrid ⚠️
AVV / DPA
Kein Training
Open-Source-/Transparenz-Pfad ⚠️
Einschätzung: Die direkte Claude API bietet offiziell derzeit nur global oder us; workspace geo ist aktuell nur us, daher ist kein belastbarer EU-SaaS-/EU-RZ-Pfad für die 1P-API dokumentiert. DPA, Processor-Rolle, No-Training für Commercial-Daten und optional Zero Data Retention sind offiziell belegt; ein echter Open-Source-/Self-Hosting-Pfad fehlt.
On-Prem / lokales Hosting
Private Cloud / RZ
EU-SaaS / Managed
Hybrid ⚠️
AVV / DPA
Kein Training
Open-Source-/Transparenz-Pfad ⚠️
✅ = gut passend ⚠️ = nur teilweise / indirekt ❓ = nicht vorhanden / unklar
Einschätzung: Die direkte Claude API bietet offiziell derzeit nur global oder us; workspace geo ist aktuell nur us, daher ist kein belastbarer EU-SaaS-/EU-RZ-Pfad für die 1P-API dokumentiert. DPA, Processor-Rolle, No-Training für Commercial-Daten und optional Zero Data Retention sind offiziell belegt; ein echter Open-Source-/Self-Hosting-Pfad fehlt.

Stärken & Schwächen im Überblick

Stärken Schwächen
- Sehr starke Position bei Coding, agentischen Workflows, Computer Use, Dokumentenverständnis und langen Kontexten. - Das direkt stärkste Modell (Opus 4.7) ist für viele Alltags-Workloads teurer als nötig; wirtschaftlich sinnvoller ist oft Sonnet 4.6 oder Haiku 4.5.
- Klare Staffelung nach Preis/Leistung: Opus für maximale Qualität, Sonnet als produktiver Standard, Haiku für Geschwindigkeit und Volumen. - Das Modellportfolio ist kleiner als bei manchen Wettbewerbern, aber durch aktive und ältere weiter verfügbare Snapshots dennoch erklärungsbedürftig.
- Starke Business-/Privacy-Positionierung: DPA, SCCs, Zero Data Retention für geeignete APIs, dokumentierte Retention-Regeln. - Für strikte regionale Anforderungen ist die direkte Claude API (1P) bei der Inferenz-Geosteuerung öffentlich vor allem auf global bzw. US-only ausgelegt; breitere regionale Optionen liegen vor allem auf Partnerplattformen wie Bedrock und Vertex.
- Nützliche API-Funktionen wie Prompt Caching, Batch, Tools, strukturierte Steuerung und Service Tiers. - Anthropic weist in den Commercial Terms ausdrücklich darauf hin, dass faktische Aussagen in Outputs vor Verwendung unabhängig geprüft werden sollten.

Letzter Datenstand: 16. April 2026

Bewertungen

0 Bewertungen insgesamt

(0)
5★ 0,0%
4★ 0,0%
3★ 0,0%
2★ 0,0%
1★ 0,0%

Für dieses Tool liegen noch keine bestätigten Bewertungen vor.