Der Blog

Die Mistral API ist die Entwickler- und Enterprise-Schnittstelle für Mistral-Modelle. Über Mistral AI Studio können Unternehmen und Entwickler Modelle per API nutzen, Prompts testen, Agents bauen, RAG-Workflows umsetzen, Fine-Tuning nutzen, Workspaces verwalten und API-Nutzung abrechnen. Mistral bietet sowohl open-weight als auch kommerzielle/Premier-Modelle an. Mistral API

LLM „build, customize, and deploy AI, your way“ - „Frontier intelligence, customized to you.“

(0)

Deine Bewertung

Klicke auf die Sterne, um deine Bewertung zu starten.

Herkunft: Frankreich Mistral AI, 15 rue des Halles, 75001 Paris, France. Mistral ist unter der Nummer 952 418 325 in Paris eingetragen.

Codestral Devstral DSGVO KI API EU AI API Function Calling La Plateforme LLM API Magistral Mistral AI Studio Mistral API Mistral Large Mistral Small Open-Weight LLM RAG Self-Deployment
Free Ja. Für die API gibt es einen Experiment Plan / Free API Tier mit eingeschränkten Rate Limits, ausdrücklich für Evaluation und Prototyping. Sonstiges Tokenbasierte API-Preise je Modell. Beispiele aus offiziellen Modellkarten: Mistral Large 3: $0.50 / 1M Input Tokens, $1.50 / 1M Output Tokens; Mistral Medium 3.1: $0.40 / 1M Input, $2.00 / 1M Output; Mistral Small 4: $0.15 / 1M Input, $0.60 / 1M Output; Devstral 2: $0.40 / 1M Input, $2.00 / 1M Output. Preise können sich ändern und sollten vor Beschaffung direkt auf der Preisseite bzw. in der Modellkarte geprüft werden.

Zielgruppe

Die Mistral API richtet sich an Entwickler, Start-ups, Softwareteams, Agenturen, KI-Produktteams, KMU, Konzerne, öffentliche Einrichtungen und regulierte Organisationen, die generative KI in eigene Produkte oder interne Systeme integrieren möchten. Besonders relevant ist Mistral für europäische Unternehmen, die Wert auf Datenstandort, AVV/DPA, flexible Deployment-Modelle und Open-Weight-Optionen legen. Typische Rollen sind Entwickler, CTOs, Data-/AI-Teams, Produktmanager, Compliance-Verantwortliche und IT-Architekten.

Herausragende Funktionen

Herausragend sind die Kombination aus gehosteter API, Workspaces, API-Keys, Spend Limits, Pay-as-you-go-Abrechnung, Fine-Tuning-/Customizing-Möglichkeiten, Agents, Function Calling, Structured Outputs, RAG-Workflows, OCR, Embeddings, Moderation und Coding-Modellen. Mistral bietet außerdem mehrere Deployment-Pfade: Managed Mistral Cloud, Cloud-Provider-Integrationen, Mistral Compute, Self-Deployment, VPC, Edge und On-Premises.

Wichtigste Anwendungsfelder

Die API eignet sich für Chatbots, interne Wissensassistenten, RAG-Systeme, Dokumentenanalyse, OCR-Workflows, Code-Assistenz, Software-Agenten, automatisierte Textgenerierung, Übersetzung, Klassifikation, Moderation, semantische Suche, Datenextraktion, Agenten mit Tools, Kundenservice-Automatisierung und KI-Funktionen in SaaS-Produkten. Mit Modellen wie Magistral und Devstral deckt Mistral zudem Reasoning- und Softwareentwicklungs-Szenarien ab; mit Mistral Large 3, Medium 3.1 und Small 4 stehen multimodale bzw. leistungsfähige Generalisten zur Verfügung.

Nutzung & Hinweise

Für die Nutzung wird in Mistral AI Studio ein Workspace erstellt, ein API-Key generiert und anschließend über API, SDKs oder Playground gearbeitet. Für Produktivsysteme sollte nicht der Experiment-Plan, sondern der Scale-Plan oder ein Enterprise-Vertrag verwendet werden. Für DSGVO-kritische Szenarien sollten Organisationen mindestens DPA, Region, Subprozessoren, Datenaufbewahrung, Training-Status, ZDR, Logging, Zugriffskontrollen, Spend Limits und gegebenenfalls Self-Deployment prüfen. Sensible personenbezogene Daten sollten nur verarbeitet werden, wenn Rechtsgrundlage, AVV, TOMs, Löschkonzept und Datenflüsse sauber dokumentiert sind.

Berechnung der Token und Kosten mit KIFOX-Tokenizer
Mistral Large 3

Frontier-Generalist, Multimodalität, komplexe Enterprise-Workflows, lange Kontexte, Agenten, Tool-Nutzung, anspruchsvolle Text-/Bild-Aufgaben


Mistral Medium 3.1

starker Allrounder, multimodale Business-Apps, gutes Preis-Leistungs-Verhältnis, Chatbots, RAG, Agenten, strukturierte Outputs


Mistral Medium 3

ältere, weiterhin unterstützte Medium-Generation, multimodale Anwendungen, allgemeine Enterprise-Workflows


Mistral Small 4

günstige produktive Skalierung, hybride Aufgaben, Instruct + Reasoning + Coding, lange Kontexte, hohe Anfragevolumen


Mistral Small 3.2

effiziente Standardaufgaben, schnelle Chatbots, Klassifikation, Zusammenfassungen, einfache RAG-Use-Cases


Ministral 3 14B

kompakte multimodale Workloads, Self-Hosting, Edge-/VPC-Szenarien, gute Balance aus Qualität und Kosten


Ministral 3 8B

effiziente lokale/Private-Cloud-Nutzung, einfache Assistenten, Klassifikation, kostensensitive Anwendungen


Ministral 3 3B

sehr kleine Deployments, Edge, Embedded AI, Routing, einfache Klassifikationen, geringe Latenz


Magistral Medium 1.2

Reasoning, komplexe Schlussfolgerungen, mehrstufige Analysen, Planungsaufgaben, anspruchsvolle Problemlösung


Magistral Small 1.2

günstigeres Reasoning, mathematisch-logische Aufgaben, strukturierte Problemlösung, Self-Hosting-nahe Szenarien


Devstral 2

Software-Engineering-Agenten, Codebase-Analyse, Multi-File-Edits, Tool-Nutzung, Entwicklerautomatisierung


Codestral

Code Completion, IDE-Integration, Fill-in-the-Middle, Entwicklerproduktivität, schnelle Codevorschläge


Leanstral

Lean-4-Beweise, formale Verifikation, mathematische Proof-Engineering-Workflows


Voxtral Small

Audio-Input, Sprachverständnis, Voice-Agenten, Audio-basierte Assistenz, multimodale Audio/Text-Aufgaben


Voxtral Mini Transcribe

Transkription, Speech-to-Text, Audio-Protokolle, kostengünstige Sprachverarbeitung


Voxtral Mini Transcribe 2

neuere Transkription, Speech-to-Text, Audio-Pipelines, höhere Effizienz


Voxtral Mini Transcribe Realtime

Live-Transkription, Streaming-Audio, Echtzeit-Untertitel, Voice-Interfaces


Mistral Nemo 12B

mehrsprachige Open-Weight-Anwendungen, lokale Deployments, kosteneffiziente Textaufgaben, ältere aber weiterhin unterstützte Workloads

Hosting & Daten

✅ = gut passend ⚠️ = nur teilweise / indirekt ❓ = nicht vorhanden / unklar
?1) On-Prem / lokales Hosting
Bedeutung: Die Firma betreibt die Lösung auf eigener Hardware oder in der eigenen Infrastruktur. Im strengsten Sinn läuft dabei nicht nur die Anwendung, sondern idealerweise auch das Modell lokal.

2) Private Cloud / RZ
Bedeutung: Die Lösung läuft in einer dedizierten oder stärker abgegrenzten Cloud-Umgebung, oft bei einem Hosting-Anbieter oder Hyperscaler, aber in einem deutschen Rechenzentrum oder in einer besonders kontrollierten Umgebung.

3) EU-SaaS / Managed
Bedeutung: Der Anbieter betreibt die Lösung selbst als Dienst. Die Firma nutzt das Tool als fertigen Cloud-Service, idealerweise mit EU-Datenresidenz.

4) Hybrid
Bedeutung: Ein Teil der Verarbeitung bleibt intern / lokal / in privater Cloud, ein anderer Teil läuft in einer externen Cloud oder EU-SaaS.

5) AVV / DPA
Bedeutung: Das ist der Auftragsverarbeitungsvertrag bzw. Data Processing Addendum. Er regelt, dass der Anbieter personenbezogene Daten im Auftrag verarbeitet und an die Weisungen des Kunden gebunden ist.

6) Kein Training
Bedeutung: Der Anbieter nutzt deine Prompts, Uploads, Anhänge, Chatverläufe oder Outputs nicht zum Training oder zur Verbesserung des allgemeinen Modells — idealerweise vertraglich ausgeschlossen.

7) Open-Source-/Transparenz-Pfad
Bedeutung: Es gibt einen Weg zu mehr technischer Transparenz und Souveränität, etwa durch:
- offene Modelle
- dokumentierte Komponenten
- self-hostbare Teile
- nachvollziehbare Architektur
- Export-/Wechselmöglichkeiten
✅ = gut passend ⚠️ = nur teilweise / indirekt ❓ = nicht vorhanden / unklar
On-Prem / lokales Hosting ⚠️
Private Cloud / RZ
EU-SaaS / Managed
Hybrid
AVV / DPA
Kein Training
Open-Source-/Transparenz-Pfad
Einschätzung: Die gehostete Mistral API selbst läuft als Managed-Service über Mistral AI Studio bzw. Mistral Cloud.
Mistral nennt standardmäßig EU-Hosting und eine optionale US-API-Region. Für reine API-Nutzung ist lokales Hosting der API selbst nicht der Normalfall. Gleichzeitig lassen sich viele Mistral-Modelle unabhängig von der API auf eigener Infrastruktur, VPC, Edge oder On-Premises betreiben; Mistral dokumentiert Self-Deployment und Cloud-Provider-Deployments. Ein AVV/DPA ist öffentlich verfügbar.
Beim Training ist zu unterscheiden: Im kostenlosen Experiment-Plan können Input/Output für Training genutzt werden, sofern kein Opt-out erfolgt. Im Scale-Plan werden Input/Output laut Help Center nicht für Training verwendet. ZDR ist für Mistral AI Studio auf Anfrage möglich, aber nicht garantiert. Der Transparenzpfad ist stark, weil viele Modelle open-weight sind; Premier-Modelle bleiben kommerziell/proprietär.
On-Prem / lokales Hosting ⚠️
Private Cloud / RZ
EU-SaaS / Managed
Hybrid
AVV / DPA
Kein Training
Open-Source-/Transparenz-Pfad
Einschätzung: Die gehostete Mistral API selbst läuft als Managed-Service über Mistral AI Studio bzw. Mistral Cloud.
Mistral nennt standardmäßig EU-Hosting und eine optionale US-API-Region. Für reine API-Nutzung ist lokales Hosting der API selbst nicht der Normalfall. Gleichzeitig lassen sich viele Mistral-Modelle unabhängig von der API auf eigener Infrastruktur, VPC, Edge oder On-Premises betreiben; Mistral dokumentiert Self-Deployment und Cloud-Provider-Deployments. Ein AVV/DPA ist öffentlich verfügbar.
Beim Training ist zu unterscheiden: Im kostenlosen Experiment-Plan können Input/Output für Training genutzt werden, sofern kein Opt-out erfolgt. Im Scale-Plan werden Input/Output laut Help Center nicht für Training verwendet. ZDR ist für Mistral AI Studio auf Anfrage möglich, aber nicht garantiert. Der Transparenzpfad ist stark, weil viele Modelle open-weight sind; Premier-Modelle bleiben kommerziell/proprietär.

Stärken & Schwächen im Überblick

Stärken Schwächen
• Europäischer Anbieter mit Sitz in Frankreich. • Preisseite ist öffentlich teilweise schwer maschinenlesbar; konkrete API-Preise sind oft zuverlässiger über einzelne Modellkarten ersichtlich.
• Standardmäßig EU-Hosting für Daten laut Help Center. • Kostenloser API-Experiment-Plan ist nur für Evaluation/Prototyping gedacht.
• DPA/AVV öffentlich verfügbar. • Zero Data Retention ist für Mistral AI Studio nur auf Anfrage und nach Prüfung verfügbar, nicht automatisch.
• Scale-Plan-Daten werden laut Help Center nicht für Training genutzt. • Je nach Feature können Daten temporär außerhalb der EU verarbeitet werden; Subprozessoren müssen geprüft werden.
• Open-weight- und kommerzielle Modelle verfügbar. • Nicht alle Modelle sind open-weight; einige sind Premier/kommerziell.
• Deployment flexibel: Mistral Cloud, Cloud-Provider, VPC, On-Premises, Edge, Self-Deployment.
• Breite Modellpalette: Generalisten, Reasoning, Code, Multimodal, Audio, OCR, Moderation, Embeddings.

Letzter Datenstand: 25. April 2026

Bewertungen

0 Bewertungen insgesamt

(0)
5★ 0,0%
4★ 0,0%
3★ 0,0%
2★ 0,0%
1★ 0,0%

Für dieses Tool liegen noch keine bestätigten Bewertungen vor.