Der Blog

Llama ist Metas Familie generativer Foundation-Modelle für Text und teilweise Bild-/Textverständnis.

Meta positioniert Llama als flexibel einsetzbare Modellreihe, die sich fine-tunen, distillieren und „anywhere“ deployen lässt; dazu gehören Self-Hosting, Private Cloud und Hosting über Partner. Llama 4 bringt native Multimodalität, während Llama 3.x weiterhin wichtige Text-, Coding-, Übersetzungs- und Agent-Use-Cases adressiert.
Meta Llama

LLM „Industry Leading, Open-Source AI“

(0)

Deine Bewertung

Klicke auf die Sterne, um deine Bewertung zu starten.

Herkunft: USA Meta Platforms, Inc., 1 Meta Way, Menlo Park, California 94025, USA.

Coding Assistant document analysis enterprise AI Llama 3.3 Llama 4 Llama API Meta Llama multilingual translation multimodal LLM on-prem AI open model private cloud AI RAG self-hosted LLM Tool Use
Free Ja, aber nicht als klassische Free-SaaS-Version – die Modellgewichte können nach Lizenzannahme heruntergeladen werden. Meta beschreibt den Download offiziell.
Eine kostenlose Business-Web-App mit Standard-Funktionsumfang ist damit aber nicht gemeint.
Sonstiges Lizenzmodell: royalty-free limited license für Llama-Materialien. Self-Hosting-Kosten: entstehen durch eigene Infrastruktur/GPUs. Meta-Kostenschätzung: Für Llama 4 Maverick nennt Meta eine geschätzte Serving-Kosten-Spanne von $0.19–$0.49 pro 1 Mio. Tokens – das ist eine technische Kostenschätzung, kein offiziell ausgewiesener API-Tarif. Zusätzlich gibt es viele Drittanbieter mit Pay-per-token, Stundenpreisen oder dedizierten Endpunkten.

Zielgruppe
Meta Llama richtet sich primär an Entwickler, ML-/AI-Teams, Plattform- und Infrastrukturverantwortliche sowie Unternehmen mit Integrations- oder Souveränitätsanforderungen. Besonders passend ist Llama für Organisationen, die generative KI nicht nur konsumieren, sondern kontrolliert betreiben wollen: also auf eigener Hardware, im eigenen Rechenzentrum, in Private-Cloud-Setups oder über gezielt ausgewählte Managed Provider. Durch die kleineren und größeren Modellgrößen eignet sich Llama sowohl für experimentelle Prototypen als auch für Enterprise-Szenarien mit RAG, Chatbots, Coding-Assistenten und Dokumentenverarbeitung.

Herausragende Funktionen
Die größte Stärke von Llama ist die Deployment-Freiheit. Meta bewirbt die Modellfamilie ausdrücklich so, dass sie sich fine-tunen, distillieren und „deploy anywhere“ lässt. Dazu kommen je nach Modellreihe Coding-Fähigkeiten, Tool Use, Mehrsprachigkeit, lange Kontextfenster und bei Llama 4 native Multimodalität. Für Unternehmen relevant ist außerdem, dass Meta nicht nur die Modelle selbst anbietet, sondern dokumentierte Pfade für Private Cloud, regulated-industry self-hosting und inzwischen auch eine eigene Llama API bereitstellt, bei der Inputs/Outputs laut Meta nicht zum Training genutzt werden.

Wichtigste Anwendungsfelder
Zu den stärksten Einsatzfeldern gehören Chatbots und Assistenten, interne Wissenssuche/RAG, Dokumenten- und Langkontextanalyse, Textproduktion und Zusammenfassung, mehrsprachige Workflows, Coding-Unterstützung und agentische Anwendungen mit Tool-Nutzung. Meta hebt für Llama 4 speziell multimodale Bild-/Text-Anwendungen und Long-Context-Szenarien hervor; für Llama 3.1 nennt Meta unter anderem Text Summarization, multilingual agents und coding use cases. Auch interne Support- und Suchanwendungen sind durch die offiziellen Fallbeispiele gut belegt.

Nutzung & Hinweise
Praktisch nutzt man Llama auf drei Arten: (1) Download der Modellgewichte nach Lizenzannahme, (2) Betrieb über eigene Infrastruktur oder Private Cloud, (3) Nutzung über Llama API oder Hosting-Partner. Wichtig sind die Lizenzbedingungen: Bei Verteilung/Produktintegration gelten Attributionspflichten, und für sehr große Plattformen gibt es eine zusätzliche kommerzielle Lizenzschwelle ab 700 Mio. MAU. Für Datenschutzprojekte ist entscheidend, dass nicht Llama als Modellfamilie, sondern der konkrete Hostingpfad die Compliance entscheidet. Wer mit personenbezogenen oder vertraulichen Daten arbeitet, fährt meist besser mit EU-Self-Hosting oder einem EU-Managed-Provider mit AVV/DPA als mit einem generischen US-Hyperscaler-Standardpfad.

Berechnung der Token und Kosten mit KIFOX-Tokenizer

Modell / FamilieVarianten / GrößenModalitätStatusHosting-Kurzinfo
LLaMA 17B, 13B, 33B, 65BTextAltmodell, ursprünglich ForschungszugangTechnisch lokal/on-prem möglich, aber nicht aktueller kommerzieller Standard; keine aktuelle primäre Hosting-Empfehlung. Meta kündigte LLaMA 1 2023 mit diesen Größen an.
Llama 27B, 13B, 70BTextOpen-weight, kommerziell nutzbar unter Llama-LizenzDownloadbare Gewichte; lokal, on-prem, Private Cloud, Cloud und Managed Provider möglich. Meta nennt für Llama 2 offiziell 7B/13B/70B und 4K Kontext.
Code Llama7B, 13B, 34B, 70B; Base, Instruct, PythonCode/TextOpen-weight Spezialmodell für CodingSelf-hosting und Cloud-Betrieb möglich; für Programmierung, Codegenerierung, Debugging und Assistenz. Meta beschreibt Code Llama als code-spezialisierte Llama-2-Variante.
Llama 38B, 70BTextOpen-weightDownloadbar; lokal, on-prem, Private Cloud, Managed Cloud/API möglich. Meta nennt 8B/70B und 8K Kontext.
Llama 3.18B, 70B, 405BTextOpen-weightBesonders relevant für Enterprise, RAG, Agenten, Fine-tuning und große Deployments; 128K Kontext.
Llama 3.21B, 3BTextOpen-weight, leichtgewichtigBesonders geeignet für Edge, lokale Geräte, mobile/kleine Deployments und kostensensitive Anwendungen; 128K Kontext.
Llama 3.2 Vision11B, 90BText + Bild → TextOpen-weight multimodalFür Bildverständnis, Dokument-/Chart-/Screenshot-Verständnis und multimodale Apps; 128K Kontext.
Llama 3.370B InstructTextOpen-weightText-only Instruct-Modell; Meta beschreibt Llama 3.3 als 70B-Modell mit 128K Kontext.
Llama 4 Scout17B aktive Parameter, 16 ExpertsText + Bild → TextOpen-weight multimodalDownloadbar; laut Meta/GitHub mit hohen Hardwareanforderungen, bei BF16 mindestens 4 GPUs, mit FP8 2×80GB GPU und mit Int4 1×80GB GPU für Scout-Inferenz.
Llama 4 Maverick17B aktive Parameter, 128 Experts, ca. 400B totalText + Bild → TextOpen-weight multimodalFür stärkere multimodale Aufgaben; als Download, über Hugging Face und mehrere Cloud-/MaaS-Anbieter verfügbar.
Llama 4 Behemothangekündigt: 288B aktive Parameter, ca. 2T totalText/Bild, laut AnkündigungNicht öffentlich veröffentlichtKeine gesicherten Informationen zu öffentlichem Hosting/Download verfügbar. Meta hatte im April 2025 Scout und Maverick veröffentlicht; Behemoth wurde als noch nicht veröffentlichtes bzw. trainierendes Teacher-Modell beschrieben.
Llama Guard 1 / 2 / 3 / 4u. a. Llama Guard 4 12BSafety-Klassifikation, teils multimodalSchutz-/ModerationsmodelleDownloadbar bzw. über Provider verfügbar; Llama Guard 4 ist ein 12B multimodales Safety-Modell zur Bewertung von Prompts und Antworten.
Prompt Guard / Llama Prompt Guard 286M, 22M/86M VariantenPrompt-Injection-/Jailbreak-ErkennungSchutzmodellKleines Klassifikationsmodell, gut für lokale Vorfilterung vor LLM-Aufrufen; Meta/Hugging Face nennt Prompt Guard als Modell zur Einstufung von benign, injection und jailbreak.
Muse SparkGröße nicht öffentlich verifiziertMultimodal, Reasoning, Meta AIProprietär / closedKein öffentlicher Download, kein Self-Hosting; aktuell in Meta AI App und meta.ai, Rollout in WhatsApp, Instagram, Facebook, Messenger und AI Glasses; private API Preview für ausgewählte Partner.

Hosting & Daten

✅ = gut passend ⚠️ = nur teilweise / indirekt ❓ = nicht vorhanden / unklar
?1) On-Prem / lokales Hosting
Bedeutung: Die Firma betreibt die Lösung auf eigener Hardware oder in der eigenen Infrastruktur. Im strengsten Sinn läuft dabei nicht nur die Anwendung, sondern idealerweise auch das Modell lokal.

2) Private Cloud / RZ
Bedeutung: Die Lösung läuft in einer dedizierten oder stärker abgegrenzten Cloud-Umgebung, oft bei einem Hosting-Anbieter oder Hyperscaler, aber in einem deutschen Rechenzentrum oder in einer besonders kontrollierten Umgebung.

3) EU-SaaS / Managed
Bedeutung: Der Anbieter betreibt die Lösung selbst als Dienst. Die Firma nutzt das Tool als fertigen Cloud-Service, idealerweise mit EU-Datenresidenz.

4) Hybrid
Bedeutung: Ein Teil der Verarbeitung bleibt intern / lokal / in privater Cloud, ein anderer Teil läuft in einer externen Cloud oder EU-SaaS.

5) AVV / DPA
Bedeutung: Das ist der Auftragsverarbeitungsvertrag bzw. Data Processing Addendum. Er regelt, dass der Anbieter personenbezogene Daten im Auftrag verarbeitet und an die Weisungen des Kunden gebunden ist.

6) Kein Training
Bedeutung: Der Anbieter nutzt deine Prompts, Uploads, Anhänge, Chatverläufe oder Outputs nicht zum Training oder zur Verbesserung des allgemeinen Modells — idealerweise vertraglich ausgeschlossen.

7) Open-Source-/Transparenz-Pfad
Bedeutung: Es gibt einen Weg zu mehr technischer Transparenz und Souveränität, etwa durch:
- offene Modelle
- dokumentierte Komponenten
- self-hostbare Teile
- nachvollziehbare Architektur
- Export-/Wechselmöglichkeiten
✅ = gut passend ⚠️ = nur teilweise / indirekt ❓ = nicht vorhanden / unklar
On-Prem / lokales Hosting
Private Cloud / RZ
EU-SaaS / Managed ⚠️
Hybrid
AVV / DPA
Kein Training
Open-Source-/Transparenz-Pfad
Einschätzung: Die Llama API selbst ist ein Meta-gehosteter API-Service. Ein On-Prem-, lokaler oder kundeneigener Private-Cloud-Betrieb der API ist öffentlich nicht belegt. Meta beschreibt die Llama API als Service für schnellen Zugriff auf aktuelle Llama-Modelle mit API Keys, Playground, SDKs und OpenAI-Kompatibilität.

Positiv: Meta gibt an, dass API-Inputs und Outputs nicht zum Training der Modelle genutzt werden. Außerdem nennt Meta Data Commitments wie Verschlüsselung und private/secure API-Nutzung. Ein belastbarer öffentlicher AVV/DPA-Pfad für EU-Unternehmen ist nicht eindeutig dokumentiert, deshalb bleibt AVV/DPA hier unklar.
EU-SaaS / Managed ist ebenfalls nur bedingt bewertbar, weil kein klarer EU-only-Hosting- oder Data-Residency-Nachweis öffentlich belegt ist.
Sehr stark ist der Hybrid-/Exit-Pfad: Die zugrunde liegenden Llama-Modelle sind open-weight/downloadbar, und Meta betont, dass Nutzer durch Llama-Modelle nicht an die API gebunden bleiben.
Fine-tuning über die API soll ebenfalls exportierbare Modelle ermöglichen. Für DSGVO-kritische Daten ist daher Self-Hosting der Llama-Gewichte oder ein geprüfter EU-/Private-Cloud-Provider meist kontrollierbarer als die direkte Meta Llama API.
On-Prem / lokales Hosting
Private Cloud / RZ
EU-SaaS / Managed ⚠️
Hybrid
AVV / DPA
Kein Training
Open-Source-/Transparenz-Pfad
Einschätzung: Die Llama API selbst ist ein Meta-gehosteter API-Service. Ein On-Prem-, lokaler oder kundeneigener Private-Cloud-Betrieb der API ist öffentlich nicht belegt. Meta beschreibt die Llama API als Service für schnellen Zugriff auf aktuelle Llama-Modelle mit API Keys, Playground, SDKs und OpenAI-Kompatibilität.

Positiv: Meta gibt an, dass API-Inputs und Outputs nicht zum Training der Modelle genutzt werden. Außerdem nennt Meta Data Commitments wie Verschlüsselung und private/secure API-Nutzung. Ein belastbarer öffentlicher AVV/DPA-Pfad für EU-Unternehmen ist nicht eindeutig dokumentiert, deshalb bleibt AVV/DPA hier unklar.
EU-SaaS / Managed ist ebenfalls nur bedingt bewertbar, weil kein klarer EU-only-Hosting- oder Data-Residency-Nachweis öffentlich belegt ist.
Sehr stark ist der Hybrid-/Exit-Pfad: Die zugrunde liegenden Llama-Modelle sind open-weight/downloadbar, und Meta betont, dass Nutzer durch Llama-Modelle nicht an die API gebunden bleiben.
Fine-tuning über die API soll ebenfalls exportierbare Modelle ermöglichen. Für DSGVO-kritische Daten ist daher Self-Hosting der Llama-Gewichte oder ein geprüfter EU-/Private-Cloud-Provider meist kontrollierbarer als die direkte Meta Llama API.

Stärken & Schwächen im Überblick

Stärken Schwächen
– Sehr flexible Deployment-Pfade: lokal, Rechenzentrum, Private Cloud, Public Cloud, Managed Provider. – Kein ausgereiftes „All-in-one“-Business-SaaS wie bei klassischen Arbeitsplatz-Tools; meist ist zusätzlicher Integrationsaufwand nötig.
– Breites Modellportfolio von kleinen/edge-tauglichen Modellen bis großen Enterprise-Modellen. – Lizenz ist nicht unbeschränkt: u. a. Sonderregel für Anbieter mit >700 Mio. monatlich aktiven Nutzern.
– Gute Eignung für Coding, Zusammenfassung, Übersetzung, Tool Use, RAG und Chatbots. – „Open Source“ ist rechtlich umstritten; OSI sieht Llama nicht als Open Source nach ihrer Definition.
– Starker Ecosystem-Fit über Provider, GitHub, Hugging Face und Partner-Hosting. – Für Metas eigene Llama API ist öffentlich keine klare, Llama-spezifische Preistransparenz dokumentiert.

Letzter Datenstand: 24. April 2026

Bewertungen

0 Bewertungen insgesamt

(0)
5★ 0,0%
4★ 0,0%
3★ 0,0%
2★ 0,0%
1★ 0,0%

Für dieses Tool liegen noch keine bestätigten Bewertungen vor.