Llama ist Metas Familie generativer Foundation-Modelle für Text und teilweise Bild-/Textverständnis.
Meta positioniert Llama als flexibel einsetzbare Modellreihe, die sich fine-tunen, distillieren und „anywhere“ deployen lässt; dazu gehören Self-Hosting, Private Cloud und Hosting über Partner. Llama 4 bringt native Multimodalität, während Llama 3.x weiterhin wichtige Text-, Coding-, Übersetzungs- und Agent-Use-Cases adressiert.
Meta Llama
LLM „Industry Leading, Open-Source AI“
Herkunft: USA ⓘ Meta Platforms, Inc., 1 Meta Way, Menlo Park, California 94025, USA.
Eine kostenlose Business-Web-App mit Standard-Funktionsumfang ist damit aber nicht gemeint. Sonstiges Lizenzmodell: royalty-free limited license für Llama-Materialien. Self-Hosting-Kosten: entstehen durch eigene Infrastruktur/GPUs. Meta-Kostenschätzung: Für Llama 4 Maverick nennt Meta eine geschätzte Serving-Kosten-Spanne von $0.19–$0.49 pro 1 Mio. Tokens – das ist eine technische Kostenschätzung, kein offiziell ausgewiesener API-Tarif. Zusätzlich gibt es viele Drittanbieter mit Pay-per-token, Stundenpreisen oder dedizierten Endpunkten.
Zielgruppe
Meta Llama richtet sich primär an Entwickler, ML-/AI-Teams, Plattform- und Infrastrukturverantwortliche sowie Unternehmen mit Integrations- oder Souveränitätsanforderungen. Besonders passend ist Llama für Organisationen, die generative KI nicht nur konsumieren, sondern kontrolliert betreiben wollen: also auf eigener Hardware, im eigenen Rechenzentrum, in Private-Cloud-Setups oder über gezielt ausgewählte Managed Provider. Durch die kleineren und größeren Modellgrößen eignet sich Llama sowohl für experimentelle Prototypen als auch für Enterprise-Szenarien mit RAG, Chatbots, Coding-Assistenten und Dokumentenverarbeitung.
Herausragende Funktionen
Die größte Stärke von Llama ist die Deployment-Freiheit. Meta bewirbt die Modellfamilie ausdrücklich so, dass sie sich fine-tunen, distillieren und „deploy anywhere“ lässt. Dazu kommen je nach Modellreihe Coding-Fähigkeiten, Tool Use, Mehrsprachigkeit, lange Kontextfenster und bei Llama 4 native Multimodalität. Für Unternehmen relevant ist außerdem, dass Meta nicht nur die Modelle selbst anbietet, sondern dokumentierte Pfade für Private Cloud, regulated-industry self-hosting und inzwischen auch eine eigene Llama API bereitstellt, bei der Inputs/Outputs laut Meta nicht zum Training genutzt werden.
Wichtigste Anwendungsfelder
Zu den stärksten Einsatzfeldern gehören Chatbots und Assistenten, interne Wissenssuche/RAG, Dokumenten- und Langkontextanalyse, Textproduktion und Zusammenfassung, mehrsprachige Workflows, Coding-Unterstützung und agentische Anwendungen mit Tool-Nutzung. Meta hebt für Llama 4 speziell multimodale Bild-/Text-Anwendungen und Long-Context-Szenarien hervor; für Llama 3.1 nennt Meta unter anderem Text Summarization, multilingual agents und coding use cases. Auch interne Support- und Suchanwendungen sind durch die offiziellen Fallbeispiele gut belegt.
Nutzung & Hinweise
Praktisch nutzt man Llama auf drei Arten: (1) Download der Modellgewichte nach Lizenzannahme, (2) Betrieb über eigene Infrastruktur oder Private Cloud, (3) Nutzung über Llama API oder Hosting-Partner. Wichtig sind die Lizenzbedingungen: Bei Verteilung/Produktintegration gelten Attributionspflichten, und für sehr große Plattformen gibt es eine zusätzliche kommerzielle Lizenzschwelle ab 700 Mio. MAU. Für Datenschutzprojekte ist entscheidend, dass nicht Llama als Modellfamilie, sondern der konkrete Hostingpfad die Compliance entscheidet. Wer mit personenbezogenen oder vertraulichen Daten arbeitet, fährt meist besser mit EU-Self-Hosting oder einem EU-Managed-Provider mit AVV/DPA als mit einem generischen US-Hyperscaler-Standardpfad.
Berechnung der Token und Kosten mit KIFOX-Tokenizer
| Modell / Familie | Varianten / Größen | Modalität | Status | Hosting-Kurzinfo |
|---|---|---|---|---|
| LLaMA 1 | 7B, 13B, 33B, 65B | Text | Altmodell, ursprünglich Forschungszugang | Technisch lokal/on-prem möglich, aber nicht aktueller kommerzieller Standard; keine aktuelle primäre Hosting-Empfehlung. Meta kündigte LLaMA 1 2023 mit diesen Größen an. |
| Llama 2 | 7B, 13B, 70B | Text | Open-weight, kommerziell nutzbar unter Llama-Lizenz | Downloadbare Gewichte; lokal, on-prem, Private Cloud, Cloud und Managed Provider möglich. Meta nennt für Llama 2 offiziell 7B/13B/70B und 4K Kontext. |
| Code Llama | 7B, 13B, 34B, 70B; Base, Instruct, Python | Code/Text | Open-weight Spezialmodell für Coding | Self-hosting und Cloud-Betrieb möglich; für Programmierung, Codegenerierung, Debugging und Assistenz. Meta beschreibt Code Llama als code-spezialisierte Llama-2-Variante. |
| Llama 3 | 8B, 70B | Text | Open-weight | Downloadbar; lokal, on-prem, Private Cloud, Managed Cloud/API möglich. Meta nennt 8B/70B und 8K Kontext. |
| Llama 3.1 | 8B, 70B, 405B | Text | Open-weight | Besonders relevant für Enterprise, RAG, Agenten, Fine-tuning und große Deployments; 128K Kontext. |
| Llama 3.2 | 1B, 3B | Text | Open-weight, leichtgewichtig | Besonders geeignet für Edge, lokale Geräte, mobile/kleine Deployments und kostensensitive Anwendungen; 128K Kontext. |
| Llama 3.2 Vision | 11B, 90B | Text + Bild → Text | Open-weight multimodal | Für Bildverständnis, Dokument-/Chart-/Screenshot-Verständnis und multimodale Apps; 128K Kontext. |
| Llama 3.3 | 70B Instruct | Text | Open-weight | Text-only Instruct-Modell; Meta beschreibt Llama 3.3 als 70B-Modell mit 128K Kontext. |
| Llama 4 Scout | 17B aktive Parameter, 16 Experts | Text + Bild → Text | Open-weight multimodal | Downloadbar; laut Meta/GitHub mit hohen Hardwareanforderungen, bei BF16 mindestens 4 GPUs, mit FP8 2×80GB GPU und mit Int4 1×80GB GPU für Scout-Inferenz. |
| Llama 4 Maverick | 17B aktive Parameter, 128 Experts, ca. 400B total | Text + Bild → Text | Open-weight multimodal | Für stärkere multimodale Aufgaben; als Download, über Hugging Face und mehrere Cloud-/MaaS-Anbieter verfügbar. |
| Llama 4 Behemoth | angekündigt: 288B aktive Parameter, ca. 2T total | Text/Bild, laut Ankündigung | Nicht öffentlich veröffentlicht | Keine gesicherten Informationen zu öffentlichem Hosting/Download verfügbar. Meta hatte im April 2025 Scout und Maverick veröffentlicht; Behemoth wurde als noch nicht veröffentlichtes bzw. trainierendes Teacher-Modell beschrieben. |
| Llama Guard 1 / 2 / 3 / 4 | u. a. Llama Guard 4 12B | Safety-Klassifikation, teils multimodal | Schutz-/Moderationsmodelle | Downloadbar bzw. über Provider verfügbar; Llama Guard 4 ist ein 12B multimodales Safety-Modell zur Bewertung von Prompts und Antworten. |
| Prompt Guard / Llama Prompt Guard 2 | 86M, 22M/86M Varianten | Prompt-Injection-/Jailbreak-Erkennung | Schutzmodell | Kleines Klassifikationsmodell, gut für lokale Vorfilterung vor LLM-Aufrufen; Meta/Hugging Face nennt Prompt Guard als Modell zur Einstufung von benign, injection und jailbreak. |
| Muse Spark | Größe nicht öffentlich verifiziert | Multimodal, Reasoning, Meta AI | Proprietär / closed | Kein öffentlicher Download, kein Self-Hosting; aktuell in Meta AI App und meta.ai, Rollout in WhatsApp, Instagram, Facebook, Messenger und AI Glasses; private API Preview für ausgewählte Partner. |
Hosting & Daten
Bedeutung: Die Firma betreibt die Lösung auf eigener Hardware oder in der eigenen Infrastruktur. Im strengsten Sinn läuft dabei nicht nur die Anwendung, sondern idealerweise auch das Modell lokal.
2) Private Cloud / RZ
Bedeutung: Die Lösung läuft in einer dedizierten oder stärker abgegrenzten Cloud-Umgebung, oft bei einem Hosting-Anbieter oder Hyperscaler, aber in einem deutschen Rechenzentrum oder in einer besonders kontrollierten Umgebung.
3) EU-SaaS / Managed
Bedeutung: Der Anbieter betreibt die Lösung selbst als Dienst. Die Firma nutzt das Tool als fertigen Cloud-Service, idealerweise mit EU-Datenresidenz.
4) Hybrid
Bedeutung: Ein Teil der Verarbeitung bleibt intern / lokal / in privater Cloud, ein anderer Teil läuft in einer externen Cloud oder EU-SaaS.
5) AVV / DPA
Bedeutung: Das ist der Auftragsverarbeitungsvertrag bzw. Data Processing Addendum. Er regelt, dass der Anbieter personenbezogene Daten im Auftrag verarbeitet und an die Weisungen des Kunden gebunden ist.
6) Kein Training
Bedeutung: Der Anbieter nutzt deine Prompts, Uploads, Anhänge, Chatverläufe oder Outputs nicht zum Training oder zur Verbesserung des allgemeinen Modells — idealerweise vertraglich ausgeschlossen.
7) Open-Source-/Transparenz-Pfad
Bedeutung: Es gibt einen Weg zu mehr technischer Transparenz und Souveränität, etwa durch:
- offene Modelle
- dokumentierte Komponenten
- self-hostbare Teile
- nachvollziehbare Architektur
- Export-/Wechselmöglichkeiten
| On-Prem / lokales Hosting | ❓ |
| Private Cloud / RZ | ❓ |
| EU-SaaS / Managed | ⚠️ |
| Hybrid | ✅ |
| AVV / DPA | ❓ |
| Kein Training | ✅ |
| Open-Source-/Transparenz-Pfad | ✅ |
Positiv: Meta gibt an, dass API-Inputs und Outputs nicht zum Training der Modelle genutzt werden. Außerdem nennt Meta Data Commitments wie Verschlüsselung und private/secure API-Nutzung. Ein belastbarer öffentlicher AVV/DPA-Pfad für EU-Unternehmen ist nicht eindeutig dokumentiert, deshalb bleibt AVV/DPA hier unklar.
EU-SaaS / Managed ist ebenfalls nur bedingt bewertbar, weil kein klarer EU-only-Hosting- oder Data-Residency-Nachweis öffentlich belegt ist.
Sehr stark ist der Hybrid-/Exit-Pfad: Die zugrunde liegenden Llama-Modelle sind open-weight/downloadbar, und Meta betont, dass Nutzer durch Llama-Modelle nicht an die API gebunden bleiben.
Fine-tuning über die API soll ebenfalls exportierbare Modelle ermöglichen. Für DSGVO-kritische Daten ist daher Self-Hosting der Llama-Gewichte oder ein geprüfter EU-/Private-Cloud-Provider meist kontrollierbarer als die direkte Meta Llama API.
| On-Prem / lokales Hosting | ❓ |
| Private Cloud / RZ | ❓ |
| EU-SaaS / Managed | ⚠️ |
| Hybrid | ✅ |
| AVV / DPA | ❓ |
| Kein Training | ✅ |
| Open-Source-/Transparenz-Pfad | ✅ |
Positiv: Meta gibt an, dass API-Inputs und Outputs nicht zum Training der Modelle genutzt werden. Außerdem nennt Meta Data Commitments wie Verschlüsselung und private/secure API-Nutzung. Ein belastbarer öffentlicher AVV/DPA-Pfad für EU-Unternehmen ist nicht eindeutig dokumentiert, deshalb bleibt AVV/DPA hier unklar.
EU-SaaS / Managed ist ebenfalls nur bedingt bewertbar, weil kein klarer EU-only-Hosting- oder Data-Residency-Nachweis öffentlich belegt ist.
Sehr stark ist der Hybrid-/Exit-Pfad: Die zugrunde liegenden Llama-Modelle sind open-weight/downloadbar, und Meta betont, dass Nutzer durch Llama-Modelle nicht an die API gebunden bleiben.
Fine-tuning über die API soll ebenfalls exportierbare Modelle ermöglichen. Für DSGVO-kritische Daten ist daher Self-Hosting der Llama-Gewichte oder ein geprüfter EU-/Private-Cloud-Provider meist kontrollierbarer als die direkte Meta Llama API.
Stärken & Schwächen im Überblick
| Stärken | Schwächen |
|---|---|
| – Sehr flexible Deployment-Pfade: lokal, Rechenzentrum, Private Cloud, Public Cloud, Managed Provider. | – Kein ausgereiftes „All-in-one“-Business-SaaS wie bei klassischen Arbeitsplatz-Tools; meist ist zusätzlicher Integrationsaufwand nötig. |
| – Breites Modellportfolio von kleinen/edge-tauglichen Modellen bis großen Enterprise-Modellen. | – Lizenz ist nicht unbeschränkt: u. a. Sonderregel für Anbieter mit >700 Mio. monatlich aktiven Nutzern. |
| – Gute Eignung für Coding, Zusammenfassung, Übersetzung, Tool Use, RAG und Chatbots. | – „Open Source“ ist rechtlich umstritten; OSI sieht Llama nicht als Open Source nach ihrer Definition. |
| – Starker Ecosystem-Fit über Provider, GitHub, Hugging Face und Partner-Hosting. | – Für Metas eigene Llama API ist öffentlich keine klare, Llama-spezifische Preistransparenz dokumentiert. |
Bewertungen
0 Bewertungen insgesamt
Für dieses Tool liegen noch keine bestätigten Bewertungen vor.
Bewertung absenden
Deine Bewertung wird erst nach der Bestätigung per E-Mail sichtbar. Damit schützen wir das Portal vor Missbrauch.
Bewertung melden
Bitte wähle den Grund aus, warum diese Bewertung geprüft werden soll.
DSGVO-konforme Nutzung möglich?
Die DSGVO-Bewertung hängt bei Llama stark vom Hostingmodell ab.
Positiv: Meta dokumentiert Private-Cloud- und Self-Hosting-Szenarien für Datenhoheit/Compliance; laut FAQ kann Meta Inputs/Outputs nicht einsehen oder nutzen, wenn du Llama über Drittanbieter oder selbst hostest und die Daten nicht direkt an Meta gibst.
Ebenfalls positiv: Für Llama API sagt Meta ausdrücklich, Inputs/Outputs würden nicht zum Training genutzt, getrennt gespeichert und verschlüsselt verarbeitet.
Einschränkung: In den öffentlich zugänglichen Llama-Quellen, die ich geprüft habe, fand ich keinen klar veröffentlichten, Llama-spezifischen DPA/AVV für die Meta-Llama-API. Für sensible personenbezogene Daten ist daher EU-Self-Hosting oder ein EU-Provider mit AVV/DPA die belastbarere Variante. Für EEA/Schweiz nennt die Lizenz Meta Platforms Ireland Limited als Meta-Vertragseinheit.