Finde dein KI-Tool in 6 Schritten.

Archiv: KI-Tools

KIFOX - Das Suchportal für KI-Anwendungen ?KIFOX ist ein Portal für KI-Tools und LLM's.

Hier dürfen Nutzer sich einen Überblick verschaffen, welche KI-Tools bzw. LLM's es derzeit auf dem Markt gibt. Jeder Nutzer darf frei eine Bewertung abgeben sowie seine Erfahrung zu KI-Anwendung teilen und kann über einen weiterführenden Link direkt zum Anbieter wechseln.

KIFOX ist kein Onlineshop, sondern lediglich ein Vergleichs- und Informationsportal.

Nimm teil und registriere dein KI-Tool Finde dein KI-Tool in 6 Schritten.

DeepSeek bietet über seine API aktuell zwei LLM-Zugänge an: deepseek-chat und deepseek-reasoner. Beide entsprechen laut offizieller Doku derzeit DeepSeek-V3.2 mit 128K Kontextfenster; deepseek-chat steht für den Non-Thinking-Modus, deepseek-reasoner für den Thinking-Modus. Die API ist OpenAI-kompatibel, unterstützt u. a. JSON Output, Tool Calls, Chat Prefix Completion und bei deepseek-chat zusätzlich FIM Completion.DeepSeek API

LLM - „Into the unknown“

Agenten-Workflows, Coding-LLM, DeepSeek API, DeepSeek Chat, DeepSeek V3.2, deepseek-reasoner, FIM Completion, JSON-Output, Kontext-Caching, Modell-Distillation, OpenAI-kompatible API, Reasoning-Modell, Thinking Mode, Token-basierte Abrechnung, Tool Calls

Sonstiges Pay-as-you-go / Prepaid auf Tokenbasis. Die aktuelle offizielle Pricing-Seite gruppiert die beiden API-Aliase deepseek-chat und deepseek-reasoner unter DeepSeek-V3.2 und zeigt aktuell folgende veröffentlichten Preise: $0.028 / 1 Mio. Input-Tokens (Cache Hit), $0.28 / 1 Mio. Input-Tokens (Cache Miss), $0.42 / 1 Mio. Output-Tokens. Außerdem gilt laut Terms/FAQ ein Guthabenmodell; laut FAQ sind ungenutzte Guthaben erstattbar, und es gibt keine tiered plans. Wichtig: Die aktuelle Pricing-Seite stellt die Preise für die beiden API-Aliase gemeinsam dar; eine separat ausformulierte öffentliche Preisaufschlüsselung pro Alias ist dort derzeit nicht klar getrennt ausgewiesen.
(0)

Link

Google bietet mit der Gemini API eine Modellfamilie für Textgenerierung, Reasoning, Coding, Agenten-Workflows, Tool-Nutzung, multimodale Prompts und dokumentennahe Verarbeitung an. Für aktuelle API-LLMs sind besonders Gemini 3.1 Pro Preview, Gemini 3 Flash Preview, Gemini 3.1 Flash-Lite Preview, Gemini 2.5 Pro, Gemini 2.5 Flash und Gemini 2.5 Flash-Lite relevant. Ältere Gemini-2.0-Flash-Varianten sind noch verfügbar, aber bereits als deprecated markiert.Google Gemini API

LLM - „AI for every developer“

Agenten-Workflows, Dokumentenanalyse, Gemini 2.5 Flash, Gemini 2.5 Flash-Lite, Gemini 2.5 Pro, Gemini 3 Flash, Gemini 3.1 Flash-Lite, Gemini 3.1 Pro, Gemini API, Google Gemini LLM, KI-Coding, multimodales LLM, Prompt Caching, Reasoning-Modell, Vertex AI

Free Google bietet einen Free Tier für Entwickler und kleine Projekte. Laut Pricing umfasst er kostenlosen Zugang zu ausgewählten Modellen, kostenlose Input-/Output-Tokens und Google AI Studio. Laut Billing-FAQ ist der Free Tier auch in vielen EEA-/UK-/CH-Regionen verfügbar. Wichtig: Außerhalb EEA/UK/CH kann Unpaid-Nutzung laut Terms zur Produktverbesserung genutzt werden; innerhalb EEA/UK/CH gelten die Paid-Data-Use-Regeln auch für kostenlose Nutzung. Sonstiges Die Gemini API wird primär als Free / Paid / Enterprise angeboten: Free – begrenzter Zugang zu bestimmten Modellen, kostenlose Tokens, AI Studio. Paid – höhere Limits, Context Caching, Batch API, Zugriff auf fortgeschrittene Modelle; laut Pricing „prepaid then pay-as-you-go“. Enterprise – über Vertex AI mit dediziertem Support, erweiterten Security-/Compliance-Funktionen, Provisioned Throughput und Volumenrabatten.
(0)

Link

Anthropic bietet über die Claude API aktuelle LLMs für Sprachverarbeitung, Reasoning, Coding, agentische Workflows, Tool-Nutzung und dokumentennahe Aufgaben an. Alle aktuellen Claude-Modelle unterstützen laut offizieller Modellübersicht Text- und Bild-Input, Text-Output, Multilingualität und Vision. Für den direkten API-Einstieg verweist Anthropic auf die Messages API; zusätzlich gibt es Managed Agents für länger laufende Aufgaben.Anthrophic Claude API Docs

LLM - „highly performant, trustworthy, and intelligent AI platform“

agentisches Coding, Anthropic LLM, API-Automatisierung, Claude API, Claude Haiku 4.5, Claude Opus 4.7, Claude Sonnet 4.6, Computer Use, data residency., Dokumentenanalyse, Enterprise-KI, Langkontext-Verarbeitung, Prompt Caching, Tool Use, Zero Data Retention

Free Anthropic dokumentiert, dass neue Nutzer eine kleine Menge kostenloser Credits zum Testen der API erhalten. Das ist aber kein klassischer dauerhafter Free-Plan im SaaS-Sinn, sondern eher ein Testguthaben. Sonstiges Pay-as-you-go pro 1 Mio. Tokens (USD): Aktuell empfohlene Hauptmodelle: • Claude Opus 4.7: $5 Input / $25 Output; Batch: $2.50 / $12.50; 1M Kontext, 128k Max Output. • Claude Sonnet 4.6: $3 / $15; Batch: $1.50 / $7.50; 1M Kontext, 64k Max Output. • Claude Haiku 4.5: $1 / $5; 200k Kontext, 64k Max Output. Weitere aktive API-Modelle: • Claude Opus 4.6: $5 / $25; Batch: $2.50 / $12.50. • Claude Opus 4.5: $5 / $25; Batch: $2.50 / $12.50. • Claude Opus 4.1: $15 / $75; Batch: $7.50 / $37.50. • Claude Sonnet 4.5: $3 / $15; Batch: $1.50 / $7.50. Preislogik / Zusatzmodelle: • Prompt Caching: 5-Min-Write 1,25x Base-Input, 1h-Write 2x, Cache-Read 0,1x. • US-only Inference (inference_geo) auf Claude API (1P) für Opus 4.6 und neuere Modelle: 1,1x auf alle Tokenpreis-Kategorien. • Fast Mode für Opus 4.6: $30 Input / $150 Output, also 6x Standardpreis. • Batch API: 50 % Rabatt auf Input und Output. • Partnerplattformen: AWS/Vertex regionale bzw. Multi-Region-Endpunkte für Claude 4.5+ haben laut Docs 10 % Aufpreis gegenüber globalen Endpunkten. • Enterprise / Priority Tier: kundenspezifische Kapazitätszusagen, Volumenrabatte und dedizierte Bedingungen; Anthropic nennt Standard, Priority und Batch als Service Tiers.
(0)

Link

OpenAI bietet über die API eine breite Modellpalette für Textgenerierung, Reasoning, Coding, Tool-Nutzung, strukturierte Ausgaben und dokumentennahe Workflows an. Laut offizieller Modellübersicht unterstützen die aktuellen Modelle Text- und Bild-Input, Text-Output, Multilingualität und Vision; sie sind über die Responses API und Client-SDKs verfügbar. Für komplexe Aufgaben empfiehlt OpenAI standardmäßig gpt-5.4; für geringere Latenz und Kosten verweist OpenAI auf gpt-5.4-mini und gpt-5.4-nanoOpen AI

LLM „Access our frontier models and APIs.“

data residency., File Search, Function Calling, GPT-4.1, GPT-4o, GPT-5.4, GPT-5.4 mini, GPT-5.4 nano, GPT-5.4 pro, GPT-o3, GPT-o4-mini, Large Language Model, OpenAI API, Reasoning-Modell, Structured Outputs

Free Es gibt im API-Ratelimit-System einen Free-Nutzungstier für Nutzer in erlaubten Geografien Sonstiges Preise in USD pro 1 Mio. Tokens. Ich liste hier die offiziell verifizierbaren Text-/Reasoning-Modelle, die als API-LLMs verfügbar sind. Aktuelle Kernmodelle: GPT-5.4: $2.50 Input / $0.25 Cached Input / $15 Output; bei >272K Input-Tokens gelten bei 1,05M-Kontextmodellen Aufschläge für die gesamte Session. GPT-5.4 mini: $0.75 / $0.075 / $4.50. GPT-5.4 nano: $0.20 / $0.02 / $1.25. GPT-5.4 pro: $30 Input / $180 Output; auf der zentralen Pricing-Seite zusätzlich Batch/Flex/Priority-Varianten. Für regionale Verarbeitung nennt OpenAI bei der GPT-5.4-Familie einen 10-%-Aufschlag. Weitere API-LLMs / weiterhin verfügbare Modellfamilien: GPT-5.1: $1.25 / $0.125 / $10. GPT-5: $1.25 / $0.125 / $10. GPT-5 mini: $0.25 / $0.025 / $2. GPT-5 nano: $0.05 / $0.005 / $0.40. GPT-5.2: $1.75 / $0.175 / $14. GPT-4.x / GPT-4o-Familie: GPT-4.1: $2 / $0.50 / $8. GPT-4.1 mini: $0.40 / $0.10 / $1.60. GPT-4.1 nano: $0.10 / $0.025 / $0.40. GPT-4o: $2.50 / $1.25 / $10. GPT-4o mini: $0.15 / $0.075 / $0.60. Reasoning-/o-Serie: o3-pro: $20 Input / $80 Output. o3: $2 / $0.50 / $8. o4-mini: $1.10 / $0.275 / $4.40. o3-mini: $1.10 / $0.55 / $4.40. o1: $15 / $7.50 / $60. Legacy, aber laut offizieller Modellseite/API weiterhin verfügbar: GPT-3.5 Turbo: $0.50 Input / $1.50 Output. OpenAI empfiehlt dort inzwischen ausdrücklich gpt-4o-mini als Nachfolger für neue Projekte.
(0)

Link

xAI bietet über seine API Grok-Modelle für Textgenerierung, Reasoning, Coding, Tool-Nutzung, dokumentennahe Workflows und agentische Recherche an. Die aktuellen Docs fokussieren vor allem auf Grok 4.20 als neues Flaggschiff sowie auf serverseitige Tools wie Web Search, X Search, Code Execution und Collections Search.

Zusätzlich dokumentiert xAI klassische Modell-Listing-Endpunkte wie /v1/models und /v1/language-models.
xAI API – Grok LLM

LLM - „Build with Grok, the AI model designed to deliver truthful, insightful answers.“

agentische KI, Coding-LLM, dokumentenbasierte Recherche, Echtzeit-Websuche, Grok 3, Grok 3 Mini, Grok 4, Grok 4.20, Grok 4.20 Multi-agent, Grok 4.20 Reasoning, Grok Code Fast, Grok LLM, Structured Outputs, X-Suche, xAI API

Sonstiges Abrechnungslogik: tokenbasiert nach Prompt-, Cached-, Completion- und Reasoning-Tokens; Reasoning-Tokens werden zum Completion-Preis berechnet. Batch API reduziert laut offizieller Pricing-Doku die Kosten für Text-/Language-Modelle um 50 %. Öffentlich in den offiziellen parsebaren API-Quellen verifizierbare Modellpreise:

• grok-4-0709: prompt_text_token_price 20000, cached_prompt_text_token_price 0, completion_text_token_price 100000 in USD-Cents pro 100 Mio. Tokens. Das entspricht $2.00 Input / $0.00 Cached / $10.00 Output pro 1 Mio. Tokens.
• grok-3: 30000 / 7500 / 150000 → $3.00 Input / $0.75 Cached / $15.00 Output pro 1 Mio. Tokens.
• grok-3-mini: 3000 / 750 / 5000 → $0.30 Input / $0.075 Cached / $0.50 Output pro 1 Mio. Tokens.
Weitere aktuell dokumentierte LLM-Modellnamen: grok-4.20-reasoning, grok-4.20-multi-agent, grok-code-fast-1. ⚠️ Keine gesicherten öffentlich parsebaren Einzelpreise verfügbar
– Stand 17.04.2026 in den hier zugänglichen offiziellen Textquellen; xAI verweist dafür auf die dynamische Models-and-Pricing-Seite bzw. die Model-Detail-Seiten.
(0)

Link