LLM API Kostenrechner
Kostenfreier Preisrechner für die Schnittstellen von Großen Sprachmodellen (LLM). Bereitgestellt über OpenRouter, vergleicht es GPT-5.4, Claude 4.6, Gemini 3.1 und DeepSeek V3.2. Ermittelt präzise gestufte Kosten & Cache-Rabatte.
37
About LLM API Kostenrechner
Verwendung des LLM API-Kostenrechners für Große Sprachmodelle (LLM)
Die Preisdaten werden über OpenRouter bereitgestellt und automatisch aktualisiert. Vergleichen Sie im Handumdrehen die API-Kosten der neuesten Flaggschiff-Modelle (wie GPT-5.4, Claude 4.6, Gemini 3.1, DeepSeek V3.2), um Ihre laufenden KI-Ausgaben detailliert zu prognostizieren.
Berechnungsgrundlagen
- Cache-Rabatte (Cache Hit Ratio): Viele moderne Modelle unterstützen Prompt-Caching. Über den Schieberegler (0-100%) können Sie simulieren, wie sparsam das System reagiert. Für gecachte Tokens greifen massiv rabattierte "Cache Read"-Konditionen.
- Gestaffelte Preise (Tiered Pricing): Einige Anbieter wie Google erhöhen den Preis auf Basis der generierten Kontextlänge. Wenn Ihr kombinierter Wert von Eingabe+Ausgabe-Tokens bestimmte Grenzwerte (z. B. 128K) überschreitet, wechselt der Rechner automatisch zum nächsthöheren Staffeltarif.
Grundlegendes zum Token-Kostenmodell
- Eingabe-Tokens: Jegliche Daten, die an das Modell übertragen werden, kosten Geld.
- Ausgabe-Tokens: Generierter Text durch das Modell. Dieser ist meist signifikant teurer als die Eingabe.
- 1-Millionen-Regel: Zur besseren Übersicht sind sämtliche API-Preise auf Basis von 1 Million (1M) Tokens ausgewiesen.
Tipps zur Kostensenkung
- Dynamisches Modell-Routing: Leiten Sie simple Einstufungen an günstige Varianten weiter, während tiefe Logikaufgaben an die Flaggschiffe gesteuert werden.
- Cache-Hit Maximierung: Behalten Sie komplexe Systemprompts starr, da die meisten Anbieter wiederholte lange Prompts in der Folge stark subventionieren.
- Schlanker Kontext: Verzichten Sie auf Ballast wie aufwendiges HTML-Design oder extrem aufgeblähte Text-Container.