大型語言模型 (LLM) API 成本計算器
免費大型語言模型 (LLM) API 成本計算器。即時接入 OpenRouter 數據,一鍵對比 GPT-5.4、Claude 4.6、Gemini 3.1 與 DeepSeek V3.2 等 API 定價。內建快取命中率折扣與長文本階梯定價精確測算方案。
4
About 大型語言模型 (LLM) API 成本計算器
如何使用大型語言模型 (LLM) API 成本計算器
本計算器資料即時同步自 OpenRouter,極速對比最新的旗艦大模型(如 GPT-5.4、Claude 4.6、Gemini 3.1、DeepSeek V3.2 等)的 API 定價,精準估算您業務中的 AI 實際使用成本。
核心高級計算規則
- 上下文快取折扣 (Cache Hit Ratio):許多現代模型支援 Prompt Caching(如 Anthropic、DeepSeek、xAI)。系統會自動根據您設定的快取命中率(0-100%),將會命中的部分輸入 Token 自動切換為更低廉的 Cache Read 價格計算(通常單價便宜 5-10 倍)。
- 階梯定價規則 (Tiered Pricing):像 Google Gemini 或 Xiaomi MiMo 等模型會根據單次請求的總長度跨度實施階梯收費。當您的輸入+輸出 Token 總數超過臨界點(如 128K 或 256K)時,列表會自動高亮並切換採用更長上下文區間的浮動階梯單價。
理解基礎 Token 費用
- 輸入 Token:發送給模型的所有內容(提示詞、文件、程式碼儲存庫)都會按 Token 計費。
- 輸出 Token:模型生成的回覆內容,單價通常數倍於輸入成本。
- 百萬 Token 規則:所有大廠報價均以每 1M(一百萬)Token 為單位。作為參考感知:一頁標準中文文件平均消耗 700~1000 個 Token。
節省 Token 與降低成本的業務技巧
- 動態模型路由:讓小模型(如 Kimi、DeepSeek 或 Flash 變體)扛下簡單的分類總結髒活,只把需要深度邏輯推理的任務丟給昂貴的旗艦大杯。
- 最大化利用上下文快取:在多輪請求中固定長系統設定或龐大的知識儲備文件位置,觸發服務商底層的 Cache 機制白嫖極低單價。
- 精簡死板的 Prompt 骨架:大力清洗傳給模型的廢話,剔除諸如繁冗的 HTML 標籤或者不必要的格式化佔位符,每一滴乾癟下去的體積都是省出來的真金白銀。