대규모 언어 모델 (LLM) 비용 계산기

OpenRouter 기반의 무료 대규모 언어 모델(LLM) API 비용 계산기. GPT-5.4, Claude 4.6, Gemini 3.1, DeepSeek V3.2의 API 가격을 한 번에 비교. 캐시 적중 할인 및 긴 텍스트의 계층형 가격 책정 정밀 시뮬레이트.

4

누적 방문수

About 대규모 언어 모델 (LLM) 비용 계산기

대규모 언어 모델 (LLM) API 비용 계산기 사용법

이 계산기는 OpenRouter 에서 데이터를 실시간으로 동기화하여 GPT-5.4, Claude 4.6, Gemini 3.1, DeepSeek V3.2 등 최신 플래그십 모델의 API 가격을 신속하게 비교하고 비즈니스의 실제 AI 사용 비용을 정확하게 예측합니다.

핵심 고급 계산 규칙

  • 컨텍스트 캐싱 할인 (Cache Hit Ratio): 최신 모델은 대부분 프롬프트 캐싱(예: Anthropic, DeepSeek, xAI)을 지원합니다. 설정한 캐시 적중률(0-100%)에 따라, 적중된 입력 토큰 부분은 자동으로 훨씬 저렴한 Cache Read 가격(일반적으로 5~10배 저렴함)으로 계산됩니다.
  • 계층형 가격제 (Tiered Pricing): Google Gemini 또는 Xiaomi MiMo와 같은 모델은 단일 요청의 컨텍스트 길이에 따라 단계별 요금을 부과합니다. 입력 + 출력 토큰 합계가 임계값(예: 128K 또는 256K)을 초과하면 해당 항목이 자동으로 강조 표시되고 더 긴 컨텍스트 구간에 맞는 단가로 전환됩니다.

기본 토큰 비용 이해

  • 입력 토큰: 모델에 전송되는 모든 내용(프롬프트, 문서, 코드 저장소)은 토큰 단위로 청구됩니다.
  • 출력 토큰: 모델이 생성한 응답 내용입니다. 단가는 보통 입력 비용보다 몇 배 더 높습니다.
  • 1백만 토큰 규칙: 모든 주요 업체의 단가는 1M(1백만) 토큰 단위입니다. (참고: 표준 한국어 문서 1페이지는 평균 700~1000 토큰을 소모합니다.)

비용 절감 및 토큰 축소 비즈니스 팁

  1. 동적 모델 라우팅: 간단한 분류나 요약 같은 기본 작업은 작은 모델(예: Flash 변형 등)이 처리하도록 하고 깊이 있는 논리적 추론이 필요한 작업만 비싼 플래그십 모델에 전달하세요.
  2. 캐싱 효과 극대화: 여러 번의 요청 간에 긴 시스템 설정이나 방대한 지식 기반 문서의 위치를 고정하여, 공급자의 캐시 메커니즘을 트리거하고 매우 낮은 단가를 활용하세요.
  3. 프롬프트 뼈대 간소화: 모델에 불필요한 단어를 크게 줄이고 장황한 HTML 태그나 형식 지정자를 제거하십시오. 압축된 데이터 양이 그대로 비용 절감으로 이어집니다.