Đầu tháng 4/2026, Anthropic ra Claude Opus 4.7 với SWE-Bench Verified 87.6%. Một tuần sau, Moonshot tung Kimi K2.6 đạt 80.2% SWE-Bench Verified ở giá chỉ $0.60/$2.80 per 1M tokens — ngang Opus 4.6 flagship của 2 tháng trước nhưng rẻ hơn gần 9 lần. Alibaba Coding Plan Pro $50/tháng, GLM Pro $30/tháng, OpenAI tung Pro $100 tier mới. Thị trường cực kỳ cạnh tranh.

Câu hỏi phổ biến của developer lúc này: mua plan nào, ở mức giá nào, tránh pitfall gì?

Bài này tổng hợp research thực tế về 5 providers lớn: Anthropic, Alibaba, GLM (Zhipu), Moonshot, OpenAI. So sánh subscription flat-fee, API pay-per-token, chất lượng code, và pitfall billing chung.

Snapshot: 2026-04-21. Giá và quota thay đổi nhanh — verify lại ở link official trước khi quyết định.

TL;DR

  • Solo dev budget-conscious: GLM Pro $30 (sweet spot thị trường)
  • Solo dev cần throughput cao: Alibaba Pro $50 (45K request/tuần)
  • Native Claude experience, chất lượng tối đa: Anthropic Max 5x $100
  • API rẻ nhất gần Opus quality: Kimi K2.6 ($0.60/$2.80)
  • ChatGPT/Codex lock-in: OpenAI Pro $100 (Codex là rival của Claude Code, không phải replacement)
  • Mọi provider non-Anthropic đều có pitfall: dùng sai API key hoặc base URL sẽ bypass subscription và bill pay-per-token

Phần 1: Subscription plans

Giá theo tháng (USD)

ProviderEntryMidHeavy
GLM ZhipuLite $10Pro $30Max $80
Moonshot KimiModerato $19Allegretto ~$39Vivace (top)
AnthropicPro $20Max 5x $100Max 20x $200
OpenAIPlus $20Pro $100Pro $200
Alibaba Qwen— (Lite đã ngưng)Pro $50

Quota hằng tuần

Đơn vị đo khác nhau giữa providers, không so 1-1 được. Đây là số liệu chính thức hoặc community-observed:

PlanQuota / tuần
Alibaba Pro $5045,000 requests
GLM Pro $3030,000 prompts (3x multiplier peak hour với GLM-5/5.1)
Moonshot Moderato $192,048 Kimi Code requests
Anthropic Max 5x $100~1,100 messages (ước tính cộng đồng)
OpenAI Pro $100600 - 3,000 local messages

Khi quota hết: Alibaba và GLM fail hẳn, không auto fallback pay-per-token (an toàn cho ví). Anthropic có “extra usage” opt-in cho overflow sang API rates. OpenAI có top-up credits.

Claude Code compatibility

ProviderBase URL cho Claude CodeKey format
AnthropicNative (không cần override)sk-ant-... hoặc OAuth
GLMhttps://api.z.ai/api/anthropicZ.AI key
Alibabahttps://coding-intl.dashscope.aliyuncs.com/apps/anthropicsk-sp-...
Moonshothttps://api.moonshot.ai/anthropic hoặc https://api.kimi.com/coding/sk-kimi-... cho sub
OpenAIKhông cóChỉ qua proxy (vi phạm TOS)

OpenAI không expose Anthropic-compatible endpoint vì Codex là sản phẩm rival của Claude Code. Nếu bạn commit dùng Claude Code làm primary tool, OpenAI không phải lựa chọn khả thi.

Phần 2: Chi tiết từng provider

Alibaba Qwen Coding Plan

Pro $50/tháng (Lite $10 đã bị ngưng 2026-03-20).

Quota: 6K req/5h, 45K req/tuần, 90K req/tháng.

Models: qwen3.5-plus, kimi-k2.5, glm-5, MiniMax-M2.5, qwen3-coder-plus, qwen3-max, và nhiều model khác.

Setup Claude Code:

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "sk-sp-xxxxx",
    "ANTHROPIC_BASE_URL": "https://coding-intl.dashscope.aliyuncs.com/apps/anthropic",
    "ANTHROPIC_MODEL": "qwen3.5-plus"
  }
}

Pitfall: API key phải bắt đầu bằng sk-sp- (không phải sk-xxx), base URL phải chứa chuỗi coding. Nếu dùng general key sk-xxx hoặc base URL dashscope-intl.aliyuncs.com (không có “coding”), requests vẫn thành công nhưng route sang pay-per-token. Đây là cause #1 của “mua gói rồi vẫn bị bill”.

Restrictions: chỉ dùng trong interactive coding tools. Automation, backend, batch đều bị cấm. Non-refundable.

Best for: solo dev cần throughput request cao nhất per dollar. Server Singapore (ap-southeast-1) latency tốt cho developer APAC.

Anthropic Claude plans

Pro $20 / Max 5x $100 / Max 20x $200 (không tính Team/Enterprise).

Quota: 5-hour rolling session window (chat + Claude Code share pool) + weekly caps (introduced 8/2025). Community ước tính:

TierTin nhắn / 5h
Pro40 - 45
Max 5x~225
Max 20x~900

Models trong Claude Code: Opus 4.7, Sonnet 4.6, Haiku 4.5. Extended thinking trên mọi tier.

Setup: native, không cần override base URL. Chạy claude /login là xong.

Pitfall lớn nhất: nếu shell environment có ANTHROPIC_API_KEY set, Claude Code ưu tiên dùng key đó và bill pay-per-token API thay vì subscription. Silently bypass sub. Fix: unset ANTHROPIC_API_KEY hoặc đảm bảo dùng OAuth mode.

Best for: user coi trọng chất lượng instruction-following và Opus access. Max 5x $100 là mainstream serious-dev tier.

GLM Zhipu Coding Plan

Lite $10/tháng ($30/quý) / Pro $30 ($90/quý) / Max $80 ($240/quý).

Quota prompt-based (không phải token):

TierPer 5hPer weekPer month
Lite~1,0006,00012,000
Pro~5,00030,00060,000
Max~1,600~8,000~32,000

GLM-5/5.1 tốn 3x quota trong peak hour (14:00-18:00 UTC+8), 2x off-peak (promo 1x off-peak đến hết 4/2026).

Tool support rộng nhất ngoài Anthropic: Claude Code, Cline, Roo Code, Kilo Code, OpenCode, Crush, Goose, OpenClaw, Cursor.

Setup Claude Code:

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "your_zai_key",
    "ANTHROPIC_BASE_URL": "https://api.z.ai/api/anthropic",
    "API_TIMEOUT_MS": "3000000"
  }
}

Pitfall: GLM có 2 endpoint:

  • https://api.z.ai/api/anthropic — subscription quota
  • https://api.z.ai/api/coding/paas/v4 — pay-per-token API (bypass sub)

TOS explicit: “Users with a Coding Plan can only use the plan’s quota in supported tools and cannot call the model separately via API.” Giống Alibaba, chỉ cho dùng trong interactive tools.

Best for: budget-conscious solo dev muốn Claude Code UX ở giá 3-8 lần thấp hơn Anthropic. Pro $30 là sweet spot thị trường. Community trên HN/Reddit đánh giá drop-in compat với Claude Code rất mượt.

Moonshot Kimi Code

Moderato $19 / Allegretto ~$39 / Allegro cao hơn / Vivace top tier.

Quota Moderato: 2,048 req/tuần, 300-1,200 API calls / 5h, max 30 concurrent, 2 concurrent sessions.

Models: K2.5 (2026-01-27) và K2.6 Code Preview (2026-04-13).

K2.6 honest take

Moonshot công bố benchmark ấn tượng:

  • SWE-Bench Pro: 58.6 (vượt Opus 4.6 ở 53.4)
  • Terminal-Bench 2.0: 66.7
  • LiveCodeBench v6: 89.6
  • SWE-Bench Verified: 80.2 (ngang Opus 4.6)

Nhưng có nhiều cờ đỏ:

Điểm đáng ngờChi tiết
Thiếu comparison vs Opus 4.7Mọi article “beats Claude” đều ref Opus 4.5/4.6, không phải Opus 4.7 mới nhất
Thiếu comparison vs GLM-5, Qwen3-coder-plusCó vẻ cherry-pick
Moonshot tự thừa nhận yếuReasoning và vision vẫn kém GPT-5.4, Gemini 3.1 Pro
Real-user complaintsHN, GitHub kimi-cli issues: personality regression, hallucinations tăng, verbose, 50K-token “thought loops”
Weights chưa publicVẫn ở preview status, GA dự kiến 5/2026

Setup Claude Code với Moderato sub:

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "sk-kimi-xxxxx",
    "ANTHROPIC_BASE_URL": "https://api.kimi.com/coding/",
    "ANTHROPIC_MODEL": "kimi-k2.6",
    "ANTHROPIC_SMALL_FAST_MODEL": "kimi-k2.6"
  }
}

Hai pitfall:

  1. Two-platform split: platform.moonshot.ai (intl) và platform.moonshot.cn (China) account/key hoàn toàn isolated. Dùng sai platform → 401 invalid_authentication_error.
  2. Sub key vs platform API key: Key từ Kimi Code Console chỉ work với api.kimi.com/coding/. Dùng platform API key → bypass sub, bill pay-per-token.

Best for: solo dev làm agent swarm / long-horizon coding (12h+ autonomous runs), muốn side-model giá rẻ cho bulk task. Không phù hợp nếu cần precise instruction-following.

OpenAI Codex

Codex là coding agent của OpenAI (rival của Claude Code), ship trong mọi ChatGPT paid plan. Không có standalone Codex subscription.

PlanPriceCodex tier
Plus$20Baseline (1x)
Pro $100$1005x Plus (ra mắt 2026-04-09)
Pro $200$20020x Plus
Business$25-30/seatToken-credit model

Promo đến 2026-05-31: Pro $100 effective 10x (không phải 5x), Pro $200 effective 25x. Sau 1/6/2026 sẽ drop xuống 5x và 20x. Cảnh báo: size budget theo số post-promo để tránh hit ceiling tháng 6.

Codex CLI có 2 auth mode:

  • ChatGPT login → dùng plan quota, không charge thêm
  • API key (BYOK) → bill pay-per-token ở platform.openai.com

Pitfall: dual-billing trap — sub quota và API credits là 2 pool tách biệt. User hay mua cả 2 nhầm.

Claude Code compat: không. Community proxies có thể translate Anthropic ↔ OpenAI format nhưng vi phạm TOS nếu route sub auth qua đó.

Best for: user đã commit vào ChatGPT ecosystem, dùng Codex là primary tool. Pro $100 ngang bằng Claude Max 5x về giá.

Phần 3: API pay-per-token

Nếu bạn không dùng sub mà gọi API trực tiếp (backend, custom app, automation), đây là so sánh.

Bảng giá vs SWE-Bench Verified

ModelInput $/MOutput $/MCachedContextSWE-V
Opus 4.7$5.00$25.00$0.50200K (1M beta)87.6%
Opus 4.6$5.00$25.00$0.50200K80.8%
Sonnet 4.6$3.00$15.00$0.301M~77%
GPT-5.3-Codex$1.75$14.00~$0.18400K~80%
Kimi K2.6$0.60$2.80~$0.15 auto256K80.2%
Kimi K2.5$0.60$2.50auto262K76.8%
GLM-5$1.00$2.30yes200K77.8%
GLM-4.7$0.60$1.75yes200K73.8%
Qwen3-Max$0.78$3.90yes262K~75-78%
Qwen3-Coder-Plus$0.65$3.25yes256K-1M~73%
Qwen3.5-Plus$0.26$1.56yes1M76.4%
DeepSeek V3.2$0.14$0.2890% off164K~70%

Ranking ”$ per quality point”

Blended cost = (3 × input + 1 × output) / 4, approximating coding workload ratio. Chia cho SWE-V% để ra $/điểm chất lượng.

RankModelBlended $/MSWE-V$/% point
1DeepSeek V3.2$0.24~70%$0.003
2GLM-4.7$0.8973.8%$0.012
3Qwen3.5-Plus$1.2476.4%$0.016
4GLM-5$1.9277.8%$0.025
5Kimi K2.5$2.0376.8%$0.026
6Kimi K2.6$2.2580.2%$0.028
7Qwen3-Max$3.12~76%$0.041
8GPT-5.3-Codex$10.94~80%$0.137
9Sonnet 4.6$12.00~77%$0.156
10Opus 4.7$20.0087.6%$0.228

Top 3 picks “near-Opus quality, rẻ nhất”

  1. Kimi K2.6 — Matches Opus 4.6 SWE-V score, giá ~9x rẻ hơn Opus 4.7. Caveat: real-user report hallucinations và verbose.
  2. GLM-5 — 77.8% SWE-V, reputation ổn định hơn về instruction-following. GLM-5.1 hiện đứng #1 SWE-Bench Pro 58.4%.
  3. Qwen3.5-Plus — Ultra cheap $0.26/$1.56, 1M context, chấp nhận gap ~10 điểm so Opus 4.7.

DeepSeek V3.2 rẻ nhất tuyệt đối nhưng drop dưới “near-Opus” bar. Chỉ dùng cho bulk/draft work.

Khi nào vẫn nên Opus 4.7

Trả $5/$25 per 1M khi:

  • Precision-critical (prod code review, security audit, architecture decision)
  • Long autonomous agent 12h+ (Opus giữ coherence tốt hơn)
  • 7 điểm SWE-V gap (80 → 87.6) có value thực tế với bạn

Không đáng khi: bulk refactor, code gen templated, docstring, test scaffolding, prototyping.

Hybrid cost estimate

Workload: 30M input tokens + 10M output tokens per tháng (solo full-time dev).

StrategyMonthly cost
All Opus 4.7~$400
All Kimi K2.6~$46
80% K2.6 + 20% Opus 4.7~$117

Hybrid bắt được hầu hết cost saving trong khi vẫn giữ Opus cho critical moments.

Phần 4: Billing pitfall chung

Pattern “wrong key/URL → bypass sub, route pay-per-token” xuất hiện ở mọi provider:

ProviderSai → bill pay-per-tokenĐúng → consume sub
Alibabask-xxx + general URLsk-sp-xxx + URL chứa coding
GLMapi.z.ai/api/coding/paas/v4api.z.ai/api/anthropic
MoonshotPlatform API key + api.moonshot.ai rawSub key + api.kimi.com/coding/
AnthropicANTHROPIC_API_KEY env var setclaude /login OAuth, env unset
OpenAIAPI key + platform.openai.comChatGPT login mode

Checklist verify trước mỗi setup

  1. API key format khớp prefix expected của plan (sk-sp-, sk-kimi-, sk-ant-, v.v.)
  2. Base URL chứa keyword đúng (coding, anthropic, kimi.com/coding)
  3. Shell environment không có biến xung đột (đặc biệt ANTHROPIC_API_KEY khi dùng Claude Code với sub)
  4. Sau setup 1-2 ngày, check dashboard xem quota sub giảm (đúng) hay pay-per-token balance giảm (sai, cần fix ngay)

Conclusion

Decision framework theo use case

Nhu cầuLựa chọnLý do
Hobby, thử nghiệm rẻ nhấtGLM Lite $10Entry thấp nhất, Claude Code drop-in
Solo dev daily, budget thấpGLM Pro $30Sweet spot thị trường, tool compat rộng nhất
Solo dev throughput caoAlibaba Pro $5045K req/tuần, highest per-dollar
Chất lượng native ClaudeAnthropic Max 5x $100Zero proxy, Opus access
All-day Opus power userAnthropic Max 20x $200Only practical path
Multi-tool (Cursor + Claude Code + Cline)GLM Pro $30Widest tool support
Long context 256K+Moonshot Moderato $19K2.5/K2.6 context leader
ChatGPT / Codex ecosystemOpenAI Pro $100Native Codex
Team với SSOAnthropic Team Premium hoặc OpenAI BusinessAdmin + compliance
APAC latency quan trọngAlibaba, Moonshot, GLMServer gần hơn US

Khuyến nghị chiến lược

Nếu đang phân vân giữa mấy gói $30-50: Đừng mua thẳng. Thử tuần tự:

  1. GLM Lite $10 1 tháng → đo pattern sử dụng thực tế (request/prompt per tuần)
  2. Nếu < 6K prompt/tuần → stay Lite hoặc lên GLM Pro $30
  3. Nếu đụng trần quota Lite → lên Alibaba Pro $50 (throughput cao hơn) hoặc GLM Pro $30 (tool compat rộng hơn)
  4. Nếu cần quality Opus cho critical work → thêm Anthropic Max 5x $100 hoặc pay-per-token Opus 4.7 khi cần

Nếu cần dùng API ở mọi nơi (backend, automation, custom app): Không subscription nào cover — phải pay-per-token. Pick theo ranking Phần 3:

  • Near-Opus quality, rẻ nhất: Kimi K2.6 ($0.60/$2.80)
  • Reliability cao, rẻ: GLM-5 ($1.00/$2.30)
  • Ultra budget, chấp nhận gap quality: Qwen3.5-Plus ($0.26/$1.56)
  • Bulk/draft work: DeepSeek V3.2 ($0.14/$0.28)

Tuyệt đối tránh: all-in một provider khi model mới còn ở “preview” (K2.6 tính đến 2026-04 vẫn chưa GA), hoặc subscription còn trong promo window (OpenAI Pro sẽ drop quota từ 6/2026).

Điều quan trọng cuối cùng

Benchmark SWE-Bench và tương tự chỉ là starting point. Workload thực tế của bạn — tỷ lệ input:output, độ dài context, tần suất tool use, yêu cầu precision — quyết định provider nào thực sự tốt nhất. Vì thế bước 1 của mọi subscription decision là đo lường pattern của chính mình trong 1-2 tuần, không phải mua gói theo marketing hay top-of-mind recommendation.