Đầu tháng 4/2026, Anthropic ra Claude Opus 4.7 với SWE-Bench Verified 87.6%. Một tuần sau, Moonshot tung Kimi K2.6 đạt 80.2% SWE-Bench Verified ở giá chỉ $0.60/$2.80 per 1M tokens — ngang Opus 4.6 flagship của 2 tháng trước nhưng rẻ hơn gần 9 lần. Alibaba Coding Plan Pro $50/tháng, GLM Pro $30/tháng, OpenAI tung Pro $100 tier mới. Thị trường cực kỳ cạnh tranh.
Câu hỏi phổ biến của developer lúc này: mua plan nào, ở mức giá nào, tránh pitfall gì?
Bài này tổng hợp research thực tế về 5 providers lớn: Anthropic, Alibaba, GLM (Zhipu), Moonshot, OpenAI. So sánh subscription flat-fee, API pay-per-token, chất lượng code, và pitfall billing chung.
Snapshot: 2026-04-21. Giá và quota thay đổi nhanh — verify lại ở link official trước khi quyết định.
TL;DR
- Solo dev budget-conscious: GLM Pro $30 (sweet spot thị trường)
- Solo dev cần throughput cao: Alibaba Pro $50 (45K request/tuần)
- Native Claude experience, chất lượng tối đa: Anthropic Max 5x $100
- API rẻ nhất gần Opus quality: Kimi K2.6 ($0.60/$2.80)
- ChatGPT/Codex lock-in: OpenAI Pro $100 (Codex là rival của Claude Code, không phải replacement)
- Mọi provider non-Anthropic đều có pitfall: dùng sai API key hoặc base URL sẽ bypass subscription và bill pay-per-token
Phần 1: Subscription plans
Giá theo tháng (USD)
| Provider | Entry | Mid | Heavy |
|---|---|---|---|
| GLM Zhipu | Lite $10 | Pro $30 | Max $80 |
| Moonshot Kimi | Moderato $19 | Allegretto ~$39 | Vivace (top) |
| Anthropic | Pro $20 | Max 5x $100 | Max 20x $200 |
| OpenAI | Plus $20 | Pro $100 | Pro $200 |
| Alibaba Qwen | — (Lite đã ngưng) | Pro $50 | — |
Quota hằng tuần
Đơn vị đo khác nhau giữa providers, không so 1-1 được. Đây là số liệu chính thức hoặc community-observed:
| Plan | Quota / tuần |
|---|---|
| Alibaba Pro $50 | 45,000 requests |
| GLM Pro $30 | 30,000 prompts (3x multiplier peak hour với GLM-5/5.1) |
| Moonshot Moderato $19 | 2,048 Kimi Code requests |
| Anthropic Max 5x $100 | ~1,100 messages (ước tính cộng đồng) |
| OpenAI Pro $100 | 600 - 3,000 local messages |
Khi quota hết: Alibaba và GLM fail hẳn, không auto fallback pay-per-token (an toàn cho ví). Anthropic có “extra usage” opt-in cho overflow sang API rates. OpenAI có top-up credits.
Claude Code compatibility
| Provider | Base URL cho Claude Code | Key format |
|---|---|---|
| Anthropic | Native (không cần override) | sk-ant-... hoặc OAuth |
| GLM | https://api.z.ai/api/anthropic | Z.AI key |
| Alibaba | https://coding-intl.dashscope.aliyuncs.com/apps/anthropic | sk-sp-... |
| Moonshot | https://api.moonshot.ai/anthropic hoặc https://api.kimi.com/coding/ | sk-kimi-... cho sub |
| OpenAI | Không có | Chỉ qua proxy (vi phạm TOS) |
OpenAI không expose Anthropic-compatible endpoint vì Codex là sản phẩm rival của Claude Code. Nếu bạn commit dùng Claude Code làm primary tool, OpenAI không phải lựa chọn khả thi.
Phần 2: Chi tiết từng provider
Alibaba Qwen Coding Plan
Pro $50/tháng (Lite $10 đã bị ngưng 2026-03-20).
Quota: 6K req/5h, 45K req/tuần, 90K req/tháng.
Models: qwen3.5-plus, kimi-k2.5, glm-5, MiniMax-M2.5, qwen3-coder-plus, qwen3-max, và nhiều model khác.
Setup Claude Code:
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "sk-sp-xxxxx",
"ANTHROPIC_BASE_URL": "https://coding-intl.dashscope.aliyuncs.com/apps/anthropic",
"ANTHROPIC_MODEL": "qwen3.5-plus"
}
}
Pitfall: API key phải bắt đầu bằng sk-sp- (không phải sk-xxx), base URL phải chứa chuỗi coding. Nếu dùng general key sk-xxx hoặc base URL dashscope-intl.aliyuncs.com (không có “coding”), requests vẫn thành công nhưng route sang pay-per-token. Đây là cause #1 của “mua gói rồi vẫn bị bill”.
Restrictions: chỉ dùng trong interactive coding tools. Automation, backend, batch đều bị cấm. Non-refundable.
Best for: solo dev cần throughput request cao nhất per dollar. Server Singapore (ap-southeast-1) latency tốt cho developer APAC.
Anthropic Claude plans
Pro $20 / Max 5x $100 / Max 20x $200 (không tính Team/Enterprise).
Quota: 5-hour rolling session window (chat + Claude Code share pool) + weekly caps (introduced 8/2025). Community ước tính:
| Tier | Tin nhắn / 5h |
|---|---|
| Pro | 40 - 45 |
| Max 5x | ~225 |
| Max 20x | ~900 |
Models trong Claude Code: Opus 4.7, Sonnet 4.6, Haiku 4.5. Extended thinking trên mọi tier.
Setup: native, không cần override base URL. Chạy claude /login là xong.
Pitfall lớn nhất: nếu shell environment có ANTHROPIC_API_KEY set, Claude Code ưu tiên dùng key đó và bill pay-per-token API thay vì subscription. Silently bypass sub. Fix: unset ANTHROPIC_API_KEY hoặc đảm bảo dùng OAuth mode.
Best for: user coi trọng chất lượng instruction-following và Opus access. Max 5x $100 là mainstream serious-dev tier.
GLM Zhipu Coding Plan
Lite $10/tháng ($30/quý) / Pro $30 ($90/quý) / Max $80 ($240/quý).
Quota prompt-based (không phải token):
| Tier | Per 5h | Per week | Per month |
|---|---|---|---|
| Lite | ~1,000 | 6,000 | 12,000 |
| Pro | ~5,000 | 30,000 | 60,000 |
| Max | ~1,600 | ~8,000 | ~32,000 |
GLM-5/5.1 tốn 3x quota trong peak hour (14:00-18:00 UTC+8), 2x off-peak (promo 1x off-peak đến hết 4/2026).
Tool support rộng nhất ngoài Anthropic: Claude Code, Cline, Roo Code, Kilo Code, OpenCode, Crush, Goose, OpenClaw, Cursor.
Setup Claude Code:
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "your_zai_key",
"ANTHROPIC_BASE_URL": "https://api.z.ai/api/anthropic",
"API_TIMEOUT_MS": "3000000"
}
}
Pitfall: GLM có 2 endpoint:
https://api.z.ai/api/anthropic— subscription quotahttps://api.z.ai/api/coding/paas/v4— pay-per-token API (bypass sub)
TOS explicit: “Users with a Coding Plan can only use the plan’s quota in supported tools and cannot call the model separately via API.” Giống Alibaba, chỉ cho dùng trong interactive tools.
Best for: budget-conscious solo dev muốn Claude Code UX ở giá 3-8 lần thấp hơn Anthropic. Pro $30 là sweet spot thị trường. Community trên HN/Reddit đánh giá drop-in compat với Claude Code rất mượt.
Moonshot Kimi Code
Moderato $19 / Allegretto ~$39 / Allegro cao hơn / Vivace top tier.
Quota Moderato: 2,048 req/tuần, 300-1,200 API calls / 5h, max 30 concurrent, 2 concurrent sessions.
Models: K2.5 (2026-01-27) và K2.6 Code Preview (2026-04-13).
K2.6 honest take
Moonshot công bố benchmark ấn tượng:
- SWE-Bench Pro: 58.6 (vượt Opus 4.6 ở 53.4)
- Terminal-Bench 2.0: 66.7
- LiveCodeBench v6: 89.6
- SWE-Bench Verified: 80.2 (ngang Opus 4.6)
Nhưng có nhiều cờ đỏ:
| Điểm đáng ngờ | Chi tiết |
|---|---|
| Thiếu comparison vs Opus 4.7 | Mọi article “beats Claude” đều ref Opus 4.5/4.6, không phải Opus 4.7 mới nhất |
| Thiếu comparison vs GLM-5, Qwen3-coder-plus | Có vẻ cherry-pick |
| Moonshot tự thừa nhận yếu | Reasoning và vision vẫn kém GPT-5.4, Gemini 3.1 Pro |
| Real-user complaints | HN, GitHub kimi-cli issues: personality regression, hallucinations tăng, verbose, 50K-token “thought loops” |
| Weights chưa public | Vẫn ở preview status, GA dự kiến 5/2026 |
Setup Claude Code với Moderato sub:
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "sk-kimi-xxxxx",
"ANTHROPIC_BASE_URL": "https://api.kimi.com/coding/",
"ANTHROPIC_MODEL": "kimi-k2.6",
"ANTHROPIC_SMALL_FAST_MODEL": "kimi-k2.6"
}
}
Hai pitfall:
- Two-platform split:
platform.moonshot.ai(intl) vàplatform.moonshot.cn(China) account/key hoàn toàn isolated. Dùng sai platform →401 invalid_authentication_error. - Sub key vs platform API key: Key từ Kimi Code Console chỉ work với
api.kimi.com/coding/. Dùng platform API key → bypass sub, bill pay-per-token.
Best for: solo dev làm agent swarm / long-horizon coding (12h+ autonomous runs), muốn side-model giá rẻ cho bulk task. Không phù hợp nếu cần precise instruction-following.
OpenAI Codex
Codex là coding agent của OpenAI (rival của Claude Code), ship trong mọi ChatGPT paid plan. Không có standalone Codex subscription.
| Plan | Price | Codex tier |
|---|---|---|
| Plus | $20 | Baseline (1x) |
| Pro $100 | $100 | 5x Plus (ra mắt 2026-04-09) |
| Pro $200 | $200 | 20x Plus |
| Business | $25-30/seat | Token-credit model |
Promo đến 2026-05-31: Pro $100 effective 10x (không phải 5x), Pro $200 effective 25x. Sau 1/6/2026 sẽ drop xuống 5x và 20x. Cảnh báo: size budget theo số post-promo để tránh hit ceiling tháng 6.
Codex CLI có 2 auth mode:
- ChatGPT login → dùng plan quota, không charge thêm
- API key (BYOK) → bill pay-per-token ở
platform.openai.com
Pitfall: dual-billing trap — sub quota và API credits là 2 pool tách biệt. User hay mua cả 2 nhầm.
Claude Code compat: không. Community proxies có thể translate Anthropic ↔ OpenAI format nhưng vi phạm TOS nếu route sub auth qua đó.
Best for: user đã commit vào ChatGPT ecosystem, dùng Codex là primary tool. Pro $100 ngang bằng Claude Max 5x về giá.
Phần 3: API pay-per-token
Nếu bạn không dùng sub mà gọi API trực tiếp (backend, custom app, automation), đây là so sánh.
Bảng giá vs SWE-Bench Verified
| Model | Input $/M | Output $/M | Cached | Context | SWE-V |
|---|---|---|---|---|---|
| Opus 4.7 | $5.00 | $25.00 | $0.50 | 200K (1M beta) | 87.6% |
| Opus 4.6 | $5.00 | $25.00 | $0.50 | 200K | 80.8% |
| Sonnet 4.6 | $3.00 | $15.00 | $0.30 | 1M | ~77% |
| GPT-5.3-Codex | $1.75 | $14.00 | ~$0.18 | 400K | ~80% |
| Kimi K2.6 | $0.60 | $2.80 | ~$0.15 auto | 256K | 80.2% |
| Kimi K2.5 | $0.60 | $2.50 | auto | 262K | 76.8% |
| GLM-5 | $1.00 | $2.30 | yes | 200K | 77.8% |
| GLM-4.7 | $0.60 | $1.75 | yes | 200K | 73.8% |
| Qwen3-Max | $0.78 | $3.90 | yes | 262K | ~75-78% |
| Qwen3-Coder-Plus | $0.65 | $3.25 | yes | 256K-1M | ~73% |
| Qwen3.5-Plus | $0.26 | $1.56 | yes | 1M | 76.4% |
| DeepSeek V3.2 | $0.14 | $0.28 | 90% off | 164K | ~70% |
Ranking ”$ per quality point”
Blended cost = (3 × input + 1 × output) / 4, approximating coding workload ratio. Chia cho SWE-V% để ra $/điểm chất lượng.
| Rank | Model | Blended $/M | SWE-V | $/% point |
|---|---|---|---|---|
| 1 | DeepSeek V3.2 | $0.24 | ~70% | $0.003 |
| 2 | GLM-4.7 | $0.89 | 73.8% | $0.012 |
| 3 | Qwen3.5-Plus | $1.24 | 76.4% | $0.016 |
| 4 | GLM-5 | $1.92 | 77.8% | $0.025 |
| 5 | Kimi K2.5 | $2.03 | 76.8% | $0.026 |
| 6 | Kimi K2.6 | $2.25 | 80.2% | $0.028 |
| 7 | Qwen3-Max | $3.12 | ~76% | $0.041 |
| 8 | GPT-5.3-Codex | $10.94 | ~80% | $0.137 |
| 9 | Sonnet 4.6 | $12.00 | ~77% | $0.156 |
| 10 | Opus 4.7 | $20.00 | 87.6% | $0.228 |
Top 3 picks “near-Opus quality, rẻ nhất”
- Kimi K2.6 — Matches Opus 4.6 SWE-V score, giá ~9x rẻ hơn Opus 4.7. Caveat: real-user report hallucinations và verbose.
- GLM-5 — 77.8% SWE-V, reputation ổn định hơn về instruction-following. GLM-5.1 hiện đứng #1 SWE-Bench Pro 58.4%.
- Qwen3.5-Plus — Ultra cheap $0.26/$1.56, 1M context, chấp nhận gap ~10 điểm so Opus 4.7.
DeepSeek V3.2 rẻ nhất tuyệt đối nhưng drop dưới “near-Opus” bar. Chỉ dùng cho bulk/draft work.
Khi nào vẫn nên Opus 4.7
Trả $5/$25 per 1M khi:
- Precision-critical (prod code review, security audit, architecture decision)
- Long autonomous agent 12h+ (Opus giữ coherence tốt hơn)
- 7 điểm SWE-V gap (80 → 87.6) có value thực tế với bạn
Không đáng khi: bulk refactor, code gen templated, docstring, test scaffolding, prototyping.
Hybrid cost estimate
Workload: 30M input tokens + 10M output tokens per tháng (solo full-time dev).
| Strategy | Monthly cost |
|---|---|
| All Opus 4.7 | ~$400 |
| All Kimi K2.6 | ~$46 |
| 80% K2.6 + 20% Opus 4.7 | ~$117 |
Hybrid bắt được hầu hết cost saving trong khi vẫn giữ Opus cho critical moments.
Phần 4: Billing pitfall chung
Pattern “wrong key/URL → bypass sub, route pay-per-token” xuất hiện ở mọi provider:
| Provider | Sai → bill pay-per-token | Đúng → consume sub |
|---|---|---|
| Alibaba | sk-xxx + general URL | sk-sp-xxx + URL chứa coding |
| GLM | api.z.ai/api/coding/paas/v4 | api.z.ai/api/anthropic |
| Moonshot | Platform API key + api.moonshot.ai raw | Sub key + api.kimi.com/coding/ |
| Anthropic | ANTHROPIC_API_KEY env var set | claude /login OAuth, env unset |
| OpenAI | API key + platform.openai.com | ChatGPT login mode |
Checklist verify trước mỗi setup
- API key format khớp prefix expected của plan (
sk-sp-,sk-kimi-,sk-ant-, v.v.) - Base URL chứa keyword đúng (
coding,anthropic,kimi.com/coding) - Shell environment không có biến xung đột (đặc biệt
ANTHROPIC_API_KEYkhi dùng Claude Code với sub) - Sau setup 1-2 ngày, check dashboard xem quota sub giảm (đúng) hay pay-per-token balance giảm (sai, cần fix ngay)
Conclusion
Decision framework theo use case
| Nhu cầu | Lựa chọn | Lý do |
|---|---|---|
| Hobby, thử nghiệm rẻ nhất | GLM Lite $10 | Entry thấp nhất, Claude Code drop-in |
| Solo dev daily, budget thấp | GLM Pro $30 | Sweet spot thị trường, tool compat rộng nhất |
| Solo dev throughput cao | Alibaba Pro $50 | 45K req/tuần, highest per-dollar |
| Chất lượng native Claude | Anthropic Max 5x $100 | Zero proxy, Opus access |
| All-day Opus power user | Anthropic Max 20x $200 | Only practical path |
| Multi-tool (Cursor + Claude Code + Cline) | GLM Pro $30 | Widest tool support |
| Long context 256K+ | Moonshot Moderato $19 | K2.5/K2.6 context leader |
| ChatGPT / Codex ecosystem | OpenAI Pro $100 | Native Codex |
| Team với SSO | Anthropic Team Premium hoặc OpenAI Business | Admin + compliance |
| APAC latency quan trọng | Alibaba, Moonshot, GLM | Server gần hơn US |
Khuyến nghị chiến lược
Nếu đang phân vân giữa mấy gói $30-50: Đừng mua thẳng. Thử tuần tự:
- GLM Lite $10 1 tháng → đo pattern sử dụng thực tế (request/prompt per tuần)
- Nếu < 6K prompt/tuần → stay Lite hoặc lên GLM Pro $30
- Nếu đụng trần quota Lite → lên Alibaba Pro $50 (throughput cao hơn) hoặc GLM Pro $30 (tool compat rộng hơn)
- Nếu cần quality Opus cho critical work → thêm Anthropic Max 5x $100 hoặc pay-per-token Opus 4.7 khi cần
Nếu cần dùng API ở mọi nơi (backend, automation, custom app): Không subscription nào cover — phải pay-per-token. Pick theo ranking Phần 3:
- Near-Opus quality, rẻ nhất: Kimi K2.6 ($0.60/$2.80)
- Reliability cao, rẻ: GLM-5 ($1.00/$2.30)
- Ultra budget, chấp nhận gap quality: Qwen3.5-Plus ($0.26/$1.56)
- Bulk/draft work: DeepSeek V3.2 ($0.14/$0.28)
Tuyệt đối tránh: all-in một provider khi model mới còn ở “preview” (K2.6 tính đến 2026-04 vẫn chưa GA), hoặc subscription còn trong promo window (OpenAI Pro sẽ drop quota từ 6/2026).
Điều quan trọng cuối cùng
Benchmark SWE-Bench và tương tự chỉ là starting point. Workload thực tế của bạn — tỷ lệ input:output, độ dài context, tần suất tool use, yêu cầu precision — quyết định provider nào thực sự tốt nhất. Vì thế bước 1 của mọi subscription decision là đo lường pattern của chính mình trong 1-2 tuần, không phải mua gói theo marketing hay top-of-mind recommendation.