ลดค่า token Claude Code 17 เท่า ด้วย wrapper 5 ไฟล์เปลี่ยน backend ไป DeepSeek

17.2 เท่า คือส่วนต่างราคา output token ระหว่าง Anthropic Opus กับ DeepSeek V4 Pro ที่ทำให้โครงการขนาด 5 ไฟล์บน GitHub ได้ดาวสองร้อยกว่าในเวลาไม่ถึงวัน
วันที่ 2026-05-03 บัญชี GitHub ชื่อ aattaran เผยแพร่โครงการ open-source ภายใต้ MIT license ชื่อ deepclaude ซึ่งไม่ได้ fork หรือสร้าง Claude Code ขึ้นใหม่ แต่อาศัย environment variable ที่ Claude Code อ่านอยู่แล้วในการเบี่ยง agent loop ไปคุยกับ DeepSeek V4 Pro แทน api.anthropic.com
คำอธิบายใน README ตรงไปตรงมา คือคำว่า Same UX, 17x cheaper ตัวเลขนี้คำนวณจากราคา output ของ Claude Opus ที่ 15 ดอลลาร์ต่อล้าน token เทียบกับ DeepSeek V4 Pro ที่ 0.87 ดอลลาร์ ทุกอย่างใน Claude Code ไม่ว่าจะเป็น tool, file edit, bash หรือ subagent ทำงานได้เหมือนเดิม เปลี่ยนเฉพาะ URL ปลายทาง
วิธีที่ wrapper หลีกเลี่ยงการแก้ Claude Code
กลไกของ deepclaude เรียบง่ายผิดคาด ไฟล์ระดับบนสุดในโครงการมีเพียง 5 รายการ คือ LICENSE, README.md, deepclaude.sh, deepclaude.ps1 และโฟลเดอร์ proxy เขียนด้วย JavaScript เป็นหลัก ไม่มีการแก้ binary ของ Claude Code แต่อาศัยการตั้ง environment variable แบบ per-session
ตัวแปรที่เกี่ยวข้องได้แก่ ANTHROPIC_BASE_URL, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_DEFAULT_OPUS_MODEL, ANTHROPIC_DEFAULT_SONNET_MODEL, ANTHROPIC_DEFAULT_HAIKU_MODEL และ CLAUDE_CODE_SUBAGENT_MODEL deepclaude เซ็ตค่าเหล่านี้ก่อน launch Claude Code แล้วคืนค่าเดิมเมื่อจบ session เพื่อไม่รบกวนการใช้งานครั้งต่อไป
ใน deepclaude.sh ชื่อ deepseek-v4-pro ถูก map เข้าทั้ง slot ของ Opus และ Sonnet ส่วน deepseek-v4-flash ถูก map เข้ากับ slot Haiku และ subagent นอกจากนั้นยังตั้ง CLAUDE_CODE_EFFORT_LEVEL ไว้ที่ค่า max ตั้งแต่ต้น
endpoint ของ DeepSeek ที่ใช้คือ api.deepseek.com/anthropic ซึ่งเป็น Anthropic-compatible interface ที่ DeepSeek เผยแพร่เอง ทำให้ payload และ schema ของ request ที่ Claude Code ส่งไป ยังคงรูปเดิม โดยที่ฝั่งปลายทางตีความเป็น DeepSeek model ได้
17 เท่า มาจากตัวเลขไหน
ตารางราคาใน README ระบุชัดว่า Anthropic Opus คิดค่า input ที่ 3 ดอลลาร์ และ output ที่ 15 ดอลลาร์ต่อล้าน token ขณะที่ DeepSeek V4 Pro บน server จีนคิด 0.44 ดอลลาร์สำหรับ input และ 0.87 ดอลลาร์สำหรับ output ตัวเลข 17.2 เท่า มาจาก 15 หาร 0.87 ตรงๆ
นอกจาก DeepSeek ตรงแล้ว ผู้ใช้ยังเลือก backend อื่นได้ตามความต้องการ OpenRouter คิดราคาเท่ากับ DeepSeek โดยใช้ server สหรัฐฯ ที่มี latency ต่ำกว่าเมื่อใช้งานจาก US หรือ EU ส่วน Fireworks AI คิด 1.74 และ 3.48 ดอลลาร์ ราคาสูงกว่าสองเท่าแลกกับความเร็ว inference ที่สูงสุดในกลุ่ม
ตารางเปรียบเทียบกับ Anthropic Max ที่ 200 ดอลลาร์ต่อเดือนพร้อม usage cap ระบุว่าการใช้งานเบาประมาณ 10 วันต่อเดือนจะอยู่ที่ราว 20 ดอลลาร์ ลดลง 90% การใช้งานหนัก 25 วันต่อเดือนอยู่ที่ราว 50 ดอลลาร์ ลดลง 75% และการเปิด auto loop ต่อเนื่องอยู่ที่ราว 80 ดอลลาร์ ลดลง 60%
เหตุผลที่ค่าใช้จ่ายของ loop ยังถูกอยู่คือ DeepSeek เปิด context caching อัตโนมัติ ราคาเพียง 0.004 ดอลลาร์ต่อล้าน token สำหรับเนื้อหาที่ cache ไว้แล้ว เทียบกับ 0.44 ดอลลาร์เมื่อไม่ cache ห่างกันราว 110 เท่า ทำให้การวน loop หลายรอบบน context เดิมเสียค่าใช้จ่ายน้อยลงมาก
README ยังอ้างว่า DeepSeek V4 Pro ทำคะแนน 96.4% บน LiveCodeBench และใช้เป็นเหตุผลหลักในการแนะนำให้สลับมาใช้ ตัวเลขนี้มาจากภายใน repo เอง ไม่ได้มีการ verify จากแหล่งภายนอกในการตรวจสอบครั้งนี้ จัดเป็น claim ที่ผู้พัฒนาประกาศเอง
proxy ที่เปลี่ยน backend ได้ในคีย์เดียว
หัวใจของ deepclaude ที่นักพัฒนาน่าจะหยิบไปใช้ซ้ำได้มากที่สุดคือไฟล์ model-proxy.js ขนาด 16,122 bytes ที่เปิด server ภายในเครื่องที่ 127.0.0.1 port 3200 พร้อม control endpoint สามจุด
endpoint แรก /_proxy/mode รับ POST request เพื่อสลับ backend ที่กำลังใช้อยู่ endpoint ที่สอง /_proxy/status รับ GET request คืนค่า backend ปัจจุบันและ uptime ส่วน /_proxy/cost รับ GET request คืนค่า token usage และส่วนต่างค่าใช้จ่ายเทียบกับ Anthropic แบบ real-time
request ที่เข้าทาง /v1/messages จะถูก route ไปยัง backend ที่ active อยู่ในขณะนั้น ส่วน path อื่นทั้งหมดถูก pass-through ไปที่ api.anthropic.com ตามเดิม ทำให้ wrapper ไม่กระทบฟีเจอร์อื่นที่ Claude Code ต้องคุยกับ Anthropic จริงๆ
การสลับ backend กลางทาง session ทำได้สามแบบ แบบแรกคือ slash command ใน Claude Code เช่น /deepseek, /anthropic หรือ /openrouter ซึ่งเป็นไฟล์ markdown สั้นๆ ใน ~/.claude/commands/ ที่ยิง curl ไปที่ /_proxy/mode แบบที่สองใช้ CLI flag ในรูป deepclaude --switch ds หรือ or fw anthropic แบบที่สามผูก keyboard shortcut ใน VS Code tasks เช่น ctrl+alt+d สลับไป DeepSeek และ ctrl+alt+a สลับกลับ Anthropic
response ที่ /_proxy/cost ส่งกลับเป็น JSON ที่นับ input_tokens, output_tokens, requests และ cost จริง พร้อมฟิลด์ anthropic_equivalent ที่คำนวณว่า Anthropic จะคิดเงินเท่าไรหากใช้ปริมาณเท่ากัน เพื่อแสดงตัวเลขประหยัดที่ผู้ใช้เห็นได้ระหว่าง session
ฟีเจอร์ที่หาย เมื่อย้าย backend
README ของ deepclaude ระบุข้อจำกัดอย่างตรงไปตรงมาผิดจาก launch project ทั่วไป endpoint ของ DeepSeek ไม่รองรับการรับภาพ image และ vision input จึงใช้ไม่ได้ MCP server tool ทั้งหมดก็ไม่สามารถผ่าน compatibility layer ของ DeepSeek ได้ ส่วน Anthropic prompt cache header แบบ cache_control ถูก ignore เพราะ DeepSeek ใช้ระบบ caching ของตัวเอง
ฝั่ง parallel tool use เคยถูกระบุใน README ฉบับแรกว่า DeepSeek ไม่รองรับ แต่ commit 389fdc7 เมื่อ 2026-05-04 ได้แก้ไขข้อมูลนี้ และระบุว่า DeepSeek V4 รองรับ parallel function calling สูงสุด 128 ตัวต่อหนึ่ง call จุดที่ส่งทีละตัวคือพฤติกรรม default ของ Claude Code เอง ไม่ใช่ข้อจำกัดของ backend
ผู้พัฒนาให้คำแนะนำการแบ่งงานไว้ใน README ว่า งานทั่วไปประมาณ 80% ของ workload สามารถใช้ DeepSeek V4 Pro แทนได้คุณภาพใกล้เคียง Claude Opus ส่วนงานที่ต้องการการให้เหตุผลซับซ้อนอีก 20% ยังต้องสลับกลับไปใช้ Anthropic ผ่านคำสั่ง deepclaude --backend anthropic ซึ่งเป็นเหตุผลที่ฟีเจอร์การสลับ backend แบบ runtime ถูกออกแบบมาตั้งแต่ต้น
remote control เปิดเผยจุดที่ wrapper ยังหนีไม่พ้น
อีกฟีเจอร์ที่ติดมากับโครงการคือ deepclaude --remote ซึ่งเปิด session บน claude.ai/code ผ่าน browser ทำให้ผู้ใช้สั่งงาน Claude Code ผ่านมือถือหรือ tablet ได้ แต่โครงสร้างของฟีเจอร์นี้สะท้อนข้อจำกัดเชิง infrastructure ที่ wrapper ทุกตัวต้องเจอ
WebSocket bridge ที่ใช้สำหรับ remote session ยัง hardcode ให้คุยกับ wss://bridge.claudeusercontent.com ผ่าน OAuth ของ Anthropic ผู้ใช้จึงต้องล็อกอินด้วย claude auth login และต้องมี subscription ของ claude.ai เพื่อรักษา bridge เอาไว้ เพียง /v1/messages เท่านั้นที่ถูกเบี่ยงไป DeepSeek ผ่าน proxy ภายในเครื่อง
เอกสาร proxy/README.md ของโครงการระบุไว้ตรงๆ ว่าการเซ็ต ANTHROPIC_AUTH_TOKEN เป็น DeepSeek key จะทำให้ bridge พัง proxy จึงทำหน้าที่แยก traffic ของ bridge กับ traffic ของ model API ออกจากกัน ผลที่ตามมาคือการประหยัด 17 เท่าเกิดขึ้นที่ขั้น inference ไม่ใช่ขั้น platform ผู้ใช้ที่เปิด remote control ต้องจ่ายค่า subscription ขั้นต่ำของ claude.ai อยู่ดี
คนไทยสาย dev ได้อะไร
สำหรับนักพัฒนาในไทยที่ใช้ Claude Code อยู่แล้ว deepclaude เปิดทางเลือกประหยัดค่าใช้จ่ายที่ชัดเจน หากงานส่วนใหญ่เป็นการแก้ bug, refactor, อ่านโค้ดเก่า หรือ implement ฟีเจอร์ที่มี pattern ชัดเจน ค่าใช้จ่ายต่อเดือนจะลดลงจาก 200 ดอลลาร์ของ Anthropic Max เหลือราว 20 ถึง 80 ดอลลาร์ ขึ้นอยู่กับปริมาณการใช้งาน
การติดตั้งตามที่ README โฆษณาใช้เวลาประมาณ 2 นาที ขั้นตอนคือสมัครที่ platform.deepseek.com เติม credit ขั้นต่ำ 5 ดอลลาร์ ตั้งค่า DEEPSEEK_API_KEY แล้ว symlink deepclaude.sh ไปที่ /usr/local/bin บน macOS หรือ Linux ส่วน Windows คัดลอก deepclaude.ps1 เข้า PATH ในโฟลเดอร์ %USERPROFILE%\.local\bin
ฟีเจอร์ที่ทำงานได้ครบเหมือน Claude Code ปกติได้แก่ Read, Write, Edit, การรัน Bash หรือ PowerShell, การค้นหาด้วย Glob และ Grep, multi-step autonomous tool loop, การ spawn subagent, git operation, /init และ thinking mode ที่เปิดเป็นค่า default
ข้อจำกัดที่กระทบการใช้งานจริงคือ ใครที่ใช้ MCP server tool เป็นหลัก เช่น MCP สำหรับ database, browser automation หรือ documentation จะใช้ deepclaude ไม่ได้ workflow ที่อ่านภาพหรือ screenshot ก็ไม่สามารถส่งให้ DeepSeek ได้เช่นกัน กรณีเหล่านี้ต้องสลับกลับไป Anthropic ผ่าน slash command
สำหรับ studio ขนาดเล็กหรือ freelancer ที่กิน token หนัก เช่นทีมที่เปิด auto loop เพื่อ migrate codebase ใหญ่ ค่าใช้จ่ายต่อเดือนอาจหารากันได้ครึ่งราคา และยังเก็บ Claude Opus ไว้สำหรับงานวิเคราะห์ระบบที่ซับซ้อนเป็นครั้งคราว
เสียงวิจารณ์ในวันแรก
ภายใน 24 ชั่วโมงหลังเผยแพร่ repo ได้ 210 stars และ 13 forks พร้อมสอง issue ที่ตั้งคำถามต่อตัวโครงการ
Issue แรกโดยบัญชี Niek เปิดเมื่อ 2026-05-04 ตั้งคำถามว่าโครงการนี้ให้คุณค่าเพิ่มอย่างไร เพราะ DeepSeek เผยแพร่ endpoint ที่เข้ากันได้กับ Anthropic ไว้ในเอกสาร api-docs.deepseek.com แล้ว ผู้ใช้ Claude Code สามารถตั้ง environment variable เพียงไม่กี่ตัวก็ใช้ DeepSeek ได้โดยไม่ต้องพึ่ง wrapper
คำตอบที่ deepclaude นำเสนอตามกรอบของตัวเองอยู่ที่ฟีเจอร์เพิ่มเติมรอบ env var ได้แก่ การรองรับหลาย backend ในไฟล์เดียว, การสลับ backend แบบ live ระหว่าง session, endpoint นับค่าใช้จ่าย และโครงสร้าง remote-control proxy ที่แยก bridge ออกจาก model API คำถามจาก Niek จึงเป็นการวิจารณ์เชิงคุณค่า ไม่ใช่การหักล้างข้อเท็จจริง
Issue ที่สองโดยบัญชี keydexofficial เขียนเป็นภาษาจีน แนะนำเครื่องมือคู่แข่งชื่อ Langcli โดยอ้างว่าปรับให้เข้ากับ DeepSeek V4 ได้ดีกว่า มีอัตรา cache hit สำหรับงาน coding เกิน 95% รองรับการสลับระหว่าง deepseek-v4-flash, deepseek-v4-pro และ model หลักอื่นภายใน context เดียว และมองว่า Claude Code ต้องตั้งค่าเพิ่มและพึ่ง cc-switch จึงยุ่งยากกว่า ตัวเลข 95% นี้เป็นสิ่งที่ผู้แนะนำกล่าวอ้างถึงเครื่องมืออื่น ไม่ได้เกี่ยวข้องกับ deepclaude เอง
"deepclaude เปลี่ยนแค่สมอง แต่ร่างกายเหมือนเดิม ทุกอย่างยังทำงานได้ ตั้งแต่อ่านไฟล์ แก้ไขไฟล์ รันคำสั่ง bash ไปจนถึงการ spawn subagent และ loop หลายขั้นตอนแบบอัตโนมัติ สิ่งเดียวที่ต่างคือ model ตัวไหนเป็นคนคิด" จากคำอธิบายใน README โดย aattaran ผู้พัฒนาและเจ้าของ repo
สัญญาณที่ตัวเลข 17 เท่า บอกเรื่องตลาด LLM
ในมุมที่กว้างกว่าค่าใช้จ่าย ตัวเลข 17 เท่าเป็นหลักฐานว่าส่วนต่างของต้นทุน LLM ปี 2026 ไม่ได้อยู่ที่ความสามารถดิบของ model อีกต่อไป แต่อยู่ที่การเลือกเส้นทางของ agent loop เดียวกัน เพราะ tool, prompt และ workflow ทั้งหมดเหมือนเดิม เปลี่ยนเฉพาะ URL ปลายทาง
pattern ที่ deepclaude แสดงให้เห็นมีโอกาสกระจายไปสู่เครื่องมือ LLM CLI อื่นๆ ที่อ่านการตั้งค่าจาก environment variable การสร้าง localhost proxy พร้อม endpoint สลับ backend ในคีย์เดียว ลดต้นทุนการทดลอง model ใหม่ ทำให้ผู้ใช้เปลี่ยนจาก vendor หนึ่งไปอีกเจ้าได้ในระดับนาที
ข้อสังเกตเชิง irony ที่บทวิเคราะห์ระบุได้คือ โครงการที่มีเป้าหมายลดการพึ่งพา Anthropic ถูกพัฒนาด้วย Claude Opus 4.6 เอง commit message ของโครงการมีบรรทัด Co-Authored-By Claude Opus 4.6 ปรากฏซ้ำๆ สะท้อนต้นทุนการทดลองและสร้าง tool ที่ต่ำลงมากเมื่อเทียบกับยุคก่อน AI assistant
สำหรับ Anthropic เอง deepclaude เป็นทั้งสัญญาณที่ดีและไม่ดี ด้านดีคือ Claude Code กลายเป็นมาตรฐานที่นักพัฒนาเลือกใช้ ถึงขั้นมีคนสร้าง wrapper เพื่อรักษา UX ของ Claude Code เอาไว้ ด้านที่ไม่ดีคือมูลค่าของ inference fee ที่ Anthropic เคยเก็บได้กำลังถูกแยกออกจากมูลค่าของ developer experience ตลาดกำลังบอกว่าสองสิ่งนี้ไม่จำเป็นต้องมาจากผู้ขายเดียวกัน
สำหรับนักพัฒนาในไทย ทางเลือกที่สมเหตุสมผลที่สุดในตอนนี้คือใช้ deepclaude สำหรับงานเขียน code ทั่วไปที่กิน token หนัก แล้วเก็บ Claude Opus ไว้เป็นตัวสำรองสำหรับงานวิเคราะห์ระบบหรือ debug ที่ซับซ้อน ฟีเจอร์ slash command ที่ออกแบบมาเพื่อ pattern นี้ตั้งแต่ต้น ทำให้การสลับระหว่าง backend ไม่กระทบการ flow การทำงาน
แหล่งอ้างอิง
บทความที่เกี่ยวข้อง




ความคิดเห็น
ยังไม่มีความคิดเห็น เป็นคนแรกที่แสดงความเห็น!