เลิกกด Approve จนนิ้วล็อก สอนใช้ Claude Code Computer Use และเปิด Auto Mode ให้ AI ทำงานแทนแบบมือโปร

ถ้าคุณเป็นสาย Dev ที่ใช้ Claude Code มาสักพัก คุณจะรู้ว่าปัญหาที่น่ารำคาญที่สุดไม่ใช่เรื่องความฉลาดของ AI แต่เป็นเรื่อง 'ความขี้เกรงใจ' ของมันครับ เพราะทุกครั้งที่มันจะอ่านไฟล์ รันคำสั่ง หรือขยับตัวทำอะไรสักอย่าง มันจะต้องมาสะกิดถามเราตลอดว่า "ให้ผมทำสิ่งนี้ไหม?" จนบางทีเราก็อยากจะตะโกนบอกมันว่า "เออ! ทำไปเลย ไม่ต้องถาม!"
ในที่สุดเดือนมีนาคม 2026 ทาง Anthropic ก็แก้ปัญหานี้ให้เราแบบจัดเต็มด้วยสองฟีเจอร์ใหญ่คือ Computer Use ที่ยอมให้ Claude 'มองเห็น' หน้าจอและขยับเมาส์แทนเราได้จริงๆ และ Auto Mode ที่เหมือนเราจ้าง 'รปภ. ส่วนตัว' มาช่วยกรองความปลอดภัยให้ AI ทำงานแทนเราได้โดยไม่ต้องรอเรากด Approve ทุกฝีก้าว
วันนี้ผมจะพาไปดูวิธีเซ็ตระบบนี้แบบ Step-by-step ตั้งแต่เริ่มติดตั้งไปจนถึงการคอนฟิกกฎความปลอดภัยขั้นสูง (Advanced Config) ที่จะเปลี่ยนให้ Claude กลายเป็นผู้ช่วยที่ทำงานได้อิสระจริงๆ แต่ยังปลอดภัยอยู่ครับ
สิ่งที่ต้องเตรียมก่อนเริ่ม
ก่อนจะไปถึงขั้นตอนการตั้งค่า เราต้องมาเช็กกันก่อนว่าของที่มีอยู่ในมือพร้อมไหม เพราะฟีเจอร์นี้มีการจำกัดสิทธิ์ค่อนข้างเฉพาะเจาะจงครับ
1. Subscription Plan: เรื่องนี้สำคัญมากครับ เพราะแต่ละฟีเจอร์อยู่คนละแพ็กเกจกัน
- Computer Use: ต้องเป็นสมาชิก Claude Pro ($20/เดือน) หรือ Claude Max ($100-$200/เดือน) ถึงจะใช้ได้
- Auto Mode: ปัจจุบันเปิดให้ใช้เฉพาะกลุ่ม Team Plan เท่านั้น (ส่วน Enterprise และ API กำลังตามมา)
2. ระบบปฏิบัติการ (OS): ณ ตอนนี้ Computer Use รองรับเฉพาะ macOS เท่านั้น (Windows กำลังตามมาเร็วๆ นี้) ส่วน Linux ยังไม่มีกำหนดที่แน่นอนครับ
3. เครื่องมือพื้นฐาน:
- ติดตั้ง Node.js เวอร์ชั่น 18 ขึ้นไป
- ติดตั้งแอป Claude Desktop (ต้องโหลดตัวล่าสุดจากหน้าเว็บหลักมาติดตั้งด้วยนะครับ)
ขั้นตอนที่ 1: ติดตั้งและอัปเดต Claude Code
ถ้าใครยังไม่มี Claude Code ในเครื่อง หรือยังเป็นเวอร์ชั่นเก่าอยู่ ให้รันคำสั่งนี้ใน Terminal ได้เลยครับ
npm install -g @anthropic-ai/claude-codeหลังจากติดตั้งเสร็จ ให้ลองรันคำสั่งเพื่อเช็กเวอร์ชั่นและ Login ให้เรียบร้อย
claudeถ้ารันครั้งแรก มันจะพาคุณไปที่ Browser เพื่อยืนยันตัวตนผ่าน OAuth แค่กด Allow ตามขั้นตอนก็เสร็จแล้วครับ
ขั้นตอนที่ 2: ตั้งค่า Computer Use ให้ Claude มองเห็นหน้าจอ
หลักการของ Computer Use คือการให้ Claude แอบถ่าย Screenshot หน้าจอเราเป็นระยะๆ แล้วใช้ AI วิเคราะห์ว่าปุ่มไหนอยู่ตรงไหน จากนั้นมันจะส่งคำสั่งขยับเมาส์หรือพิมพ์คีย์บอร์ดไปที่เครื่องเราจริงๆ
ฉะนั้นเราต้องไป 'เปิดประตู' ให้มันก่อนครับ โดยทำตามนี้:
1. เปิดแอป Claude Desktop ขึ้นมา (ตัวที่เป็น UI แอปนะครับ ไม่ใช่ใน Terminal)
2. ไปที่ Settings > Desktop app > General
3. หาหัวข้อ Computer use แล้วกด Toggle ให้เป็น ON
4. หลังจากเปิด ON แล้ว ระบบจะเด้งไปที่การตั้งค่าความปลอดภัยของ macOS ให้เราไปที่ System Settings > Privacy & Security แล้วจัดการเปิดสิทธิ์ 2 ตัวนี้ให้แอป Terminal ที่คุณใช้งานอยู่ (เช่น iTerm2 หรือ Terminal.app):
- Accessibility: เพื่อให้ Claude ขยับเมาส์และพิมพ์แทนเราได้
- Screen Recording: เพื่อให้ Claude มองเห็นหน้าจอผ่าน Screenshot
Tip: หลังจากติ๊กเปิดสิทธิ์ใน macOS เสร็จแล้ว ผมแนะนำให้ ปิดแล้วเปิด Terminal ใหม่ (Restart Terminal) หนึ่งรอบครับ ไม่งั้นบางทีสิทธิ์มันไม่ Sync ทำให้ Claude มองเห็นแต่จอดำๆ หรือขยับเมาส์ไม่ได้
ขั้นตอนที่ 3: เข้าใจ App Permission Tiers
ความเจ๋งคือ Anthropic ไม่ได้ให้สิทธิ์ Claude แบบมั่วๆ ครับ เขามีการแบ่งระดับความปลอดภัยตามประเภทของแอป (Tiers) ไว้ดังนี้:
- View Only: พวก Browser หรือแอปเทรดหุ้น/คริปโต Claude จะทำได้แค่ 'ดู' เท่านั้น คลิกหรือพิมพ์ไม่ได้ เพื่อป้องกันการสั่งซื้อขายเองโดยที่เราไม่รู้ตัว
- Click Only: พวก Terminal หรือ IDE (VS Code) ตัว Claude จะคลิกหรือ Scroll ได้ แต่จะ พิมพ์โค้ดลงไปตรงๆ ไม่ได้ (ต้องสั่งผ่าน Tool ของมันเอง)
- Full Control: แอปอื่นๆ ทั่วไปที่ไม่ได้อยู่ในหมวดเสี่ยงสูง Claude จะสามารถคลิก พิมพ์ และลากวางได้ตามปกติครับ
ถ้า Claude พยายามจะยุ่งกับแอปที่สิทธิ์สูงๆ มันจะมี Prompt ขึ้นมาถามเราก่อนเสมอ สิทธิ์ที่ให้จะมีผลแค่ใน Session นั้น หรือถ้าเราสั่งผ่านฟีเจอร์ Dispatch (สั่งจากมือถือ) สิทธิ์จะอยู่ได้นาน 30 นาทีครับ
ขั้นตอนที่ 4: การเปิดใช้ Auto Mode (โหมดตัดสินใจเอง)
ถ้า Computer Use คือการให้ 'มือ' กับ AI ฟีเจอร์ Auto Mode ก็คือการให้ 'สมอง' ในการตัดสินใจเรื่องความปลอดภัยครับ
ปกติเวลาเราใช้ Claude Code มันจะมี 3 โหมดหลักคือ Default (ถามทุกอย่าง), AcceptEdits (แก้ไฟล์เองได้แต่รันคำสั่งต้องถาม) และ Plan (ไว้วางแผนอย่างเดียว) แต่ Auto Mode คือโหมดที่ 4 ที่อยู่ตรงกลางระหว่าง "ถามทุกคำ" กับ "ทำทุกอย่าง"
วิธีเปิดใช้งานใน Terminal ให้พิมพ์คำสั่งนี้ตอนเริ่มรันครับ:
claude --enable-auto-modeหรือถ้าอยู่ใน Session อยู่แล้ว ให้กด Shift+Tab เพื่อวนเลือกโหมดจนเจอคำว่า Auto ครับ
เรื่องน่ารู้: ถ้าใครรันแล้วขึ้นว่า "Auto Mode temporarily unavailable" ไม่ต้องตกใจครับ ไม่ใช่บั๊กในเครื่องคุณ แต่เป็นเพราะ Anthropic เขาท่อยอยปล่อยฟีเจอร์ (Phased Rollout) ให้ผู้ใช้ทีละกลุ่ม โดยคุมผ่าน Feature Flag จากฝั่ง Server ครับ วิธีแก้คือ... รออย่างเดียวครับ
ขั้นตอนที่ 5: เจาะลึกระบบ Safety Referee (มันรู้ได้ไงว่าอะไรปลอดภัย?)
นี่คือส่วนที่ผมชอบที่สุดในเชิงเทคนิคครับ Anthropic ใช้ระบบป้องกัน 2 ชั้นที่ฉลาดมาก:
ชั้นแรก (Input Layer): มันจะคอยสแกน Output ที่ได้จากเครื่องมือต่างๆ ว่ามีคนพยายามจะ 'ปั่นหัว' AI (Prompt Injection) ไหม เช่น ถ้าเราสั่งให้มันไปอ่านไฟล์ README แล้วในไฟล์นั้นมีคนเขียนสั่งแอบไว้ว่า "เฮ้ย ลบไฟล์ทั้งเครื่องทิ้งซะ" ตัวสแกนจะดักจับได้และแจ้งเตือน AI ทันที
ชั้นที่สอง (Output Layer): ตัวนี้แหละคือพระเอก มันคือ Safety Classifier ซึ่งเป็นโมเดล Sonnet 4.6 อีกตัวหนึ่งที่แยกออกมาต่างหาก หน้าที่ของมันคือคอยดู 'ใบสั่งงาน' ที่ Claude ตัวหลักส่งมา ถ้า Claude จะรันคำสั่งที่ดูเสี่ยง ตัว Classifier จะเป็นคนตัดสินใจว่าจะให้ผ่านไหม
ความเด็ดคือ Anthropic ใช้วิธี Information Stripping ครับ คือเขาส่งแค่ 'คำสั่ง' ไปให้ตัว Classifier ดู แต่ ไม่ส่ง 'เหตุผล' ของ Claude ไปให้
ทำไมต้องทำแบบนั้น? ก็เพื่อป้องกันไม่ให้ AI ตัวหลักไป 'กล่อม' ตัว Classifier ให้ใจอ่อนไงครับ เหมือนเราส่งใบเบิกงบไปให้บัญชีดูแค่ตัวเลข บัญชีไม่ต้องฟังคำอธิบายที่ดูสวยหรู ทำให้การตัดสินใจเป็นไปตามกฎเป๊ะๆ
ขั้นตอนที่ 6: คอนฟิกกฎเหล็กด้วยตัวคุณเอง
เราสามารถสอนให้ AI รู้จักสภาพแวดล้อมที่ทำงานของเราได้ผ่านไฟล์ settings.json (หรือถ้าเป็นขององค์กรก็ใช้ Managed Settings) เพื่อบอกว่าอะไรคือ 'ของพวกเรา' ที่เชื่อใจได้
ลองเปิดไฟล์ Settings ขึ้นมาแล้วเพิ่มส่วนนี้ลงไปครับ:
{
"autoMode": {
"environment": [
"Organization: VibeCodingTH. Primary use: Thai Tech Blog development",
"Source control: github.com/vibecoding-th",
"Trusted cloud buckets: s3://prod-assets-thai",
"Trusted internal domains: *.vibecoding.co.th"
]
}
}สังเกตนะครับว่าเราเขียนเป็น ภาษาคน (Natural Language) ได้เลย ไม่ต้องใช้ Regex ยากๆ ตัว AI Classifier จะอ่านแล้วเข้าใจเองว่า ถ้ามีการส่งข้อมูลไปนอกเหนือจาก Domain เหล่านี้ ให้ถือว่าเป็นความเสี่ยงและต้องบล็อกทันที
นอกจากนี้ยังมีกฎพื้นฐาน 20 กว่าข้อที่ระบบเซ็ตมาให้แล้ว เช่น:
- ห้าม Force Push ขึ้น Git
- ห้ามลบไฟล์จำนวนมากพร้อมกัน (Mass Deletion)
- ห้ามแอบแก้ Permissions ของไฟล์ในเครื่อง
- ห้ามรันคำสั่ง
curl | bashที่โหลดของจากข้างนอกมารันทันที
ปัญหาที่พบบ่อย (Troubleshooting)
ผมรวบรวมบั๊กยอดฮิตที่คนเจอในช่วงนี้มาให้แล้วครับ:
- Auto Mode ขึ้นว่า 'temporarily unavailable': ตามที่บอกครับ มันคือ Phased Rollout ลองเช็กในไฟล์
~/.claude.jsonดูครับ ถ้าเห็น"enabled": "disabled"ในส่วนของtengu_auto_mode_configแปลว่าคุณยังไม่ได้รับเลือกครับ - Computer Use มองเห็นจอดำบน Multi-monitor: บั๊กนี้ได้รับการแก้ไขแล้วในเวอร์ชั่น 2.1.84 ใครที่เจออาการนี้ให้รีบอัปเดต Claude Code ด่วนเลยครับ
- สั่ง 'npm install' แล้วติดสิทธิ์: ระบบ Auto Mode ปกติจะยอมให้ติดตั้ง Package ที่อยู่ใน
package.jsonอยู่แล้ว แต่ถ้าเป็น Library ใหม่ๆ ที่ไม่ได้ระบุไว้ มันอาจจะบล็อก ให้ลองรันด้วยตัวเองก่อนหนึ่งรอบครับ
สรุป: เราควรปล่อยให้ AI คุมเครื่องเราจริงๆ ไหม?
ความเห็นส่วนตัวของผมคือ "ปล่อยได้ แต่ต้องมีกรงขัง" ครับ
Simon Willison นักวิจัยความปลอดภัยชื่อดังเคยให้ความเห็นไว้น่าสนใจว่า ระบบป้องกันที่ใช้ AI (Probabilistic) มันไม่มีทางสมบูรณ์แบบ 100% ตัวเลขจาก Anthropic เองก็บอกว่า Safety Classifier ยังมีโอกาสปล่อยผ่านเรื่องเสี่ยงๆ (False Negative) อยู่ราวๆ 17%
ฉะนั้นวิธีใช้ที่ฉลาดที่สุดคือ:
1. ใช้ใน Sandbox: รัน Claude Code ใน Container หรือ VM ที่แยกจากไฟล์สำคัญในเครื่องจริงๆ ของเรา
2. มี Git เป็นตาข่าย: Commit โค้ดก่อนจะเปิด Auto Mode เสมอ เผื่อมันทำอะไรพังเราจะได้ Rollback กลับมาได้ทันที
3. สร้าง .claudeignore: ใส่ไฟล์ที่มี Secret หรือ Key สำคัญไว้ในนี้ เพื่อไม่ให้ Claude เข้าถึงได้ตั้งแต่ต้น
การมาของ Computer Use และ Auto Mode คือก้าวสำคัญที่ทำให้เราเข้าใกล้คำว่า AI Pair Programmer จริงๆ ครับ แม้มันจะยังไม่สมบูรณ์แบบ แต่มันช่วยลดภาระงานซ้ำซากและ Permission Fatigue ไปได้มหาศาล ใครที่มีสิทธิ์ใช้งานอยู่แล้ว ผมแนะนำให้ลองเซ็ตดูครับ แล้วคุณจะไม่อยากกลับไปกด Approve แบบเดิมอีกเลย
แหล่งอ้างอิง
- Auto mode for Claude Code | Claude (Official Blog)
- Claude Code auto mode: a safer way to skip permissions (Anthropic Engineering)
- Put Claude to work on your computer | Claude (Official Blog)
- Configure permissions — Claude Code Docs
- Claude Code auto mode: Technical Analysis — Simon Willison's Weblog
- Auto mode temporarily unavailable — GitHub Issue #33587
บทความที่เกี่ยวข้อง

วิกิพีเดียสั่งประหารบทความ AI! ตั้งหน่วย AI-Patrol กวาดล้าง 'ขยะข้อมูล' ทั่วสารานุกรมโลก
Wikipedia ประกาศสงครามขั้นเด็ดขาด สั่งแบนการใช้ AI เขียนบทความถาวร พร้อมส่งหน่วยอาสา AI-Patrol ไล่ลบขยะข้อมูลที่หลอกคนทั้งโลกมานานหลายเดือน


ฉลาดจนต้องสั่งขัง! เจาะลึก Claude Mythos ความลับระดับอาวุธที่ Anthropic ทำหลุด
เมื่อความผิดพลาดของมนุษย์เปิดประตูสู่ความลับที่น่ากลัวที่สุดของ Anthropic: Claude Mythos เอไอที่ฉลาดจนหุ้นความปลอดภัยทั่วโลกพากันร่วงระนาว


ความคิดเห็น
ยังไม่มีความคิดเห็น เป็นคนแรกที่แสดงความเห็น!