Anthropic ถูก Pentagon แบน เพราะไม่ยอมให้ AI สอดแนมประชาชน แล้วพนักงาน OpenAI กับ Google ก็ลุกขึ้นสู้
ถ้าบริษัท AI ที่คุณใช้อยู่ทุกวันถูกรัฐบาลสั่งแบน เพราะปฏิเสธไม่ยอมให้กองทัพเอา AI ไปสอดแนมประชาชนและยิงอาวุธอัตโนมัติ คุณจะยืนอยู่ฝั่งไหน?
นี่ไม่ใช่พล็อตหนัง นี่คือเรื่องจริงที่เกิดขึ้นกับ Anthropic บริษัทผู้สร้าง Claude เมื่อไม่กี่วันที่ผ่านมา
แล้วสิ่งที่เกิดขึ้นหลังจากนั้นทำให้ทั้งวงการ AI ทั่วโลกต้องหยุดมอง
เกิดอะไรขึ้นระหว่าง Anthropic กับ Pentagon
เรื่องเริ่มจากกระทรวงกลาโหมสหรัฐ (Pentagon) ต้องการใช้ AI จากบริษัทเอกชน รวมถึง Claude ของ Anthropic มาใช้ในงานด้านความมั่นคงของกองทัพ โดยต้องการให้ใช้ได้ "ทุกวัตถุประสงค์ที่ถูกกฎหมาย" (all lawful purposes)
Anthropic ไม่ได้ปฏิเสธการทำงานกับกองทัพทั้งหมด แต่ขอขีดเส้นแดง 2 เรื่อง คือ ห้ามใช้ AI สอดแนมประชาชนอเมริกันเป็นวงกว้าง (mass domestic surveillance) และห้ามใช้ AI ควบคุมอาวุธที่ยิงโดยไม่มีคนตัดสินใจ (fully autonomous weapons)
Pete Hegseth รัฐมนตรีกลาโหมสหรัฐ เรียก Dario Amodei CEO ของ Anthropic เข้าพบ แล้วให้เวลาถึงวันศุกร์ที่ 28 กุมภาพันธ์เพื่อยอมถอยจากจุดยืนเรื่อง guardrails มิฉะนั้นจะถูกลงโทษ
Anthropic ไม่ถอย
Hegseth ให้เวลา Anthropic ถึงวันศุกร์ 28 ก.พ. ยอมถอยหรือรับโทษ - Anthropic ไม่ถอย
Pentagon แบน Anthropic
วันที่ 28 กุมภาพันธ์ 2026 Hegseth ประกาศให้ Anthropic เป็น "supply chain risk to national security" ซึ่งหมายความว่าบริษัทที่รับงานจากรัฐบาลสหรัฐ (military contractors) ทั้งหมดจะถูกห้ามทำธุรกิจกับ Anthropic
เดิมที Pentagon เคยขู่จะใช้ Defense Production Act (DPA) บังคับให้ Anthropic ยอม แต่สุดท้ายเลือกวิธีที่รุนแรงกว่า คือแบนออกจาก supply chain ของรัฐบาลทั้งหมด
การถูกแบนแบบนี้ไม่ได้กระทบแค่สัญญากับกองทัพ แต่กระทบทุกบริษัทที่ทำงานกับรัฐบาลสหรัฐและใช้ Anthropic อยู่
Anthropic ถูกประกาศเป็น "supply chain risk to national security" ห้าม contractors ทั้งหมดทำธุรกิจด้วย
Anthropic ฟ้องกลับ
วันที่ 9 มีนาคม 2026 Anthropic ยื่นฟ้อง 2 คดีพร้อมกันต่อศาลรัฐบาลกลาง กล่าวหาว่า Pentagon ตอบโต้บริษัทอย่างผิดกฎหมาย เพราะ Anthropic แค่ยืนยันจุดยืนเรื่อง AI safety
Anthropic ระบุในคำฟ้องว่า Pentagon สามารถยกเลิกสัญญาแล้วไปซื้อบริการจากบริษัท AI อื่นได้ แต่กลับเลือกใช้วิธีประกาศเป็น supply chain risk ซึ่งเป็นการใช้อำนาจโดยพลการ
Anthropic ยื่นฟ้อง 2 คดี กล่าวหา Pentagon ตอบโต้อย่างผิดกฎหมาย
OpenAI กับ Google ยืนฝั่งไหน
หลัง Anthropic ถูกแบน OpenAI เซ็นสัญญากับ Pentagon ภายในไม่กี่ชั่วโมง Sam Altman CEO ของ OpenAI ยอมรับภายหลังว่าดีลนี้ดู "opportunistic and sloppy" (ฉวยโอกาสและสะเพร่า)
แต่สิ่งที่น่าสนใจคือ Altman บอกว่า OpenAI มีเส้นแดงเหมือนกับ Anthropic คือห้าม mass surveillance และห้าม autonomous weapons โดยระบุว่าจะสร้าง technical safeguards ควบคุม และจะส่งวิศวกรไปประจำที่ Pentagon เพื่อดูแลการใช้งาน
ฝั่งพนักงาน เรื่องนี้ร้อนมาก ปลายเดือนกุมภาพันธ์ พนักงาน Google กว่า 300 คน และ OpenAI กว่า 60 คน ลงชื่อในจดหมายเปิดผนึกเรียกร้องให้ผู้บริหารของตัวเองสนับสนุน Anthropic
พนักงาน Google 300+ คน และ OpenAI 60+ คน ลงชื่อเรียกร้องให้บริษัทตัวเองสนับสนุน Anthropic
Jeff Dean นำทีมยื่น Amicus Brief
วันที่ 9 มีนาคม 2026 หลัง Anthropic ยื่นฟ้อง นักวิจัยและวิศวกรจาก OpenAI กับ Google DeepMind 37 คน นำโดย Jeff Dean หัวหน้านักวิทยาศาสตร์ของ Google DeepMind ยื่น amicus brief (คำร้องสนับสนุน) ต่อศาล
เนื้อหาระบุว่าการที่ Pentagon ประกาศให้ Anthropic เป็น supply chain risk เป็นการใช้อำนาจโดยพลการที่ส่งผลกระทบร้ายแรงต่ออุตสาหกรรม AI ทั้งหมด และจะทำให้ผู้เชี่ยวชาญ AI ไม่กล้าพูดเรื่องความเสี่ยงของ AI อย่างเปิดเผยอีกต่อไป
นี่เป็นครั้งแรกที่พนักงานของบริษัทคู่แข่งรวมตัวกันสนับสนุนอีกฝ่ายในคดีระดับนี้
Jeff Dean หัวหน้านักวิทยาศาสตร์ Google DeepMind นำทีม 37 คนจาก OpenAI และ Google ยื่นสนับสนุน Anthropic ต่อศาล
ทำไมเรื่องนี้สำคัญกับคนไทย
มองเผินๆ เหมือนเป็นเรื่องไกลตัว แต่จริงๆ แล้วมันส่งผลกับทุกคนที่ใช้ AI
ถ้า Anthropic แพ้คดีนี้ มันจะสร้างบรรทัดฐานว่ารัฐบาลสามารถบังคับบริษัท AI ให้ถอด guardrails ออกได้ ซึ่งหมายความว่า AI ที่คุณใช้อยู่ทุกวันอาจถูกดัดแปลงให้ทำในสิ่งที่บริษัทผู้สร้างเองก็ไม่เห็นด้วย
ในทางกลับกัน ถ้า Anthropic ชนะ มันจะเป็นสัญญาณว่าบริษัท AI มีสิทธิ์กำหนดเส้นแดงทางจริยธรรมได้ แม้จะต้องเสียลูกค้ารายใหญ่ที่สุดในโลกอย่างรัฐบาลสหรัฐ
สำหรับประเทศไทยที่กำลังเร่งพัฒนานโยบาย AI เรื่องนี้เป็นกรณีศึกษาสำคัญว่าเราจะวางกรอบความสัมพันธ์ระหว่างรัฐกับบริษัท AI อย่างไร
ถ้า Anthropic แพ้ รัฐบาลจะบังคับบริษัท AI ถอด guardrails ได้ ถ้าชนะ บริษัท AI มีสิทธิ์ขีดเส้นจริยธรรม
Timeline สรุปเหตุการณ์ทั้งหมด
16 กุมภาพันธ์ 2026 - Axios รายงานว่า Pentagon กดดัน Anthropic เรื่อง guardrails
24 กุมภาพันธ์ 2026 - Hegseth เรียก Amodei เข้าพบ ให้เวลาถึงวันศุกร์ยอมถอย
27 กุมภาพันธ์ 2026 - พนักงาน Google 300+ คน และ OpenAI 60+ คน ลงชื่อจดหมายเปิดผนึกสนับสนุน Anthropic
28 กุมภาพันธ์ 2026 - Hegseth ประกาศให้ Anthropic เป็น supply chain risk, OpenAI เซ็นดีลกับ Pentagon ในวันเดียวกัน
2 มีนาคม 2026 - Altman ยอมรับว่าดีลดู "opportunistic and sloppy" ประกาศเจรจาใหม่ใส่ safeguards เพิ่ม
4 มีนาคม 2026 - กลุ่มอุตสาหกรรมเทคโนโลยีแสดงความกังวลถึง Hegseth เรื่องการแบน Anthropic
9 มีนาคม 2026 - Anthropic ยื่นฟ้อง 2 คดี, Jeff Dean นำทีม 37 คนจาก OpenAI/Google ยื่น amicus brief สนับสนุน
จากกดดันถึงฟ้องศาล ทั้งหมดเกิดขึ้นภายใน 3 สัปดาห์
แหล่งอ้างอิง
- TechCrunch: OpenAI and Google employees rush to Anthropic's defense
- TechCrunch: Anthropic sues Defense Department
- Axios: Hegseth gives Anthropic until Friday
- CBS News: Hegseth declares Anthropic a supply chain risk
- TechCrunch: Sam Altman announces Pentagon deal
- TechCrunch: Google and OpenAI employees open letter
- NPR: Anthropic sues Trump administration
บทความที่เกี่ยวข้อง

Claude Code Channels: สั่ง AI สร้างแอป iPhone จากห้องน้ำผ่าน Telegram ทำได้จริงแล้ว
Anthropic เปิดตัว Channels เชื่อม Telegram กับ Claude Code สั่ง AI เขียนโค้ดจากมือถือได้ มีคนทดสอบสร้างแอป iPhone จริงแล้ว


WordPress เปิดให้ AI เขียนและจัดการเว็บได้แล้ว: 42.5% ของอินเทอร์เน็ตจะไม่เหมือนเดิม
WordPress.com เปิดให้ AI สร้างและจัดการเนื้อหาบนเว็บได้แล้ว เว็บ 42.5% ของโลกกำลังเข้าสู่ยุคที่หุ่นยนต์เขียนแทนคน


ความคิดเห็น
ยังไม่มีความคิดเห็น เป็นคนแรกที่แสดงความเห็น!