Amazon สั่งให้ใช้ AI เขียนโค้ด ออเดอร์หาย 6.3 ล้าน: วิกฤต Vibe Coding ที่ทุกคนต้องรู้
Amazon สั่งให้วิศวกร 80% ใช้ AI coding tool ทุกสัปดาห์ ผลลัพธ์คือออเดอร์หายไป 6.3 ล้านรายการภายในวันเดียว
5 มีนาคม 2026 ระบบ e-commerce ของ Amazon ล่มนาน 5-6 ชั่วโมง ลูกค้าสั่งของไม่ได้ ราคาสินค้าแสดงผิด เข้าดูประวัติออเดอร์ไม่ได้ Downdetector รายงานผู้ใช้ที่ได้รับผลกระทบกว่า 22,000 คน โดย 48% เจอปัญหาตอน checkout ยอดสั่งซื้อทั่ว North America ร่วงลง 99%
สามวันก่อนหน้านั้น 2 มีนาคม ระบบเดียวกันเกิดปัญหาจาก AI-generated code ทำให้ออเดอร์หาย 120,000 รายการ และเกิด error บนเว็บไซต์ 1.6 ล้านครั้ง
ย้อนไปเดือนธันวาคม 2025 Kiro ซึ่งเป็น AI coding tool ของ Amazon เอง ตัดสินใจ "ลบแล้วสร้าง environment ใหม่" ทำให้ AWS ล่มนาน 13 ชั่วโมง
นี่ไม่ใช่เรื่องของบริษัทเล็กๆ นี่คือ Amazon บริษัทเทคโนโลยีที่มีวิศวกรระดับโลกหลายหมื่นคน และเป็นบริษัทที่ออกคำสั่งให้วิศวกร 80% ใช้ AI coding tool ทุกสัปดาห์
Vibe Coding คืออะไร และทำไมมันถึงกลายเป็นปัญหา
Vibe Coding คือวิธีเขียนโปรแกรมที่ใช้ AI เป็นตัวหลักในการสร้างโค้ด นักพัฒนาบอก AI ว่าอยากได้อะไร AI เขียนโค้ดให้ แล้วก็เอาไปใช้เลย Andrej Karpathy อดีต Director of AI ที่ Tesla เป็นคนตั้งชื่อนี้
ปัญหาคือหลายคนใช้โค้ดที่ AI สร้างให้โดยไม่เข้าใจว่ามันทำอะไร Stack Overflow รายงานว่า developer กว่า 40% ที่เป็น junior deploy โค้ดจาก AI โดยไม่เข้าใจมันทั้งหมด 63% ของ developer เคยใช้เวลา debug โค้ดจาก AI นานกว่าเขียนเองตั้งแต่ต้น
ฟังดูเหมือนปัญหาของ developer มือใหม่ แต่ Amazon พิสูจน์ให้เห็นว่าแม้แต่องค์กรที่มีระบบ review ระดับโลก ก็ยังหลุด
ตัวเลขที่น่ากลัว: AI Code กับช่องโหว่ด้านความปลอดภัย
ข้อมูลจากงานวิจัยหลายแหล่งชี้ไปในทิศทางเดียวกัน
โค้ดจาก AI มีช่องโหว่มากกว่าคนเขียนเอง 2.74 เท่า จากการวิเคราะห์ของ Veracode พบว่า 45-48% ของโค้ดที่ AI สร้างมี security vulnerability และ 68% ของโปรเจกต์ที่ใช้ AI เขียนโค้ดมีช่องโหว่ระดับ high-severity อย่างน้อย 1 จุด เฉลี่ยแล้ว 4.2 จุดต่อโปรเจกต์
87% ของ pull requests จาก AI coding agents มีการนำเข้าช่องโหว่ใหม่ Help Net Security รายงานว่าไม่ว่าจะเป็น Claude Code, OpenAI Codex หรือ Google Gemini ทุกตัวมีปัญหาเดียวกัน ช่องโหว่ที่พบบ่อยที่สุดคือ SQL Injection (31%), Cross-Site Scripting (27%), Broken Authentication (24%) และ Sensitive Data Exposure (22%)
1 ใน 5 ของการถูกแฮ็กมาจากโค้ด AI IBM X-Force พบว่าการโจมตีผ่าน public-facing applications เพิ่มขึ้น 44% และ 77% ขององค์กรรายงานว่าเคยเจอ security incident ที่เกี่ยวกับ AI โดยความเสียหายเฉลี่ยอยู่ที่ $4.88 ล้านต่อครั้ง
Misconfiguration ในโค้ด AI พบบ่อยกว่าโค้ดคนเขียน 75% ส่วนโมเดล AI ที่ถูกทดสอบเรื่อง Cross-Site Scripting มีอัตราล้มเหลว 86%
Open Source ตอบโต้: Gentoo และ NetBSD แบน AI Code
ชุมชน open source เริ่มต่อต้านโค้ดจาก AI อย่างจริงจัง
Gentoo Linux แบน AI-generated code ตั้งแต่เมษายน 2024 โดยสภา Gentoo โหวตผ่าน 6-0 เสียง ห้ามใช้โค้ดที่สร้างจาก NLP AI tools ทุกชนิด เหตุผลหลักคือปัญหาลิขสิทธิ์ คุณภาพ และจริยธรรม ล่าสุดเดือนกุมภาพันธ์ 2026 Gentoo ย้ายออกจาก GitHub ไปใช้ Codeberg เพราะ GitHub พยายามบังคับให้ใช้ Copilot
NetBSD จัดโค้ดจาก AI เป็น "presumed to be tainted code" ต้องได้รับอนุญาตเป็นลายลักษณ์อักษรจาก core developers และผ่านการ audit อย่างละเอียดก่อนถึงจะรับเข้าได้ เหตุผลคือ LLM ถูกเทรนจากโค้ดหลายล้านบรรทัดบนอินเทอร์เน็ตที่อยู่ภายใต้ license ต่างๆ กัน การเอาโค้ดที่ AI "สังเคราะห์" มาใช้อาจละเมิดลิขสิทธิ์โดยไม่รู้ตัว
RedMonk นักวิเคราะห์ Kate Holterhoff เรียกสถานการณ์นี้ว่า "AI Slopageddon" เพราะ maintainer ของโปรเจกต์ open source ถูกท่วมด้วยโค้ดคุณภาพต่ำจาก AI จนแทบรับไม่ไหว
DORA Report: ข้อมูลจาก Google บอกอะไร
Google ออก DORA (DevOps Research and Assessment) Report ทุกปี เป็นงานวิจัยที่ได้รับการยอมรับมากที่สุดในวงการ software engineering
รายงานปี 2025 พบว่า AI ช่วยเพิ่มคุณภาพโค้ดได้ 3.4% และคุณภาพ documentation ดีขึ้น 7.5% แต่ในขณะเดียวกันการใช้ AI มากขึ้นทำให้ software delivery stability ลดลง เกิด rework และ failed deployments มากขึ้น
ตัวเลขที่น่าสนใจที่สุดคือเรื่อง trust มี developer เพียง 3% ที่บอกว่ามี "high trust" ต่อ output ของ AI ขณะที่ 30% บอกว่าแทบไม่เชื่อถือเลย
สิ่งที่ DORA พบว่าช่วยได้คือ platform engineering ถ้าองค์กรมี internal platform ที่ดี มี documentation คุณภาพสูง AI จะสร้างโค้ดที่ดีขึ้นมาก ปัญหาไม่ใช่ตัว AI แต่เป็นสิ่งที่ป้อนให้ AI
Amazon ตอบสนองอย่างไร
หลังเหตุการณ์ Amazon ประกาศ 90-day safety reset สำหรับ 335 ระบบที่วิกฤต กำหนดให้ทุกการเปลี่ยนแปลงโค้ดต้องมีคนรีวิว 2 คนก่อน deploy ต้องมี formal documentation และ approval process และเพิ่ม automated check ที่เข้มงวดขึ้น
Amazon ยืนยันว่าเป็น "user error ไม่ใช่ AI error" แต่ยอมรับว่ามี "trend of incidents" ตั้งแต่ไตรมาส 3 ปี 2025 และระบุว่าเหตุการณ์เหล่านี้มี "high blast radius" จาก "Gen-AI assisted changes"
พูดง่ายๆ คือ Amazon ไม่ได้โทษ AI ตรงๆ แต่ก็ยอมรับกลายๆ ว่า AI เป็นปัจจัยสำคัญ
สิ่งที่นักพัฒนาไทยต้องรู้
ปัญหาไม่ได้อยู่ที่ว่า "ควรใช้ AI เขียนโค้ดไหม" แต่อยู่ที่ "ใช้อย่างไร"
อย่า deploy โค้ดที่ไม่เข้าใจ ถ้า AI สร้างโค้ดมาแล้วคุณอ่านไม่ออกว่ามันทำอะไร อย่าเอาขึ้น production นี่คือกฎข้อแรกที่ไม่มีข้อยกเว้น
ตรวจ security เสมอ ช่องโหว่ที่ AI สร้างบ่อยที่สุดคือ SQL Injection, XSS, hardcoded API keys และ authentication logic ที่อยู่ฝั่ง client side เพียงแค่รู้ว่าต้องมองหาอะไร ก็ป้องกันได้เกินครึ่ง
AI เก่งเรื่อง boilerplate ไม่ใช่ architecture ใช้ AI สร้าง CRUD, UI components, utility functions ได้ดี แต่เรื่อง system design, error handling, security logic ยังต้องใช้คนที่เข้าใจจริง
Code review สำคัญกว่าเดิม Amazon มี engineer ระดับโลก มีระบบ review ที่เข้มงวด แต่ยังหลุด เพราะปริมาณโค้ดจาก AI เพิ่มขึ้นเร็วกว่าที่คนจะ review ทัน ถ้าองค์กรคุณไม่มี review process ที่ดี AI จะทำให้ปัญหาแย่ลงไม่ใช่ดีขึ้น
Vibe Coding ไม่ได้ผิด การเขียนโค้ดด้วย AI เป็นอนาคตที่หลีกเลี่ยงไม่ได้ แต่อนาคตนั้นต้องมาพร้อมกับวินัยในการตรวจสอบ ไม่ใช่ความเชื่อมั่นแบบไม่ตั้งคำถาม
Amazon เสียออเดอร์ 6.3 ล้านรายการเพราะเรียนรู้บทเรียนนี้ช้าไป คุณไม่จำเป็นต้องเป็นรายต่อไป
บทความที่เกี่ยวข้อง

Claude Code Channels: สั่ง AI สร้างแอป iPhone จากห้องน้ำผ่าน Telegram ทำได้จริงแล้ว
Anthropic เปิดตัว Channels เชื่อม Telegram กับ Claude Code สั่ง AI เขียนโค้ดจากมือถือได้ มีคนทดสอบสร้างแอป iPhone จริงแล้ว


WordPress เปิดให้ AI เขียนและจัดการเว็บได้แล้ว: 42.5% ของอินเทอร์เน็ตจะไม่เหมือนเดิม
WordPress.com เปิดให้ AI สร้างและจัดการเนื้อหาบนเว็บได้แล้ว เว็บ 42.5% ของโลกกำลังเข้าสู่ยุคที่หุ่นยนต์เขียนแทนคน


ความคิดเห็น
ยังไม่มีความคิดเห็น เป็นคนแรกที่แสดงความเห็น!