วิกฤตชิป AI 2026: ทำไม H100 ถึงไม่ถูกลงอย่างที่คิด เมื่อโลกกำลังขาดแคลน 'ความจำ'

ราคาเช่าการ์ดจอตัวแรงอย่าง H100 พุ่งขึ้น 10% ภายในเวลาแค่ 4 สัปดาห์ (ช่วงธันวาคม 2025 ถึงมกราคม 2026) จากชั่วโมงละ 2.00 ดอลลาร์ ขยับขึ้นเป็น 2.20 ดอลลาร์ นี่คือการกระโดดของราคาที่แรงที่สุดนับตั้งแต่กลางปี 2025 ทั้งที่ชิปรุ่นใหม่อย่าง B200 ก็ออกมาแล้ว และชิปรุ่นเก๋าอย่าง A100 ราคายังนิ่งสนิท
ถ้าคุณคิดว่ากฎของเทคโนโลยีคือ 'ของเก่าต้องถูกลง' ผมบอกเลยว่าใช้ไม่ได้กับโลก AI ในปี 2026 ครับ เพราะตอนนี้เราไม่ได้สู้กันที่ 'ตัวชิป' แตเรากำลังสู้กันที่ 'ความจำ' หรือ Memory ที่ตอนนี้กลายเป็นทองคำสีขาวไปเรียบร้อยแล้ว
ผมขุดข้อมูลมาให้ดู แล้วคุณจะเห็นว่าทำไมเรื่องนี้ถึงไม่ใช่แค่เรื่องของคนทำเดต้าเซ็นเตอร์ แต่มันกำลังจะลามมาถึงราคาคอมพิวเตอร์และมือถือในกระเป๋าคุณด้วย
มันไม่ใช่การขาดแคลนชิป แต่มันคือการขาดแคลน 'ส่วนประกอบ'
ลองเปรียบเทียบแบบนี้ครับ เหมือนเมืองทั้งเมืองมีร้านอาหารเต็มไปหมด มีพ่อครัวฝีมือดี (ซึ่งก็คือชิป GPU) พร้อมปรุงอาหาร แต่ปัญหาคือฟาร์มที่ผลิตวัตถุดิบ (ซึ่งก็คือแรม หรือ Memory) ถูกยักษ์ใหญ่เจ้าของเครือร้านอาหารจองล่วงหน้าไปแล้ว 70% ของทั้งโลก
สิ่งที่เกิดขึ้นตอนนี้คือ ราคาแรม DDR5 พุ่งจากชุดละ 90 ดอลลาร์ ไปแตะ 240 ดอลลาร์ หรือเพิ่มขึ้นเกือบ 3 เท่าตัวภายในปีเดียว ขณะที่แรมเกรดสูงอย่าง HBM (High Bandwidth Memory) ที่ต้องใช้ในชิป AI คาดว่าจะราคาพุ่งอีก 30-40% ในปีนี้
"นี่คือวิกฤตแรมที่ปลอมตัวมาในคราบของวิกฤตการ์ดจอ ชิปน่ะมีครับ แต่ถ้าไม่มีแรมให้มันใช้ มันก็เป็นแค่เศษเหล็กราคาแพง"
ตอนนี้ผู้ผลิตแรมยักษ์ใหญ่อย่าง Samsung, SK Hynix และ Micron ต่างพากันโยกกำลังการผลิตไปทำแรม HBM3e และ HBM4 เพื่อป้อนเดต้าเซ็นเตอร์ AI กันหมด จนทำให้ตลาดแรมสำหรับผู้บริโภคทั่วไปเริ่มขาดแคลน ผมอ่านรายงานจาก Acer Blog แล้วขนลุกครับ เพราะ Nvidia ถึงขั้นต้องลดการผลิตการ์ดจอสำหรับเล่นเกมลง 30-40% เพียงเพราะไม่มีแรม VRAM จะใส่ให้
ตลาดมือสองที่ 'นิ่ง' จนน่ากลัว
ย้อนกลับไปกลางปี 2024 ช่วงที่คนกำลังบ้าคลั่ง AI สุดขีด H100 มือสองเคยถูกปั่นราคาไปถึง 50,000 ดอลลาร์ต่อใบ ก่อนจะร่วงกราวลงมาเหลือประมาณ 18,000 - 22,000 ดอลลาร์ในปี 2026 นี้ แต่ที่น่าสนใจคือพอมันลงมาแตะระดับนี้แล้ว มันกลับไม่ลงต่อครับ
ข้อมูลจาก Silicon Data ระบุว่าเครื่อง H100 ที่ผ่านการ Refurbished ยังขายได้ในราคาถึง 85% ของราคาของใหม่ นั่นแปลว่าความต้องการใช้งานมันยังสูงมากจนของเก่าแทบจะไม่มีค่าเสื่อมราคาเลย
ทำไมคนถึงยอมซื้อของเก่าราคาแพง? คำตอบคือ Lead Time หรือระยะเวลารอของครับ ถ้าคุณจะสั่งชิป AI ตัวใหม่วันนี้ คุณอาจจะต้องรอคิวนานถึง 36-52 สัปดาห์ หรือ 'หนึ่งปีเต็ม' กว่าจะได้ของมาวางในเครื่อง การซื้อของมือสองหรือเช่าใช้ในราคาที่แพงขึ้น 10% จึงกลายเป็นทางเลือกเดียวที่เหลืออยู่สำหรับบริษัทที่ต้องรีบเทรนโมเดลให้ทันคู่แข่ง
Inference: หลุมดำที่ดูดเงินมากกว่าการเทรน 20 เท่า
หลายคนเข้าใจผิดว่าช่วงที่เปลืองเงินที่สุดคือตอน 'เทรน' AI (Training) แต่ความจริงในปี 2026 คือช่วง 'ใช้งาน' (Inference) ต่างหากที่เป็นตัวดูดเงินของจริง
รายงานจาก ByteIota เผยสถิติที่น่าตกใจมากครับ GPT-4 ใช้เงินเทรนไปประมาณ 150 ล้านดอลลาร์ แต่พอเปิดให้คนใช้งานจริง มันกลับสร้างค่าใช้จ่ายในการรันโมเดลสูงถึง 2.3 พันล้านดอลลาร์ภายในสิ้นปี 2024
"ทุกๆ 1 ดอลลาร์ที่คุณจ่ายเพื่อเทรนโมเดล เตรียมใจไว้เลยว่าต้องจ่ายอีก 15-20 ดอลลาร์เพื่อให้มันรันรอด"
ตอนนี้สัดส่วนการใช้จ่ายด้านโครงสร้างพื้นฐาน AI กว่า 55% หมดไปกับค่า Inference เพิ่มขึ้นจากเดิมที่เคยอยู่ที่ 33% ในปี 2023 นั่นคือเหตุผลว่าทำไมความต้องการชิป H100 ถึงไม่เคยลดลงเลย เพราะยิ่งมีคนใช้ AI มากขึ้นเท่าไหร่ คุณก็ยิ่งต้องการพลังประมวลผลมากขึ้นแบบทวีคูณ แม้ราคาต่อ Token จะถูกลง แต่ปริมาณการใช้งานมันพุ่งไปไกลกว่านั้น 50 เท่าแล้ว
เมื่อยักษ์ใหญ่กวาดเรียบ... แล้วเราล่ะ?
เรื่องที่น่าเศร้าที่สุดสำหรับสตาร์ทอัพหรือบริษัทขนาดเล็กคือ Hyperscalers อย่าง AWS, Azure, Google และ Meta ได้ใช้เงินมหาศาลเซ็นสัญญาจองแรม DRAM ของโลกไปแล้วกว่า 40% ผ่านสัญญาระยะยาวหลายปี
มันเหมือนการจองคอนโดที่ยังสร้างไม่เสร็จแต่จองยกตึกครับ บริษัทเล็กๆ ที่เหลือจึงต้องไปแย่งชิงกันในตลาดจร (Spot Market) ที่ราคาผันผวนและแพงกว่าหลายเท่า ตัวเลขราคาเช่า H100 ที่พุ่งขึ้น 10% ที่ผมบอกตอนต้นนั่นแหละคือผลกระทบโดยตรง
ทางออกคืออะไร?
บางคนเริ่มหนีครับ กรณีศึกษาที่น่าสนใจที่สุดคือ Midjourney ที่ตัดสินใจย้ายจากกองทัพการ์ดจอ Nvidia ไปใช้ Google Cloud TPU v6e เมื่อกลางปี 2025 ผลคือลดค่าใช้จ่ายลงได้ถึง 65% จากเดือนละ 2.1 ล้านดอลลาร์ เหลือไม่ถึง 7 แสนดอลลาร์ ประหยัดไปได้ปีละกว่า 16 ล้านดอลลาร์เลยทีเดียว
แม้แต่ Anthropic เองก็เซ็นสัญญาจอง TPU กว่า 1 ล้านตัว คิดเป็นมูลค่าหลายหมื่นล้านดอลลาร์ สิ่งนี้กำลังบอกเราว่า Nvidia อาจจะไม่ได้ครองโลก AI ไปตลอดกาล ถ้ายังแก้ปัญหาคอขวดเรื่องแรมและราคาไม่ได้
มุมมองของผม: เตรียมตัวรับแรงกระแทก
ถ้าถามผม ผมมองว่าราคา H100 ที่ดีดกลับมานี้เป็นแค่ 'สัญญาณเตือน' (Warning Shot) ครับ เรากำลังเข้าสู่ยุคที่การเข้าถึงพลังประมวลผล AI กลายเป็นเรื่องของสายป่านทางการเงิน ใครมีเงินจองทรัพยากรล่วงหน้าคนนั้นชนะ
สำหรับพวกเราคนทั่วไป สิ่งที่ต้องเจอแน่ๆ คือราคาอุปกรณ์ไอทีที่จะแพงขึ้น เพราะแรมถูกดูดไปฝั่ง AI หมด พีซีมือสองหรือการ์ดจอมือสองที่คุณเคยคิดว่าจะซื้อได้ถูกๆ อาจจะไม่เป็นอย่างนั้นอีกต่อไป เพราะตราบใดที่วิกฤตความจำยังไม่คลี่คลาย ของเก่าเหล่านี้ก็ยังมีค่าเท่ากับทองคำในสายตาของสายขุดและสาย AI
ถ้าคุณกำลังจะทำโปรเจกต์ AI ที่ต้องใช้ GPU เยอะๆ ช่วงนี้อาจจะไม่ใช่เวลาที่ดีที่สุดในการ 'เช่าใช้แบบรายชั่วโมง' แต่เป็นการหาพาร์ทเนอร์หรือมองหาทางเลือกอื่นอย่าง TPU หรือชิปเฉพาะทางอื่นๆ ก่อนที่งบประมาณคุณจะละลายหายไปกับค่าแรมที่แพงกว่าทองครับ
"ในโลก AI ปี 2026 คนที่มีชิปคือคนเก่ง แต่คนที่มีแรมคือคนคุมเกม"
แหล่งอ้างอิง
- H100 Price Spike: Understanding the 10% Surge in GPU Rental Costs - Silicon Data
- GPU Shortages: How the AI Compute Crunch Is Reshaping Infrastructure - Clarifai
- $2 H100s: How the GPU Bubble Burst - Latent Space
- AI Inference Costs 2026: The Hidden 15-20x GPU Crisis - ByteIota
- The Illusion of Stability: Unpacking H100 GPU Market Value Trends - Silicon Data
- Why GPU Prices Are Expected to Rise in 2026 - Acer Blog
- NVIDIA H100 Price Guide 2026: GPU Costs, Cloud Pricing & Buy vs Rent - JarvisLabs
บทความที่เกี่ยวข้อง

วิกิพีเดียสั่งประหารบทความ AI! ตั้งหน่วย AI-Patrol กวาดล้าง 'ขยะข้อมูล' ทั่วสารานุกรมโลก
Wikipedia ประกาศสงครามขั้นเด็ดขาด สั่งแบนการใช้ AI เขียนบทความถาวร พร้อมส่งหน่วยอาสา AI-Patrol ไล่ลบขยะข้อมูลที่หลอกคนทั้งโลกมานานหลายเดือน


ฉลาดจนต้องสั่งขัง! เจาะลึก Claude Mythos ความลับระดับอาวุธที่ Anthropic ทำหลุด
เมื่อความผิดพลาดของมนุษย์เปิดประตูสู่ความลับที่น่ากลัวที่สุดของ Anthropic: Claude Mythos เอไอที่ฉลาดจนหุ้นความปลอดภัยทั่วโลกพากันร่วงระนาว


ความคิดเห็น
ยังไม่มีความคิดเห็น เป็นคนแรกที่แสดงความเห็น!