ราคาเช่าการ์ดจอตัวแรงอย่าง H100 พุ่งขึ้น 10% ภายในเวลาแค่ 4 สัปดาห์ (ช่วงธันวาคม 2025 ถึงมกราคม 2026) จากชั่วโมงละ 2.00 ดอลลาร์ ขยับขึ้นเป็น 2.20 ดอลลาร์ นี่คือการกระโดดของราคาที่แรงที่สุดนับตั้งแต่กลางปี 2025 ทั้งที่ชิปรุ่นใหม่อย่าง B200 ก็ออกมาแล้ว และชิปรุ่นเก๋าอย่าง A100 ราคายังนิ่งสนิท

ถ้าคุณคิดว่ากฎของเทคโนโลยีคือ 'ของเก่าต้องถูกลง' ผมบอกเลยว่าใช้ไม่ได้กับโลก AI ในปี 2026 ครับ เพราะตอนนี้เราไม่ได้สู้กันที่ 'ตัวชิป' แตเรากำลังสู้กันที่ 'ความจำ' หรือ Memory ที่ตอนนี้กลายเป็นทองคำสีขาวไปเรียบร้อยแล้ว

ผมขุดข้อมูลมาให้ดู แล้วคุณจะเห็นว่าทำไมเรื่องนี้ถึงไม่ใช่แค่เรื่องของคนทำเดต้าเซ็นเตอร์ แต่มันกำลังจะลามมาถึงราคาคอมพิวเตอร์และมือถือในกระเป๋าคุณด้วย


rows of high-end GPU servers in a modern data center
rows of high-end GPU servers in a modern data center (Kier in Sight Archives on Unsplash)

มันไม่ใช่การขาดแคลนชิป แต่มันคือการขาดแคลน 'ส่วนประกอบ'

ลองเปรียบเทียบแบบนี้ครับ เหมือนเมืองทั้งเมืองมีร้านอาหารเต็มไปหมด มีพ่อครัวฝีมือดี (ซึ่งก็คือชิป GPU) พร้อมปรุงอาหาร แต่ปัญหาคือฟาร์มที่ผลิตวัตถุดิบ (ซึ่งก็คือแรม หรือ Memory) ถูกยักษ์ใหญ่เจ้าของเครือร้านอาหารจองล่วงหน้าไปแล้ว 70% ของทั้งโลก

สิ่งที่เกิดขึ้นตอนนี้คือ ราคาแรม DDR5 พุ่งจากชุดละ 90 ดอลลาร์ ไปแตะ 240 ดอลลาร์ หรือเพิ่มขึ้นเกือบ 3 เท่าตัวภายในปีเดียว ขณะที่แรมเกรดสูงอย่าง HBM (High Bandwidth Memory) ที่ต้องใช้ในชิป AI คาดว่าจะราคาพุ่งอีก 30-40% ในปีนี้

"นี่คือวิกฤตแรมที่ปลอมตัวมาในคราบของวิกฤตการ์ดจอ ชิปน่ะมีครับ แต่ถ้าไม่มีแรมให้มันใช้ มันก็เป็นแค่เศษเหล็กราคาแพง"

ตอนนี้ผู้ผลิตแรมยักษ์ใหญ่อย่าง Samsung, SK Hynix และ Micron ต่างพากันโยกกำลังการผลิตไปทำแรม HBM3e และ HBM4 เพื่อป้อนเดต้าเซ็นเตอร์ AI กันหมด จนทำให้ตลาดแรมสำหรับผู้บริโภคทั่วไปเริ่มขาดแคลน ผมอ่านรายงานจาก Acer Blog แล้วขนลุกครับ เพราะ Nvidia ถึงขั้นต้องลดการผลิตการ์ดจอสำหรับเล่นเกมลง 30-40% เพียงเพราะไม่มีแรม VRAM จะใส่ให้


ตลาดมือสองที่ 'นิ่ง' จนน่ากลัว

ย้อนกลับไปกลางปี 2024 ช่วงที่คนกำลังบ้าคลั่ง AI สุดขีด H100 มือสองเคยถูกปั่นราคาไปถึง 50,000 ดอลลาร์ต่อใบ ก่อนจะร่วงกราวลงมาเหลือประมาณ 18,000 - 22,000 ดอลลาร์ในปี 2026 นี้ แต่ที่น่าสนใจคือพอมันลงมาแตะระดับนี้แล้ว มันกลับไม่ลงต่อครับ

ข้อมูลจาก Silicon Data ระบุว่าเครื่อง H100 ที่ผ่านการ Refurbished ยังขายได้ในราคาถึง 85% ของราคาของใหม่ นั่นแปลว่าความต้องการใช้งานมันยังสูงมากจนของเก่าแทบจะไม่มีค่าเสื่อมราคาเลย

ทำไมคนถึงยอมซื้อของเก่าราคาแพง? คำตอบคือ Lead Time หรือระยะเวลารอของครับ ถ้าคุณจะสั่งชิป AI ตัวใหม่วันนี้ คุณอาจจะต้องรอคิวนานถึง 36-52 สัปดาห์ หรือ 'หนึ่งปีเต็ม' กว่าจะได้ของมาวางในเครื่อง การซื้อของมือสองหรือเช่าใช้ในราคาที่แพงขึ้น 10% จึงกลายเป็นทางเลือกเดียวที่เหลืออยู่สำหรับบริษัทที่ต้องรีบเทรนโมเดลให้ทันคู่แข่ง


close up of a high bandwidth memory chip on a circuit board
close up of a high bandwidth memory chip on a circuit board (Harrison Broadbent on Unsplash)

Inference: หลุมดำที่ดูดเงินมากกว่าการเทรน 20 เท่า

หลายคนเข้าใจผิดว่าช่วงที่เปลืองเงินที่สุดคือตอน 'เทรน' AI (Training) แต่ความจริงในปี 2026 คือช่วง 'ใช้งาน' (Inference) ต่างหากที่เป็นตัวดูดเงินของจริง

รายงานจาก ByteIota เผยสถิติที่น่าตกใจมากครับ GPT-4 ใช้เงินเทรนไปประมาณ 150 ล้านดอลลาร์ แต่พอเปิดให้คนใช้งานจริง มันกลับสร้างค่าใช้จ่ายในการรันโมเดลสูงถึง 2.3 พันล้านดอลลาร์ภายในสิ้นปี 2024

"ทุกๆ 1 ดอลลาร์ที่คุณจ่ายเพื่อเทรนโมเดล เตรียมใจไว้เลยว่าต้องจ่ายอีก 15-20 ดอลลาร์เพื่อให้มันรันรอด"

ตอนนี้สัดส่วนการใช้จ่ายด้านโครงสร้างพื้นฐาน AI กว่า 55% หมดไปกับค่า Inference เพิ่มขึ้นจากเดิมที่เคยอยู่ที่ 33% ในปี 2023 นั่นคือเหตุผลว่าทำไมความต้องการชิป H100 ถึงไม่เคยลดลงเลย เพราะยิ่งมีคนใช้ AI มากขึ้นเท่าไหร่ คุณก็ยิ่งต้องการพลังประมวลผลมากขึ้นแบบทวีคูณ แม้ราคาต่อ Token จะถูกลง แต่ปริมาณการใช้งานมันพุ่งไปไกลกว่านั้น 50 เท่าแล้ว


เมื่อยักษ์ใหญ่กวาดเรียบ... แล้วเราล่ะ?

เรื่องที่น่าเศร้าที่สุดสำหรับสตาร์ทอัพหรือบริษัทขนาดเล็กคือ Hyperscalers อย่าง AWS, Azure, Google และ Meta ได้ใช้เงินมหาศาลเซ็นสัญญาจองแรม DRAM ของโลกไปแล้วกว่า 40% ผ่านสัญญาระยะยาวหลายปี

มันเหมือนการจองคอนโดที่ยังสร้างไม่เสร็จแต่จองยกตึกครับ บริษัทเล็กๆ ที่เหลือจึงต้องไปแย่งชิงกันในตลาดจร (Spot Market) ที่ราคาผันผวนและแพงกว่าหลายเท่า ตัวเลขราคาเช่า H100 ที่พุ่งขึ้น 10% ที่ผมบอกตอนต้นนั่นแหละคือผลกระทบโดยตรง

ทางออกคืออะไร?

บางคนเริ่มหนีครับ กรณีศึกษาที่น่าสนใจที่สุดคือ Midjourney ที่ตัดสินใจย้ายจากกองทัพการ์ดจอ Nvidia ไปใช้ Google Cloud TPU v6e เมื่อกลางปี 2025 ผลคือลดค่าใช้จ่ายลงได้ถึง 65% จากเดือนละ 2.1 ล้านดอลลาร์ เหลือไม่ถึง 7 แสนดอลลาร์ ประหยัดไปได้ปีละกว่า 16 ล้านดอลลาร์เลยทีเดียว

แม้แต่ Anthropic เองก็เซ็นสัญญาจอง TPU กว่า 1 ล้านตัว คิดเป็นมูลค่าหลายหมื่นล้านดอลลาร์ สิ่งนี้กำลังบอกเราว่า Nvidia อาจจะไม่ได้ครองโลก AI ไปตลอดกาล ถ้ายังแก้ปัญหาคอขวดเรื่องแรมและราคาไม่ได้


มุมมองของผม: เตรียมตัวรับแรงกระแทก

ถ้าถามผม ผมมองว่าราคา H100 ที่ดีดกลับมานี้เป็นแค่ 'สัญญาณเตือน' (Warning Shot) ครับ เรากำลังเข้าสู่ยุคที่การเข้าถึงพลังประมวลผล AI กลายเป็นเรื่องของสายป่านทางการเงิน ใครมีเงินจองทรัพยากรล่วงหน้าคนนั้นชนะ

สำหรับพวกเราคนทั่วไป สิ่งที่ต้องเจอแน่ๆ คือราคาอุปกรณ์ไอทีที่จะแพงขึ้น เพราะแรมถูกดูดไปฝั่ง AI หมด พีซีมือสองหรือการ์ดจอมือสองที่คุณเคยคิดว่าจะซื้อได้ถูกๆ อาจจะไม่เป็นอย่างนั้นอีกต่อไป เพราะตราบใดที่วิกฤตความจำยังไม่คลี่คลาย ของเก่าเหล่านี้ก็ยังมีค่าเท่ากับทองคำในสายตาของสายขุดและสาย AI

ถ้าคุณกำลังจะทำโปรเจกต์ AI ที่ต้องใช้ GPU เยอะๆ ช่วงนี้อาจจะไม่ใช่เวลาที่ดีที่สุดในการ 'เช่าใช้แบบรายชั่วโมง' แต่เป็นการหาพาร์ทเนอร์หรือมองหาทางเลือกอื่นอย่าง TPU หรือชิปเฉพาะทางอื่นๆ ก่อนที่งบประมาณคุณจะละลายหายไปกับค่าแรมที่แพงกว่าทองครับ

"ในโลก AI ปี 2026 คนที่มีชิปคือคนเก่ง แต่คนที่มีแรมคือคนคุมเกม"


แหล่งอ้างอิง