Qwen 3.5 โมเดล AI ตัวเล็กจาก Alibaba ที่ชนะ OpenAI 120B แล้วคนสร้างก็ลาออก
ทุกคนบอกว่า AI ที่เก่งต้องใช้เซิร์ฟเวอร์ใหญ่ ต้องต่อเน็ต ต้องจ่ายค่า API ทุกเดือน
aแต่เมื่อวันที่ 1 มีนาคม 2026 Alibaba ปล่อยโมเดล AI ชื่อ Qwen 3.5 ออกมา 4 ตัว ตัวเล็กสุดแค่ 0.8B ตัวใหญ่สุด 9B พารามิเตอร์ ทั้งหมดรันบนมือถือได้ ไม่ต้องต่อเน็ต ไม่ต้องจ่ายสักบาท
และตัว 9B ที่ว่า ชนะโมเดลของ OpenAI ที่ใหญ่กว่ามัน 13 เท่า
ฟังดูเหมือนเรื่องโม้ แต่ benchmark พิสูจน์ได้หมด ผมอ่านข้อมูลจนหมดแล้วก็ต้องยอมรับว่า เกมของ AI กำลังเปลี่ยน จากการแข่งกันว่าใครใหญ่กว่า มาเป็นใครเล็กกว่าแต่เก่งเท่ากัน
นี่คือเรื่องที่คนเขียนโค้ด คนทำแอป และคนที่ใช้ AI ทุกวัน ต้องรู้
ตัวเล็กแต่ตีเท่าตัวใหญ่
Qwen 3.5-9B มีพารามิเตอร์แค่ 9 พันล้านตัว แต่เมื่อเทียบกับ gpt-oss-120B ของ OpenAI ที่มี 120 พันล้านตัว (ใหญ่กว่า 13 เท่า) ผลลัพธ์กลับสวนทาง
GPQA Diamond ซึ่งเป็นข้อสอบระดับบัณฑิตศึกษา Qwen 3.5-9B ทำได้ 81.7 ขณะที่ gpt-oss-120B ทำได้แค่ 71.5 ส่วน HMMT Feb 2025 ข้อสอบคณิตศาสตร์ระดับ Harvard-MIT ทำได้ 83.2 เทียบกับ 76.7 และ MMMU-Pro ที่ทดสอบความเข้าใจหลายรูปแบบ ทำได้ 70.1 เทียบกับ 59.7
ไม่ใช่แค่ชนะนิดหน่อย แต่ทิ้งห่างแบบชัดเจน ทั้งที่ตัวเองเล็กกว่า 13 เท่า
แม้แต่ GPT-5-Nano ของ OpenAI ก็ยังแพ้ Qwen 3.5-9B อยู่ 13 แต้มใน MMMU-Pro และเกือบ 17 แต้มใน MathVision
Qwen 3.5-9B ชนะ gpt-oss-120B ที่ใหญ่กว่า 13 เท่า ทั้ง GPQA Diamond, HMMT และ MMMU-Pro
รันบนมือถือได้จริง ไม่ใช่แค่โม้
สิ่งที่ทำให้ Qwen 3.5 Small ต่างจากโมเดลอื่นคือมันถูกออกแบบมาตั้งแต่แรกให้รันบนอุปกรณ์ ไม่ใช่การหดโมเดลใหญ่ลงมา แต่เป็นการสร้างใหม่ตั้งแต่ต้นให้มีประสิทธิภาพสูงในขนาดเล็ก
ตัว 2B รันได้บน iPhone ทุกรุ่นที่ออกมาในช่วงไม่กี่ปีที่ผ่านมา เปิดโหมดเครื่องบินก็ใช้ได้ ทั้งข้อความและรูปภาพ developer รายงานว่าได้ความเร็ว 30-50 token ต่อวินาที ซึ่งเร็วพอๆ กับการเรียก API จาก cloud เลย
ส่วนตัว 4B ทำคะแนน Video-MME ได้ 83.5 ชนะ Gemini 2.5 Flash-Lite ของ Google ที่ทำได้ 74.6 ตัว 4B เข้าใจวิดีโอได้ดีกว่าโมเดลของ Google ที่ถูกออกแบบมาเพื่อสิ่งนี้โดยเฉพาะ
context window ยาว 262,144 token ถ้าเทียบเป็นภาษาไทยก็ประมาณหนังสือ 3-4 เล่ม อ่านได้ในครั้งเดียว
ตัว 2B รันบน iPhone เปิดโหมดเครื่องบิน ได้ 30-50 token/วินาที เร็วเท่า cloud API
Multimodal ตั้งแต่ 0.8B
โมเดลส่วนใหญ่ในขนาดเล็กจะทำได้แค่ข้อความ แต่ Qwen 3.5 Small ทุกตัวเป็น native multimodal ตั้งแต่ตัวเล็กสุด 0.8B เข้าใจทั้งข้อความ รูปภาพ และวิดีโอ
0.8B เป็นโมเดลแรกของโลกในขนาดนี้ที่ประมวลผลวิดีโอได้ ลองนึกภาพว่าคุณถ่ายวิดีโอสั้นๆ แล้วให้ AI บนมือถือวิเคราะห์ให้ทันที โดยไม่ต้องอัปโหลดไปไหน ข้อมูลไม่ออกจากเครื่อง ไม่มีเรื่องความเป็นส่วนตัวให้กังวล
สำหรับ developer ที่ทำแอปบนมือถือ นี่คือโอกาสที่เปิดกว้างมาก เพราะก่อนหน้านี้ถ้าอยากได้ multimodal ต้องเรียก API จาก cloud เสมอ ตอนนี้ทำได้บนเครื่องโดยตรง
Qwen 3.5-0.8B เป็นโมเดลแรกของโลกขนาดไม่ถึง 1B ที่ประมวลผลวิดีโอได้
เปิดฟรี Apache 2.0 เอาไปทำเงินได้เลย
Qwen 3.5 Small ทั้ง 4 ตัวเปิดให้ใช้ภายใต้ Apache 2.0 License ซึ่งหมายความว่าเอาไปใช้เชิงพาณิชย์ได้ ดัดแปลงได้ fine-tune ได้ ไม่ต้องขออนุญาต ไม่ต้องจ่าย
โหลดได้จาก Hugging Face และ ModelScope มีทั้ง Instruct version สำหรับใช้งานทันที และ Base version สำหรับ fine-tune ต่อ ใครใช้ MLX บน Mac ก็มี quantized version พร้อมใช้จาก Apple MLX-community
ในเชิงภาษา Qwen 3.5 รองรับ 201 ภาษา และมี vocabulary ขนาด 250K token ที่ถูกออกแบบมาสำหรับภาษา CJK โดยเฉพาะ ทำคะแนน MMMLU ด้านภาษาได้ 81.2 ชนะ gpt-oss-120B ที่ได้ 78.2 ภาษาญี่ปุ่นทิ้งห่างยิ่งกว่า 87.8 ต่อ 76.2
สำหรับภาษาไทย แม้ยังไม่มี benchmark เฉพาะ แต่ด้วยการรองรับ 201 ภาษาและ vocabulary ขนาดใหญ่ ก็น่าจะจัดการภาษาไทยได้ดีกว่าโมเดลขนาดเล็กตัวอื่นๆ
Apache 2.0 License ใช้เชิงพาณิชย์ได้ ดัดแปลงได้ fine-tune ได้ ไม่ต้องขออนุญาต ไม่ต้องจ่าย
สร้างผลงานชิ้นเอกแล้วคนสร้างก็ลาออก
เรื่องที่น่าตกใจคือ หลังจากปล่อย Qwen 3.5 Small ได้แค่วันเดียว Lin Junyang หัวหน้าทีมเทคนิคของ Qwen ก็โพสต์บน X ว่าเขาลาออกแล้ว โดยไม่ได้อธิบายเหตุผล
และเขาไม่ได้ไปคนเดียว Yu Bowen หัวหน้าทีม post-training ก็ออกด้วย ตามด้วย Lin Kaixin ที่เป็นหนึ่งในคนสำคัญที่ทำ Qwen 3.5, VL และ Coder ก่อนหน้านี้ Hui Binyuan หัวหน้าทีม Qwen Code ก็ย้ายไป Meta ตั้งแต่มกราคม 2026
แหล่งข่าวหลายสำนักรายงานตรงกันว่าเรื่องนี้เกิดจากการปรับโครงสร้างภายใน Alibaba ต้องการเปลี่ยนจากทีม R&D แบบ vertical ที่ Lin สร้างมา ไปเป็นแบบ horizontal ภายใต้การดูแลของ Zhou Jingren CTO ของ Alibaba Cloud
คำถามที่หลายคนสงสัยคือ Qwen จะยังรักษามาตรฐานได้ไหม ถ้าคนที่สร้างมันตั้งแต่แรกไม่อยู่แล้ว
ปล่อยผลงานได้แค่วันเดียว หัวหน้าทีมเทคนิค Qwen ก็ประกาศลาออกทันที
แล้วคนไทยควรทำอะไรกับเรื่องนี้
สำหรับ developer ไทย Qwen 3.5 Small เปิดประตูใหม่ที่น่าสนใจมาก ถ้าคุณทำแอปมือถือ ลองคิดดูว่าจะใส่ AI ลงไปในแอปได้ยังไงโดยไม่ต้องพึ่ง cloud ลดต้นทุน API ลดปัญหา latency แล้วยังได้ความเป็นส่วนตัวของผู้ใช้เป็นของแถม
สำหรับคนที่ทำ startup ถ้าก่อนหน้านี้ค่า API เป็นต้นทุนหลัก ตอนนี้มี option ที่ลดค่าใช้จ่ายลงเหลือแทบจะศูนย์ โมเดลตัวเล็กเหล่านี้ fine-tune ได้ง่าย ปรับให้เฉพาะทางสำหรับงานที่ต้องการ แล้วก็ deploy ลงอุปกรณ์ได้ทันที
และสำหรับคนที่ใช้ AI ทั่วไป นี่คือสัญญาณที่ชัดเจนว่า AI กำลังเข้าสู่ยุคที่ทุกคนเข้าถึงได้จริง ไม่ใช่แค่คนที่มีเงินจ่ายค่า subscription หรือมีคอมพิวเตอร์แรงๆ
AI กำลังเข้าสู่ยุคที่ทุกคนเข้าถึงได้จริง ไม่ต้องจ่าย ไม่ต้องต่อเน็ต ไม่ต้องใช้เครื่องแรง
แหล่งอ้างอิง
บทความที่เกี่ยวข้อง

Claude Code Channels: สั่ง AI สร้างแอป iPhone จากห้องน้ำผ่าน Telegram ทำได้จริงแล้ว
Anthropic เปิดตัว Channels เชื่อม Telegram กับ Claude Code สั่ง AI เขียนโค้ดจากมือถือได้ มีคนทดสอบสร้างแอป iPhone จริงแล้ว


WordPress เปิดให้ AI เขียนและจัดการเว็บได้แล้ว: 42.5% ของอินเทอร์เน็ตจะไม่เหมือนเดิม
WordPress.com เปิดให้ AI สร้างและจัดการเนื้อหาบนเว็บได้แล้ว เว็บ 42.5% ของโลกกำลังเข้าสู่ยุคที่หุ่นยนต์เขียนแทนคน


ความคิดเห็น
ยังไม่มีความคิดเห็น เป็นคนแรกที่แสดงความเห็น!