รีวิว Gemini Task Automation: AI ที่กดแอปสั่งอาหารแทนคุณ ฟรี 5 ครั้งต่อวัน

ลองนึกภาพว่าคุณนอนเล่นอยู่บนโซฟา หิวข้าวแต่ขี้เกียจหยิบมือถือมากดสั่งเอง ก็เลยพูดบอกมือถือแค่ว่า "สั่งไก่ทอดจาก Uber Eats ให้หน่อย"
แล้วมือถือก็เปิดแอปขึ้นมาเอง เลื่อนหาร้าน กดเลือกเมนู ใส่ตะกร้า ข้ามหน้า add-on ไปจนถึงหน้าจ่ายเงิน แล้วส่ง notification มาบอกว่า "เลือกให้แล้วนะ กดจ่ายเงินเองได้เลย"
ไม่ได้พูดเล่น Google เพิ่งทำให้เรื่องนี้เกิดขึ้นจริงเมื่อเดือนที่แล้ว ผมขุดข้อมูลมาให้ทั้งหมดแล้ว
มือถือที่ใช้แอปแทนคุณ
วันที่ 25 กุมภาพันธ์ 2026 Google ขึ้นเวที Samsung Galaxy Unpacked ที่ซานฟรานซิสโก ประกาศฟีเจอร์ที่เปลี่ยนความหมายของคำว่า "ผู้ช่วย AI" ไปเลย ชื่อว่า Gemini Task Automation
ฟีเจอร์นี้ให้ Gemini ควบคุมแอปบนมือถือแทนคุณได้จริงๆ ไม่ใช่แค่เปิดแอปให้ ไม่ใช่แค่ตอบคำถาม แต่นั่งกดเอง เลื่อนเอง พิมพ์เอง เหมือนมีเลขาส่วนตัวหยิบมือถือคุณไปใช้
ฟีเจอร์นี้วิวัฒนาการมาจาก Project Astra ที่ Google โชว์เมื่อกลางปี 2025 ตอนนั้นเป็นแค่เดโม แต่ตอนนี้ใช้ได้จริงแล้ว Samsung เรียกยุคนี้ว่า "จุดเริ่มต้นของ AI ที่ลงมือทำจริง" โดย TM Roh ซีอีโอฝั่งอุปกรณ์ของ Samsung พูดบนเวทีว่า
ทุกเทคโนโลยีที่เปลี่ยนโลกเดินทางเหมือนกันหมด เริ่มจากเป็นของมหัศจรรย์ที่หายาก ราคาแพง และถูกฉลองอย่างอึกทึก
ตอนนี้เปิดให้ใช้แล้วบน Samsung Galaxy S26 ทั้ง 3 รุ่นตั้งแต่ 11 มีนาคม และ Pixel 10 อีก 3 รุ่นตั้งแต่ 17 มีนาคม เฉพาะในสหรัฐฯ กับเกาหลีใต้
ดูหน้าจอ ไม่ต้องอ่านคู่มือ
สิ่งที่น่าสนใจที่สุดไม่ใช่ว่า Gemini ทำอะไรได้ แต่เป็น วิธี ที่มันทำ
ลองนึกภาพเด็กฝึกงานวันแรกที่ไม่เคยเห็นแอปสั่งอาหารมาก่อน แต่ฉลาดพอจะดูหน้าจอแล้วเข้าใจว่าปุ่มนี้คืออะไร ช่องนี้ต้องพิมพ์อะไร ไม่ต้องมีใครมานั่งสอนทีละขั้น Gemini ทำงานแบบนั้นเป๊ะ
มันใช้ vision model จับภาพหน้าจอแอปจริงๆ แล้ววิเคราะห์ว่าปุ่มไหนคืออะไร ต้องกดตรงไหน ต้องเลื่อนไปทางไหน ทั้งหมดนี้ ไม่ต้องพึ่ง API หรือ integration พิเศษจากแอปเลย
ต่างจาก Siri ของ Apple ที่ต้องรอให้คนสร้างแอปเขียน "คู่มือ" (App Intents) ให้ AI อ่านก่อนถึงจะใช้ได้ Gemini แค่ดูหน้าจอแล้วเข้าใจเอง นี่คือสิ่งที่แยก AI ยุคนี้ออกจากระบบอัตโนมัติแบบเดิมๆ ที่ต้องเขียนโปรแกรมสั่งทีละขั้น
เบื้องหลังคือแอปจะรันใน virtual window บนเครื่องของคุณ แต่สมองของ AI ที่ตัดสินใจว่าจะกดตรงไหนนั้นประมวลผลบน cloud คุณดูมันทำงานแบบ real-time ก็ได้ หรือปล่อยให้ทำแล้วไปทำอะไรอื่นก็ได้
ลองจริง: สั่งกาแฟกับเรียก Uber
Allison Johnson จาก The Verge ได้ลองใช้จริงบน Galaxy S26 Ultra แล้วเขียนรีวิวที่น่าสนใจมาก
เธอลองสั่งให้ Gemini เรียก Uber ไปสนามบิน แทนที่จะกดจองเลย Gemini ถามกลับมาว่า "สนามบินไหน" ซึ่งฉลาดมาก เพราะมันไม่ได้ทำตามคำสั่งแบบหุ่นยนต์ มันรู้จักถามเมื่อข้อมูลไม่ครบ พอได้คำตอบ ก็เปิดแอป Uber กรอก destination ให้ ข้ามขั้นตอนที่ไม่จำเป็น แล้วหยุดรอก่อนกดยืนยัน
แต่ที่น่าประทับใจกว่าคือตอนสั่งกาแฟที่ Starbucks เธอบอกให้สั่ง flat white กับ chocolate croissant Gemini เปิดแอป เลื่อนดูเมนูเครื่องดื่มร้อนทั้งหมดจนเจอ flat white แล้วพอถึงคำถามว่าอุ่น croissant ไหม มันตัดสินใจเลือก "อุ่น" ให้เองโดยไม่ถาม
ผมอ่านแล้วทั้งทึ่งทั้งกลัว AI ที่ตัดสินใจแทนคุณได้แบบนี้ ถ้าเลือกถูกก็สะดวกดี แต่ถ้าเลือกผิดล่ะ?
ดูมือถือตัวเองใช้งานตัวเองแล้วแปลกมากจริงๆ — Allison Johnson, The Verge
เธอยังบอกอีกว่า "น่าประทับใจมากสำหรับผู้ช่วยที่เมื่อปีก่อนยังเถียงกับเธอเรื่องรายละเอียดเที่ยวบินในปฏิทิน" ซึ่งผมเห็นด้วยร้อยเปอร์เซ็นต์ จาก Gemini ที่เคยทำอะไรแทบไม่ได้ มาถึงจุดนี้เร็วมาก
ด้านมืด: บั๊กล็อคเครื่อง
แต่อย่าเพิ่งตื่นเต้นเกินไป
9to5Google ลองสั่ง spicy chicken sandwich จาก Popeye's บน Uber Eats ระบบนำทางได้ดี ข้ามหน้า add-on ไปถึงหน้า checkout แต่ระหว่างนั้นเจอบั๊กร้ายแรง หน้าจอ fullscreen ที่แสดง preview การทำงานของ Gemini ล็อคเครื่องจนต้อง force reboot
ต้อง force reboot มือถือเครื่องใหม่ราคาหลายหมื่นเพราะฟีเจอร์ AI ยังเป็น beta อยู่จริงๆ
แล้ว 9to5Google ยังสรุปอีกว่าฟีเจอร์นี้ไม่ได้เร็วกว่าทำเอง ข้อดีจริงๆ คือคุณใช้เสียงสั่งแล้วไปทำอย่างอื่นระหว่างรอได้ ถ้าคุณกำลังขับรถหรือมือไม่ว่าง มันก็มีประโยชน์อยู่
ราคาและข้อจำกัด
ตอนนี้รองรับแค่ 8 แอปในสหรัฐฯ ได้แก่ DoorDash, Grubhub, Instacart, Lyft, McDonald's, Starbucks, Uber และ Uber Eats ในเกาหลีมีเพิ่มอีก 2 แอปคือ Kaemin (배달의민족) กับ Kakao T
ถ้าถามผม 10 แอปจากหลายพันแอปบนมือถือ ยังน้อยมาก แต่ต้องเข้าใจว่ามันเพิ่งเริ่ม
ใช้ฟรีได้วันละ 5 ครั้ง ไม่ต้องสมัครอะไร แต่ถ้าหมดก็ต้องรอวันใหม่
อยากได้มากกว่านั้นต้องจ่ายรายเดือน ถูกสุดเริ่มที่ 7.99 ดอลลาร์ได้ 12 ครั้งต่อวัน ส่วนแพงสุดคือ AI Ultra ราคา 249.99 ดอลลาร์ได้ 120 ครั้ง
คนทั่วไป 5 ครั้งต่อวันน่าจะพอ แต่วันไหนที่สั่งอาหารหลายมื้อแล้วต้องเรียกรถด้วย ก็อาจหมดโควต้าเร็วกว่าที่คิด
ที่ต้องรู้อีกอย่างคือ ใช้ได้เฉพาะ Galaxy S26 กับ Pixel 10 ที่รัน Android 16 QPR3 อายุ 18 ขึ้นไป ภาษาอังกฤษเท่านั้น
ใครรับผิดชอบถ้า AI สั่งผิด
นี่คือส่วนที่ผมอยากให้ทุกคนอ่านให้ดี
ข่าวดีคือ Gemini จะไม่กดปุ่มจ่ายเงินขั้นสุดท้ายให้คุณ มันจะทำทุกอย่างจนถึงหน้า checkout แล้วส่ง notification พร้อม vibration แรงมาให้คุณยืนยันเอง มีปุ่ม "หยุด" กับ "เข้าควบคุมเอง" ให้กดได้ทุกเมื่อ
แต่ข่าวร้ายคือ Google บอกตรงๆ ว่า
Gemini อาจทำผิดพลาดได้ คุณต้องรับผิดชอบต่อสิ่งที่มันทำแทนคุณ
แปลว่าถ้า Gemini เลือกเมนูผิด สั่งของผิดร้าน หรือกรอกที่อยู่ผิด คุณต้องรับผิดชอบเอง ไม่ใช่ Google และมันเป็นเวอร์ชัน beta จริงๆ ที่ยังอาจผิดพลาดได้
อีกเรื่องที่ต้องรู้คือ ถ้าคุณเปิด Keep Activity ไว้ screenshot ที่ Gemini ถ่ายระหว่างทำงานอาจถูกคนจาก Google ตรวจสอบได้ หมายความว่าหน้าจอแอปสั่งอาหารของคุณ ที่อยู่ ร้านที่สั่งบ่อย อาจถูกคนอ่านได้ ถ้าเป็นคุณ ยอมรับได้ไหม?
Apple กับอนาคตของ Android
ถ้าถามว่า iPhone ทำแบบนี้ได้ไหม คำตอบคือยังไม่ได้ Siri ต้องรอให้คนสร้างแอปเขียน App Intents ให้ก่อนถึงจะสั่งงานในแอปได้ แต่ Gemini ไม่ต้องรอใคร ดูหน้าจอแล้วเข้าใจเอง
แต่ Apple ก็มีจุดแข็งตรงที่เน้นประมวลผลบนเครื่อง ขณะที่ Gemini ต้องส่งภาพหน้าจอขึ้น cloud เพื่อให้ AI วิเคราะห์ ถ้าคุณเป็นคนที่ห่วงเรื่อง privacy ตรงนี้ก็ต้องคิดให้ดี
ฝั่ง Google เตรียมทางยาวไว้แล้ว AppFunctions คือ framework ใหม่ใน Android 16 ที่ให้แอปเปิด function ต่างๆ ให้ AI เรียกใช้ได้ตรง Google เปรียบเทียบว่ามันเหมือน MCP (Model Context Protocol) แต่ทำงานบนเครื่องไม่ต้องเรียก server
ลองนึกภาพว่าแทนที่ AI จะต้อง "ดู" หน้าจอแล้วเดาว่าต้องกดตรงไหน แอปก็เปิดประตูให้ AI เดินเข้ามาเลย ตัวอย่างที่ Google โชว์คือพูดว่า "หารูปแมวของผม" แล้ว Gemini ก็ค้นในแกลเลอรีให้ทันที
ถ้านักพัฒนาทยอยเพิ่ม AppFunctions เข้ามาในแอปต่างๆ อนาคตของฟีเจอร์นี้จะน่ากลัวมาก
แล้วมันคุ้มไหม
ถ้าถามผมตรงๆ ฟีเจอร์นี้ยังอยู่ในช่วงเริ่มต้น รองรับแค่ 10 แอป ยังมีบั๊กล็อคเครื่อง ยังช้ากว่าทำเอง ใช้ได้แค่ 2 ประเทศ ภาษาเดียว
แต่สิ่งที่มันพิสูจน์ให้เห็นคือ AI ไม่ได้อยู่แค่ในกล่องแชทอีกต่อไป มันลุกขึ้นมาใช้แอปในมือถือเราแทนเราจริงๆ เป็นครั้งแรก
คนไทยอย่างเราตอนนี้ยังใช้ไม่ได้ ต้องรอให้ Google เปิดให้ประเทศอื่นด้วย แต่ถ้าคุณมี Galaxy S26 หรือ Pixel 10 แล้วอยู่ในสหรัฐฯ ลองเล่นดูได้เลย ฟรี 5 ครั้งต่อวัน
ผมว่าอีกไม่นาน ฟีเจอร์แบบนี้จะกลายเป็นเรื่องปกติ ทุกมือถือจะมี AI ที่ใช้แอปแทนเราได้ คำถามคือ เราพร้อมให้ AI มาจัดการชีวิตประจำวันแทนเราแค่ไหน
มือถือใช้ตัวเองได้แล้ว คำถามไม่ใช่ว่ามันทำได้ดีแค่ไหน แต่เราไว้ใจให้มันทำแค่ไหน
แหล่งอ้างอิง
- TechCrunch — Gemini can now automate some multi-step tasks on Android
- 9to5Google — Gemini Android app automation Galaxy S26 rollout
- 9to5Google — Gemini screen automation usage limits
- 9to5Google — Google details AppFunctions that let Gemini use Android apps
- 9to5Google — Gemini screen automation rolling out to Pixel 10
- Kingy AI — Inside Google's Gemini AI Automation (สรุปรีวิว The Verge)
- Samsung Global Newsroom — Galaxy Unpacked 2026: The Beginning of Truly Agentic AI
- Android Authority — Gemini gets one step closer to controlling other apps
บทความที่เกี่ยวข้อง
รีวิว OpenClaw คู่มือฉบับสมบูรณ์ AI Agent ที่ทำงานแทนคุณได้จริง
ลองนึกภาพว่าคุณมีผู้ช่วยที่ทำงานให้ได้ 24 ชั่วโมง สั่งงานผ่าน LINE หรือ WhatsApp ได้ มันอ่านอีเมลให้ จัดตารางให้ โพสต์ Facebook ให้ จัดการไฟล์ให้ รัน terminal ให้ แล้วก็จำได้ด้วยว่าเมื่อวานทำอะไรไปบ้าง นั่นคือสิ่งที่ OpenClaw ทำได้จริงๆ แต่ก่อนจะตื่นเต้น ผมอยากให้อ่านบทความนี้จนจบก่อน เพราะ OpenClaw ไม่ได้สมบูรณ์แบบ มันมีทั้งข้อดีที่น่าทึ่งและความเสี่ยงที่ต้องรู้ก่อนใช้ ผมรวบรวมข้อมูลจากทุกแหล่งมาไว้ที่นี่ให้ครบที่สุดแล้ว OpenClaw คืออะไร OpenClaw คือ AI Agent แบบ open source ที่รันบนเครื่อ


ความคิดเห็น
ยังไม่มีความคิดเห็น เป็นคนแรกที่แสดงความเห็น!