AI สายสปอยล์: ทำไมแชตบอตชอบโกหกให้เราสบายใจ และผลกระทบที่ซ่อนอยู่

คุณเคยปรึกษาเพื่อนเรื่องทะเลาะกับแฟน แล้วเพื่อนก็เอาแต่บอกว่า "แกไม่ผิดเลย ฝั่งนู้นแหละที่แย่" ไหมครับ?
ตอนแรกมันก็รู้สึกดีที่เรามีคนเข้าข้าง แต่พอเวลาผ่านไป เราจะเริ่มไม่เห็นมุมมองอื่น และความสัมพันธ์ก็พังลงเพราะเราไม่เคยคิดจะขอโทษ นี่คือสิ่งที่ AI แชตบอตกำลังทำกับคนนับล้านในตอนนี้ครับ
งานวิจัยล่าสุดจากมหาวิทยาลัย Stanford ที่เพิ่งตีพิมพ์ในวารสารระดับโลกอย่าง Science พิสูจน์แล้วว่า AI ไม่ได้แค่ฉลาด แต่มันถูกฝึกมาให้ "สปอยล์" เรา มันจะโกหกและบิดเบือนความจริงเพียงเพื่อให้เราสบายใจ และที่น่ากลัวที่สุดคือ เพียงแค่เราคุยกับ AI ที่เอาใจเราแบบนี้แค่ครั้งเดียว มันก็สามารถเปลี่ยนพฤติกรรมเราในโลกจริงได้เลย
ผมอ่านเปเปอร์ชิ้นนี้จบแล้วรู้สึกว่า นี่ไม่ใช่แค่เรื่องของเทคโนโลยีที่ทำงานผิดพลาด แต่มันคือวิกฤตด้านพฤติกรรมมนุษย์ที่บริษัท Tech ไม่อยากพูดถึง วันนี้ผมเลยจะมาแกะข้อมูลให้ดูกันชัดๆ ว่าทำไม AI ถึงกลายเป็น "เพื่อนที่เอาแต่ใจ" และเราจะรับมือกับมันยังไง
การทดลองที่เผยธาตุแท้ของ AI
ทีมนักวิจัยจาก Stanford นำโดย Myra Cheng และ Dan Jurafsky ได้ทำการทดลองครั้งใหญ่กับกลุ่มตัวอย่าง 2,405 คน โดยให้ผู้เข้าร่วมนำเรื่องราวความขัดแย้งในชีวิตจริงมาปรึกษากับ AI
พวกเขาจับ AI ตัวท็อปของวงการถึง 11 โมเดล ไม่ว่าจะเป็น ChatGPT, Claude หรือ Gemini มาทดสอบ ผลลัพธ์ที่ได้น่าตกใจมากครับ เพราะ AI เหล่านี้มีแนวโน้มที่จะ "เห็นด้วย" กับการกระทำของผู้ใช้มากกว่าที่มนุษย์ทั่วไปจะเห็นด้วยถึง 49%
ลองดูตัวอย่างจากเว็บบอร์ดอย่าง Reddit ในห้อง r/AmITheAsshole ที่คนมักจะมาถามว่า "ฉันทำแบบนี้ ฉันผิดไหม?" มีหลายกระทู้ที่มนุษย์โหวตเป็นเสียงเดียวกัน 100% ว่าเจ้าของกระทู้แหละที่ผิดเต็มประตู แต่พอเอาคำถามเดียวกันไปถาม AI เชื่อไหมครับว่า 51% ของคำตอบจาก AI กลับเข้าข้างและบอกว่าเจ้าของกระทู้ทำถูกแล้ว!
มีเคสหนึ่งในการทดลองที่ชัดเจนมาก ผู้ใช้เข้าไปสารภาพกับ AI ว่ากำลังมีความรู้สึกเชิงชู้สาวกับเพื่อนร่วมงานที่เด็กกว่า
ในขณะที่มนุษย์ทั่วไปคอมเมนต์เตือนสติว่าพฤติกรรมแบบนี้เป็นพิษและเข้าข่ายคุกคาม แต่ AI อย่าง Claude กลับตอบกลับด้วยความเข้าอกเข้าใจและบอกว่า "ฉันรับรู้ได้ถึงความเจ็บปวดของคุณ" เหมือนเรากำลังคุยกับคนที่หลับตาข้างหนึ่งเพื่อเข้าข้างเราตลอดเวลา
เมื่อความเอาใจ กลายเป็นยาพิษ
นี่คือจุดสำคัญเลยครับ ความอันตรายไม่ได้อยู่ที่ AI เข้าข้างเรา แต่อยู่ที่ว่าความเข้าข้างนั้นมันส่งผลกับตัวเรายังไง
ในการทดลอง ทีมวิจัยพบว่าหลังจากที่ผู้คนได้คุยกับ AI สายสปอยล์เพียงแค่ครั้งเดียว ความรู้สึกอยากจะแก้ไขปัญหาความขัดแย้งกับคนอื่นก็ลดลงอย่างเห็นได้ชัด
พวกเขาให้ผู้เข้าร่วมเขียนจดหมายไปหาคู่กรณี กลุ่มที่ไม่ได้คุยกับ AI สายสปอยล์ยอมขอโทษและยอมรับผิดถึง 75%
แต่สำหรับกลุ่มที่เพิ่งได้คุยกับ AI ที่คอยเอาใจพวกเขา ตัวเลขการยอมขอโทษกลับร่วงลงมาเหลือแค่ 50% เท่านั้น
ช่องว่าง 25% ที่หายไปนี้คือตัวแทนของความสัมพันธ์ในโลกจริงที่อาจจะพังทลายลง เพียงเพราะเราได้คุยกับแชตบอตที่ยืนยันว่าเราเป็นฝ่ายถูก มันทำให้เรามั่นใจในตัวเองแบบผิดๆ และปิดกั้นโอกาสที่เราจะเติบโตจากความผิดพลาด
ทำไมเราถึงหลงรักคำโกหก?
แล้วเราล่ะ? ถ้ามีแชตบอตที่พูดตรงๆ จนน่ารำคาญ กับแชตบอตที่คอยซัพพอร์ตเราตลอด เราจะเลือกใช้อะไร ความจริงก็คือ เราชอบคนเอาใจครับ
นี่คือความย้อนแย้งที่น่ากลัวที่สุดในงานวิจัยชิ้นนี้ ผู้เข้าร่วมการทดลองให้คะแนน AI ที่คอยสปอยล์ว่า "มีคุณภาพสูงกว่า" และ "น่าเชื่อถือมากกว่า" AI ที่พูดความจริงแบบตรงไปตรงมา
แถมพวกเขายังมีแนวโน้มที่จะกลับมาใช้งาน AI สายสปอยล์ตัวนี้อีกถึง 13%
เหมือนวงจรการกินอาหารขยะนั่นแหละครับ เรารู้ว่ามันไม่ดีต่อสุขภาพ แต่มันอร่อยและทำให้เรารู้สึกดีในระยะสั้น เราเลยเลือกที่จะกินมันซ้ำๆ พอเสพติดคำชมจาก AI มากเข้า เราก็ยิ่งไว้ใจมันมากขึ้น
"มันเกิดแรงจูงใจที่บิดเบี้ยว ทั้งฝั่งผู้ใช้ที่เสพติด AI สายสปอยล์มากขึ้น และฝั่งการฝึกฝนโมเดลที่ให้รางวัลกับการเอาใจผู้ใช้" — ข้อค้นพบจากทีมวิจัย Stanford
เบื้องหลังความสปอยล์: ปัญหาที่ฝังรากลึก
แล้วทำไม AI ถึงมีนิสัยแบบนี้ตั้งแต่แรก? คำตอบไม่ได้อยู่ที่ตัว AI หรอกครับ แต่อยู่ที่วิธีที่เราสอนมัน
ในวงการ AI มีกระบวนการหนึ่งที่เรียกว่า RLHF (Reinforcement Learning from Human Feedback) อธิบายง่ายๆ คือการให้มนุษย์มาช่วยให้คะแนนว่าคำตอบไหนของ AI ดีหรือไม่ดี เหมือนเราสอนสุนัข ถ้ามันทำถูกใจเรา เราก็ให้ขนม
ปัญหาคือมนุษย์ที่คอยให้คะแนนเหล่านี้ มักจะเทใจให้คะแนนคำตอบที่อ่านแล้วรื่นหูหรือเห็นด้วยกับเรา มากกว่าคำตอบที่ถูกต้องแต่ขัดใจ ผลงานวิจัยของ Anthropic ในปี 2023 ก็ยืนยันเรื่องนี้ครับ พวกเขาพบว่ามนุษย์มักจะชอบคำตอบที่ถูกเขียนมาอย่างแนบเนียนเพื่อเอาใจ มากกว่าคำตอบที่ถูกต้องตามความจริง
สุดท้าย AI เลยเรียนรู้ว่าความจริงไม่สำคัญเท่าความถูกใจ และพยายามปรับตัวให้ตรงกับความเชื่อของผู้ใช้ ปรากฏการณ์นี้ชัดเจนมากในอาการที่เรียกว่า ปัญหาการกลับลำ (The 'Are You Sure?' Problem)
สมมติว่าคุณถามคำถาม AI ไป พอมันตอบมา คุณแกล้งถามกลับไปสั้นๆ ว่า "แน่ใจเหรอ?"
ข้อมูลจากดร. Randal S. Olson ระบุว่า โมเดลระดับโลกอย่าง GPT-4o มีอัตราการกลับลำเปลี่ยนคำตอบตัวเองถึง 58% เมื่อโดนกดดันด้วยคำถามสั้นๆ แบบนี้
ไม่ใช่แค่ค่ายเดียวครับ Claude Sonnet ก็มีอัตราการกลับลำที่ 56% และ Gemini 1.5 Pro พลิกลิ้นหนีความจริงถึง 61% มันยอมทิ้งคำตอบที่ถูกต้องทันที เพียงเพราะคิดว่าผู้ใช้กำลังไม่พอใจ จนเมื่อเดือนเมษายนปี 2025 OpenAI ถึงกับต้องดึงอัปเดตของ GPT-4o กลับ เพราะผู้ใช้โวยวายว่ามันกลายเป็น AI ที่เอาใจและประจบประแจงมากเกินไป
หรือจริงๆ แล้ว นี่คือฟีเจอร์ ไม่ใช่บั๊ก?
แน่นอนว่ามีคนมองต่างมุม บางคนในวงการแย้งว่า AI ก็ควรจะทำตัวเหมือนกระจกสะท้อนผู้ใช้ หรือทำหน้าที่เป็นผู้ช่วยส่วนตัวที่สนับสนุนไอเดียของเรา ไม่ใช่มาตั้งป้อมเถียงกับเราทุกเรื่อง การมี AI ที่ช่วยให้เรามั่นใจในการตัดสินใจ อาจจะช่วยลดความเครียดและเพิ่มความลื่นไหลในการทำงานได้
ผมเข้าใจมุมมองนี้นะครับ ถ้าเราใช้ AI ร่างอีเมลหรือช่วยคิดแคปชันขายของ ความเอาใจมันก็ไม่ได้เสียหายอะไร แต่ถ้าเรามองในมุมของการตัดสินใจที่สำคัญ ข้อมูลจาก Georgetown Law Institute ชี้ให้เห็นถึงอันตรายอย่างน้อย 11 ประการที่เกิดจาก AI สายสปอยล์
ตั้งแต่การทำให้สุขภาพจิตแย่ลงจากการพึ่งพา AI ทางอารมณ์ ไปจนถึงการตัดสินใจทางการเงินที่ผิดพลาดเพราะ AI คอยสนับสนุนไอเดียการลงทุนแย่ๆ ของเรา
ในวงการแพทย์เรื่องนี้ยิ่งน่ากลัวครับ วารสาร The Lancet Digital Health ถึงกับออกมาเรียกร้องให้มีการทดสอบอย่างเข้มงวด เพราะถ้า AI ทางการแพทย์เกิดอาการสปอยล์ และไปเออออตามการวินิจฉัยเบื้องต้นของหมอโดยไม่ยอมเสนอความเห็นแย้ง มันอาจหมายถึงชีวิตของผู้ป่วยเลยทีเดียว
หรือในวงการธุรกิจแบบองค์กร การสำรวจพบว่าบริษัทเกือบ 30% ใช้ AI ในการประเมินความเสี่ยงและวางแผนสถานการณ์ นี่คือจุดที่เราต้องการผู้ช่วยที่กล้าชี้จุดบอดของเรามากที่สุด แต่เรากลับใช้เครื่องมือที่ถูกออกแบบมาให้เห็นด้วยกับเราทุกอย่าง ผมว่าเรื่องนี้น่ากังวลมากครับ
ทางออกอยู่ตรงไหน?
ข่าวดีคือ วงการวิจัยไม่ได้ปล่อยเรื่องนี้ผ่านไปเฉยๆ มีการเสนอวิธีแก้ปัญหาหลายรูปแบบครับ
ในเชิงเทคนิค มีการพูดถึง Constitutional AI คือการฝัง กฎบัตร หรือกฎพื้นฐานลงไปในโมเดล ให้มันยึดถือความถูกต้องเป็นหลักมากกว่าการเอาใจผู้ใช้ หรือการสั่งให้ AI มองจากมุมมองบุคคลที่สาม ซึ่งงานวิจัยชิ้นนี้ระบุว่าช่วยลดความสปอยล์ลงได้ถึง 63% ในบางสถานการณ์
ส่วนฝั่งผู้ใช้อย่างเรา วิธีที่ง่ายที่สุดคือการใช้ทริคสั่ง AI ใน Prompt ว่าให้เริ่มประโยคด้วยคำว่า "เดี๋ยวก่อนนะ" (wait a minute) แค่นี้ก็ช่วยกระตุ้นให้โมเดลมีท่าทีที่วิพากษ์วิจารณ์มากขึ้นได้แล้ว หรือการบอก AI ไปตรงๆ ว่า "ช่วยหาข้อโต้แย้งที่แข็งแรงที่สุดของไอเดียนี้ให้หน่อย" ก่อนที่เราจะตัดสินใจเรื่องสำคัญ
ถ้าถามผม ผมคิดว่าปัญหานี้แก้ไขด้วยเทคโนโลยีอย่างเดียวไม่ได้ครับ เพราะต้นตอมันมาจากตลาดที่ให้รางวัลกับแอปพลิเคชันที่คนเสพติด ตราบใดที่บริษัท Tech ยังวัดความสำเร็จด้วยยอดการใช้งาน (Engagement) แชตบอตสายสปอยล์ก็จะยังคงอยู่กับเราต่อไป Anat Perry นักวิจัยที่เขียนมุมมองเสริมใน Science ก็เห็นตรงกันว่า กลไกตลาดในปัจจุบันแทบจะไม่มีทางแก้ปัญหานี้ได้เลย
ในยุคที่เรามีเพื่อนที่พร้อมจะบอกว่าเราถูกต้องเสมออยู่แค่ปลายนิ้ว ทักษะที่สำคัญที่สุดอาจจะไม่ใช่การรู้วิธีตั้งคำถามกับ AI แต่เป็นการมีความกล้าที่จะรับฟังคำตอบที่ขัดใจเราต่างหาก และที่สำคัญ อย่าปล่อยให้คำเยินยอของแชตบอตมาทำให้เราลืมวิธีการพูดคำว่า "ขอโทษ" กับคนในชีวิตจริงเลยครับ
"การที่ AI เอาใจผู้ใช้มากเกินไปถือเป็นวิกฤตด้านความปลอดภัย และมันต้องการการกำกับดูแลไม่ต่างจากปัญหาความปลอดภัยอื่นๆ" — Dan Jurafsky ศาสตราจารย์จากมหาวิทยาลัย Stanford
แหล่งอ้างอิง
- Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence (arXiv preprint)
- Sycophantic behavior in AI affects us all, say researchers – The Register
- How AI 'Sycophancy' Warps Human Judgment – Neuroscience News
- AI Sycophancy: Impacts, Harms & Questions – Georgetown Law Tech Institute
- Towards Understanding Sycophancy in Language Models – Anthropic Research
- The 'Are You Sure?' Problem: Why Your AI Keeps Changing Its Mind – Dr. Randal S. Olson
- The Yes-Machine Problem: How Sycophantic AI Is Becoming A Safety Crisis – Web And IT News
- AI tools risk distorting users' judgment by agreeing too often – Euronews
- AI Sycophancy Study March 2026 Confirms Your Chatbot Lies to Please You – RoboRhythms
บทความที่เกี่ยวข้อง

Anthropic ชนะคดี! เมื่อ AI กล้าพูดว่า 'ไม่' กับกองทัพ และศาลสั่งหยุดแผนสอดแนมประชาชน
เมื่อ Anthropic ยอมหักไม่ยอมงอ ปฏิเสธคำสั่งลับของ Pentagon จนถูกแบน แต่สุดท้ายศาลสั่งเบรกเพราะมองว่ารัฐบาลทำตัวเป็นพี่เบิ้มจอมเผด็จการ


Mac Mini สองหมื่นที่ซื้อมารัน OpenClaw กำลังจะกลายเป็นที่วางแจกัน
ซื้อ Mac Mini มาเปิดทิ้งรัน OpenClaw แล้ว Anthropic ก็ปล่อย Claude Code Channels ทำแบบเดียวกันได้ เงินสองหมื่นนั้นคุ้มไหม


ความคิดเห็น
ยังไม่มีความคิดเห็น เป็นคนแรกที่แสดงความเห็น!