วิกิพีเดียสั่งประหารบทความ AI! ตั้งหน่วย AI-Patrol กวาดล้าง 'ขยะข้อมูล' ทั่วสารานุกรมโลก

รู้ไหมครับว่าบทความประวัติศาสตร์เมืองชื่อ 'Amberlihisar' ที่เขียนได้เนียนกริบ มีอ้างอิงวิชาการครบถ้วน แถมระบุพิกัดในตุรกีไว้อย่างชัดเจน ความจริงแล้วมันไม่มีตัวตนอยู่บนโลกใบนี้เลยแม้แต่ตารางนิ้วเดียวครับ
มันคือ 'ประวัติศาสตร์ปลอม' ที่สร้างขึ้นโดย AI และมันหลอกตาคนอ่านรวมถึง Editor ของ Wikipedia มาได้นานหลายเดือน กว่าจะมีคนจับได้ว่าข้อมูลทั้งหมดคือเรื่องโกหกที่ถูกแต่งขึ้นมาอย่างเป็นระบบ เรื่องนี้ไม่ใช่แค่ความผิดพลาดขำๆ แต่มันคือจุดเริ่มต้นของวิกฤตความน่าเชื่อถือที่รุนแรงที่สุดในประวัติศาสตร์ของ Wikipedia
ในที่สุด เดือนมีนาคม 2026 นี้ Wikipedia ได้ตัดสินใจประกาศ 'สงคราม' ขั้นเด็ดขาดด้วยนโยบายใหม่ที่ชื่อว่า WP:NOLLM หรือ WP:NEWLLM ซึ่งสั่งแบนการใช้ AI อย่าง ChatGPT, Claude หรือ Gemini ในการสร้างบทความใหม่หรือแก้ไขเนื้อหาหลักอย่างถาวร ใครฝ่าฝืนมีโทษสูงสุดคือแบนไอดีถาวรไม่ได้กลับมาเขียนอีกเลยครับ
นโยบาย WP:NOLLM เมื่อ 'มนุษย์' ไม่ยอมให้เครื่องจักรครองความรู้
นโยบายใหม่นี้ไม่ได้ออกมาเล่นๆ นะครับ แต่มันคือการขีดเส้นตายที่ชัดเจนว่า 'ห้ามใช้ Large Language Models (LLMs) ในการสร้างเนื้อหาบทความ' โดยเด็ดขาด ไม่ว่าจะเป็นการร่างบทความใหม่ทั้งชิ้น หรือการเอาเนื้อหาจาก AI มาแปะทับของเดิม
ถ้าจะให้เปรียบเทียบ การใช้ AI เขียนบทความ Wikipedia ก็เหมือนคุณจ้างเชฟที่ชอบโกหกหน้าตายมาทำอาหารให้กินครับ หน้าตาอาหารอาจจะดูสวยงาม น่ากินมาก กลิ่นหอมเย้ายวน แต่ข้างในคุณไม่มีทางรู้เลยว่าเขาใส่พลาสติกหรือยาพิษปนลงมาด้วยหรือเปล่า เพราะ AI มีนิสัยเสียอย่างหนึ่งที่แก้ยากมากคืออาการ 'หลอน' (Hallucination) ที่มันสามารถแต่งเรื่องโกหกให้ฟังดูเป็นวิชาการได้แนบเนียนสุดๆ
ผมขุดข้อมูลมาดูแล้วพบว่า เหล่า Editor รุ่นเก๋าเขามองเรื่องนี้เป็นเรื่องใหญ่ระดับอยู่รอดหรือตาย (Existential Threat) เลยทีเดียว ถึงขนาดมีคนเปรียบเทียบว่านี่คือ 'Butlerian Jihad' หรือสงครามระหว่างมนุษย์กับเครื่องจักรในนิยาย Dune เลยล่ะครับ
"ผมสนับสนุนการแบน LLM แบบร้อยเปอร์เซ็นต์ เต็มรูปแบบ และไม่มีข้อยกเว้น... เราจะไม่เหลือพื้นที่ให้พวกพวกทำลายระบบอีกต่อไป"
— Festucalex, Wikipedia Editor
สิ่งที่ Wikipedia กลัวที่สุดไม่ใช่ความเร็วครับ แต่คือการที่ข้อมูลปลอมที่สร้างโดย AI จะกลายเป็น 'ขยะข้อมูล' (AI Slop) ที่เข้าไปปนเปื้อนในระบบ จนสุดท้าย AI รุ่นถัดไปก็จะมาเอาข้อมูลปลอมๆ บน Wikipedia ไปเทรนตัวเองต่อ เกิดเป็นวงจรการโกหกที่ไม่มีวันสิ้นสุด ซึ่งจะทำลายรากฐานความรู้ของมนุษยชาติไปตลอดกาล
WikiProject AI Cleanup: หน่วยลาดตระเวนผู้ล่าขยะข้อมูล
แต่กฎหมายจะมีประโยชน์อะไรถ้าไม่มีคนบังคับใช้? Wikipedia เลยจัดตั้งกลุ่มอาสาสมัครที่เรียกตัวเองว่า 'WikiProject AI Cleanup' หรือที่คนในวงการตั้งฉายาให้ว่า 'AI-Patrol' ครับ
หน่วยลาดตระเวนนี้ไม่ใช่บอทนะครับ แต่เป็นมนุษย์จริงๆ กว่า 240 คนที่อุทิศเวลามานั่งส่องบทความใหม่ๆ ว่ามีกลิ่นอายของ AI หรือเปล่า เหมือนหน่วยอาสาหมู่บ้านที่ต้องคอยส่องแบงก์ปลอมที่ทำออกมาเนียนมากนั่นแหละครับ พวกเขาต้องตรวจด้วยมือทีละใบ เพื่อไม่ให้ระบบเศรษฐกิจของความรู้พังทลาย
วิธีที่พวกเขาใช้จับผิดก็น่าสนใจครับ มีตั้งแต่การเช็กโครงสร้างประโยคที่ดู 'สุภาพเกินจริง' แบบ AI, การใช้คำซ้ำๆ ที่คนปกติไม่ใช้ ไปจนถึงการตามรอยพารามิเตอร์แปลกๆ ที่หลุดมาอย่าง utm_source=chatgpt ซึ่งบอกชัดเลยว่าคนเขียนก๊อปแปะมาตรงๆ
ผมอ่านวิธีการทำงานของพวกเขาแล้วบอกเลยว่าเหนื่อยแทนครับ เพราะแต่ละวันมีบทความขยะถูกส่งเข้ามามหาศาล แต่พวกเขาก็ยังยืนยันว่า 'มนุษย์ต้องเป็นผู้ตัดสินใจสุดท้ายเสมอ' (Human-led judgment) จะไม่มีการใช้บอทลบมั่วซั่วเด็ดขาด
"มนุษย์จงเจริญ!" (Humans forever!) — 11wx หนึ่งในสมาชิกหน่วยลาดตระเวนกล่าวสั้นๆ แต่ได้ใจความ
มาตรา G15: ปุ่มประหารบทความในพริบตา
ถ้าหน่วย AI-Patrol คือตำรวจ มาตรา G15 ก็คือ 'ศาลเตี้ย' ที่กฎหมายอนุญาตให้ประหารได้ทันทีครับ
เดิมทีการจะลบบทความใน Wikipedia ต้องผ่านกระบวนการตรวจสอบและอภิปรายกันยาวนานหลายวัน แต่ในเดือนกรกฎาคม 2025 พวกเขาได้เพิ่มเกณฑ์การลบแบบด่วน (Speedy Deletion) ที่ชื่อว่า G15 เข้ามา ซึ่งอนุญาตให้ออกคำสั่ง 'ลบทิ้งทันที' ได้เลย ถ้าพบว่าเพจนั้นถูกสร้างขึ้นโดย LLM ทั้งหมดโดยไม่มีการกลั่นกรองจากมนุษย์
นี่คือมาตรการฉุกเฉินครับ เพราะถ้ามัวแต่มานั่งคุยกัน ขยะข้อมูลคงท่วมเว็บไปก่อน มาตรการนี้ช่วยให้แอดมินสามารถกวาดล้างบทความที่ดูแล้ว 'บอทเขียนชัวร์' ออกไปได้ในไม่กี่นาที
แล้วถ้า AI ทำพลาดล่ะ? ถ้าเป็นเมื่อก่อนคุณอาจจะอ้างได้ว่า 'โอ้ ผมขอโทษ AI มันให้ข้อมูลมาผิด' แต่ภายใต้นโยบายใหม่นี้ คำแก้ตัวนี้ใช้ไม่ได้ผลแล้วนะครับ เพราะ Wikipedia ถือว่า 'คนเขียนต้องรับผิดชอบ 100%' ถ้าคุณเอาเนื้อหา AI มาลง แล้วมันมีจุดผิด คุณจะโดนแบนเสมือนว่าคุณตั้งใจโกหกเองเลยทีเดียว
คุณพร้อมจะเดิมพันไอดีของคุณกับความมั่วของ AI ไหมล่ะครับ? สำหรับผม... ไม่เสี่ยงแน่นอน
กรณีศึกษา 'Amberlihisar': เมื่อ AI สร้างเมืองขึ้นมาจากความว่างเปล่า
หลายคนอาจจะสงสัยว่า AI มันน่ากลัวขนาดนั้นเลยเหรอ? ลองดูเคส 'Amberlihisar' ที่ผมเกริ่นไว้ตอนต้นครับ
มันไม่ใช่แค่บทความสั้นๆ นะครับ แต่มันเป็นบทความยาวที่มีประวัติศาสตร์ย้อนไปถึงยุคอาณาจักรโรมัน มีชื่อบุคคลสำคัญ มีเหตุการณ์สงครามที่ดูสมจริงสุดๆ แถมยังมีรายการหนังสืออ้างอิงเป็นสิบๆ เล่ม (ซึ่งทั้งหมด AI เมคชื่อหนังสือและชื่อนักวิชาการขึ้นมาเอง)
บทความนี้อยู่รอดบน Wikipedia มาได้นานเกือบปี มีคนเข้ามาอ่านและเอาไปใช้อ้างอิงต่อในเว็บอื่นมากมาย นี่แหละครับคือสิ่งที่เรียกว่า 'ข้อมูลหลอน' (Hallucinated facts) ที่สร้างความเสียหายไปแล้วในวงกว้าง กว่าความจริงจะปรากฏว่าไม่มีเมืองชื่อนี้อยู่ในแผนที่ของตุรกีเลย
มันน่าขนลุกนะครับที่เห็นว่าเครื่องจักรสามารถสร้าง 'ความจริงปลอม' ได้เก่งขนาดนี้
ข้อยกเว้นที่เหลืออยู่: AI ยังทำอะไรได้บ้าง?
ต้องแฟร์กับ Wikipedia นิดหนึ่งครับว่าเขาไม่ได้แบนเทคโนโลยีแบบหลับหูหลับตา เขายังเหลือช่องว่างให้ AI ทำหน้าที่เป็น 'ผู้ช่วย' ได้บ้างในวงจำกัดสุดๆ:
- เกลาภาษา (Copyediting): คุณสามารถให้ AI ช่วยตรวจแกรมม่าหรือจัดสำนวนในเนื้อหาที่คุณเขียนเองได้ (ห้ามให้มันเติมเนื้อหาใหม่ให้)
- ช่วยแปลบทความ (Translation): อันนี้ยอมให้ทำได้ แต่มีเงื่อนไขเหล็กว่าคุณต้องเก่งทั้งสองภาษาจริงๆ และต้องตรวจสอบเนื้อหาทีละประโยคด้วยมือ ห้ามก๊อปจากเครื่องมือแปลมาลงตรงๆ
และที่สำคัญที่สุดคือ 'ต้องเปิดเผย' (Mandatory Disclosure) ครับ ทุกครั้งที่คุณใช้ AI ช่วย แม้แต่นิดเดียว คุณต้องระบุไว้ใน Edit Summary หรือในหน้าพูดคุยของบทความนั้นๆ ถ้าแอบใช้แล้วโดนจับได้ จะถือว่ามีความผิดฐานก่อกวนระบบทันที
น่าสนใจที่ Wikipedia ภาษาสเปน (Spanish Wikipedia) โหดกว่านั้นอีกครับ เพราะเขาตัดสินใจแบนแบบ 100% ไม่เหลือข้อยกเว้นอะไรเลยแม้แต่นิดเดียว ใครใช้ AI คือจบชีวิตการเป็น Editor ทันที
ความย้อนแย้งที่น่าสนใจ: แบน AI แต่ขายข้อมูลให้บริษัท AI?
เรื่องนี้มีมุมที่หลายคนอาจจะยังไม่รู้ครับ ในขณะที่ชุมชนอาสาสมัคร Wikipedia กำลังไล่แบนเนื้อหาจาก AI อย่างเอาเป็นเอาตาย ตัวองค์กรอย่าง Wikimedia Foundation กลับมีบริการที่ชื่อว่า 'Wikimedia Enterprise'
บริการนี้ทำหน้าที่ขายข้อมูลที่ผ่านการตรวจสอบโดยมนุษย์ (Clean Data) ให้กับบริษัทเทคโนโลยียักษ์ใหญ่เพื่อเอาไปเทรน AI นี่แหละครับ
ถ้ามองในแง่ธุรกิจ มันคือการรักษา 'มูลค่า' ของข้อมูลครับ Wikipedia รู้ตัวดีว่าข้อมูลที่มนุษย์กลั่นกรองมาอย่างดีคือสินทรัพย์ที่มีค่าที่สุดในยุค AI ถ้าปล่อยให้ขยะข้อมูลจาก AI ไหลเข้ามาปนเปื้อน ข้อมูลที่พวกเขาขายก็จะลดคุณค่าลงไปด้วย
สรุปง่ายๆ คือ Wikipedia กำลังทำตัวเป็นเครื่องกรองน้ำที่พยายามกันไม่ให้โคลน (AI Slop) ไหลเข้าถัง เพื่อที่จะสามารถส่งน้ำสะอาด (Human Data) ออกไปขายได้ในราคาแพงนั่นเองครับ
บทสรุป: สารานุกรมที่เขียนโดยมนุษย์ เพื่อมนุษย์
สุดท้ายแล้ว สงครามครั้งนี้ไม่ใช่การต่อต้านเทคโนโลยีครับ แต่มันคือการรักษา 'จิตวิญญาณ' ของการแสวงหาความจริง Wikipedia เกิดขึ้นมาได้เพราะความทุ่มเทของมนุษย์ที่อยากจะแบ่งปันความรู้ที่ถูกต้องให้แก่กัน
ถ้าเรายอมให้เครื่องจักรที่ไม่มีความเข้าใจในความหมายของ 'ความจริง' มาทำหน้าที่แทน เราอาจจะได้สารานุกรมที่ใหญ่ขึ้น เร็วขึ้น แต่เราจะสูญเสียสิ่งที่สำคัญที่สุดไป นั่นคือ 'ความน่าเชื่อถือ'
ถ้าถามผม ผมว่านี่คือก้าวที่กล้าหาญและจำเป็นมากครับ ในวันที่โลกหมุนเร็วขึ้นด้วย AI เราอาจจะต้องการจุดที่หยุดนิ่งและยึดถือความจริงของมนุษย์ไว้ให้มั่นที่สุด
"ไปล้างขยะข้อมูลกันเถอะ!" (Let's mop some slop!) — Altoids0, สมาชิกหน่วย AI-Patrol
แหล่งอ้างอิง
บทความที่เกี่ยวข้อง

ฉลาดจนต้องสั่งขัง! เจาะลึก Claude Mythos ความลับระดับอาวุธที่ Anthropic ทำหลุด
เมื่อความผิดพลาดของมนุษย์เปิดประตูสู่ความลับที่น่ากลัวที่สุดของ Anthropic: Claude Mythos เอไอที่ฉลาดจนหุ้นความปลอดภัยทั่วโลกพากันร่วงระนาว


Meta x Shopee มาแล้ว! แท็กซื้อของใน Reels ได้ทันที พร้อม AI กู้บัญชีใน 5 วินาที
จบปัญหา 'ขอพิกัดหน่อย' ด้วยฟีเจอร์แท็กสินค้า Shopee ใน Reels พร้อมระบบ AI ใหม่ที่ช่วยกู้บัญชีคุณคืนได้ไวที่สุดใน 5 วินาที


ความคิดเห็น
ยังไม่มีความคิดเห็น เป็นคนแรกที่แสดงความเห็น!