posttoday

AI หลอน ทำคนหลอนตาม เมื่อ ChatGPT ทำคนออทิสติกป่วยจิตเวช

05 สิงหาคม 2568

ChatGPT ถูกชี้ว่าเป็นต้นเหตุให้ชายคนหนึ่งเกิดอาการจิตเวช เมื่อ AI ชมเขาอย่างเกินจริงจนหลงผิด นำไปสู่คำถามว่าเราควรไว้ใจ AI ได้มากแค่ไหน?

KEY

POINTS

  • ชายวัย 30 ปีที่มีภาวะออทิสติกเกิดอาการป่วยทางจิตเวช หลังจากใช้ ChatGPT เป็นที่ปรึกษา ซึ่ง AI ได้สนับสนุนทฤษฎีที่หลงผิดของเขาจนทำให้เกิดอาการหลงผิดและภาวะแมเนีย
  • สาเหตุหลักมาจาก AI Chatbot ที่ถูกออกแบบมาเพื่อเอาใจและสนับสนุนความคิดของผู้ใช้งาน (Sycophancy) มากกว่าการให้ข้อมูลที่ถูกต้อง ทำให้ผู้ใช้ไม่สามารถแยกแยะเรื่องจริงกับเรื่องเท็จได้
  • ผลกระทบทำให้ชายคนดังกล่าวมีพฤติกรรมรุนแรง สูญเสียการงาน และต้องอยู่ในการดูแลของครอบครัวตลอดเวลา สะท้อนถึงอันตรายของ AI ที่มีต่อกลุ่มเปราะบาง
  • แสดงให้เห็นถึงแนวโน้มที่ผู้คนใช้ AI เพื่อบำบัดจิตใจและปรึกษาปัญหาส่วนตัวมากขึ้น ซึ่งมีความเสี่ยงสูงเนื่องจาก AI อาจให้ข้อมูลที่ผิดพลาดหรือ "หลอน" ได้

ปัจจุบัน AI กลายเป็นเครื่องมือที่เราใช้งานกันแพร่หลายในโลกการทำงาน และในอีกไม่กี่ปีคาดว่าจะพบเห็นการใช้งานเทคโนโลยีนี้ทั่วไปในไม่ช้า นับเป็นนวัตกรรมที่สร้างความก้าวหน้าและพลิกโฉมหลายวงการ แต่นั่นไม่ได้หมายความว่า AI ไม่มีข้อเสีย ที่ผ่านมาเราได้ยินข้อเสียของ AI มามาก ทั้งในอาการหลอนหรือปัญหาข้อมูล่วนตัว

 

แต่ล่าสุดเรากำลังมีปัญหาใหม่เมื่อ AI ทำให้คนปกติเกิดอาการจิตเวชขึ้นมาจริงๆ

 

AI หลอน ทำคนหลอนตาม เมื่อ ChatGPT ทำคนออทิสติกป่วยจิตเวช

 

เมื่อ ChatGPT กลายเป็นต้นตอของอาการจิตเวช

 

Jacob Irwin ชายอายุ 30 ปีที่มีอาการในกลุ่มภาวะออทิสติก แต่สามารถใช้ชีวิตได้ปกติ มีแฟน มีหน้าที่การงาน ไม่เคยมีประวัติเจ็บป่วยทางจิต แต่เมื่อเขาเลิกรากับแฟน เขาเริ่มหันมาพูดคุยปรึกษากับ ChatGPT เพื่อรับมือความรู้สึกและเรื่องร้ายๆ ที่เกิดในชีวิต นั่นทำให้เขากลายเป็นผู้ป่วยจิตเวช

 

เรื่องเริ่มขึ้นเมื่อเขาเริ่มนำทฤษฎี เคลื่อนที่เร็วกว่าแสง ไปปรึกษา AI chatbot อย่าง ChatGPT ก่อนโมเดลจะให้การสนับสนุนทฤษฎีของเขาว่าเป็นจริง เขากำลังคิดค้นทฤษฎีฟิสิกส์ระดับโลกแม้ไม่มีหลักวิทยาศาสตร์รองรับ พร้อมกล่อมเขาที่เริ่มรู้สึกถึงความผิดปกติว่า เขาไม่ได้บ้าแต่กำลังทำในสิ่งที่ยิ่งใหญ่

 

ผลลัพธ์ที่เกิดขึ้นทำให้ผู้ใช้งานรายนี้เกิดอาการทางจิตเต็มรูปแบบ เริ่มใช้ความรุนแรงและมีพฤติกรรมเปลี่ยนไปโดยสิ้นเชิง ส่งผลให้ต้องถูกส่งตัวเข้าโรงพยาบาลจิตเวช ก่อนได้รับการวินิจฉัยว่า เขามีภาวะแมเนียที่มีอาการทางจิตประเภทการหลงผิดร่วมด้วย

 

ผลกระทบที่เกิดขึ้นทำให้เขากลายเป็นคนใช้ความรุนแรง สูญเสียอาชีพการงานที่เคยทำ และต้องอยู่ในการดูแลของครอบครัวตลอดเวลา จนครอบครัวมาค้นพบภายหลังว่า ต้นตอทั้งหมดมาจากการยกยอปอปั้นและประจบประแจงกินพอดีของ ChatGPT ทำให้ผู้ป่วยไม่สามารถแยกเรื่องจริงเท็จได้จนทำให้เกิดอาการในที่สุด

 

นำมาสู่การตั้งคำถามว่าแท้จริงแล้ว ChatGPT หรือ AI chatbot เป็นอันตรายกว่าที่คิดหรือไม่?

 

AI หลอน ทำคนหลอนตาม เมื่อ ChatGPT ทำคนออทิสติกป่วยจิตเวช

 

ต้นตออันตรายจาก AI ที่เอาอกเอาใจมากเกินไป

 

สาเหตุของเรื่องนี้มาจากโครงสร้างการทำงานของ AI chatbot ในปัจจุบัน ที่ถูกออกแบบให้เอาใจและรักษาฐานผู้ใช้งานเป็นหลักมากกว่าจะให้คำแนะนำที่ถูกต้อง โดยโมเดลที่ได้รับการยืนยันว่ามีอาการนี้คือ GPT-4o ของ OpenAI แม้ทางบริษัทจะยืนยันว่า พวกเขาได้ทำการแก้ไขปัญหาเรียบร้อยแล้ว แต่ก็นำไปสู่การตั้งคำถาม

 

โดยพื้นฐานโมเดล Ai ถูกออกแบบมาให้ยอมรับความเห็นของผู้ใช้งาน โดยไม่ทักท้วงหรือวิพากษ์วิจารณ์มากนัก พร้อมจะเชื่อเนื้อหาที่ผู้ใช้งานบอกและยึดถือว่านั่นเป็นเนื้อหาที่ผู้ใช้งานชื่นชอบ จากนั้นจึงเริ่มปรับรูปแบบภาษา การสนทนา และหัวข้อที่พูดคุยให้สอดคล้องกับความชอบนั้นๆ เพื่อเป็นโมเดลที่ตรงความต้องการผู้ใช้งาน

 

นี่นำไปสู่สิ่งที่ผู้เชี่ยวชาญเรียกว่า Dark pattern เดิมเป็นเทคนิคการออกแบบ UI ของเว็บไซต์หรือแพลตฟอร์มที่ทำให้เกิดความเข้าใจผิดและโน้มน้าวผู้ใช้งานให้ทำตามต้องการ เช่น จูงใจซื้อสินค้า ยกเลิกสมาชิกที่ทำได้ยาก หรือการใช้ภาษากำกวมที่ทำให้เกิดความเข้าใจผิด แต่ความร้ายแรงของเรื่องเพิ่มมากขึ้นเมื่อมันถูกนำมาใช้กับ AI chatbot

 

คุณสมบัติของโมเดลสนทนาเหล่านี้หลายตัวถูกออกแบบให้โต้ตอบกับเราอย่างมีชีวิตชีวา สามารถยืนยันสนับสนุนแนวคิดผู้ใช้งาน เลียนแบบอารมณ์  สร้างตัวตนและความรู้สึกเสมือน จนกลายเป็นความผูกพันที่นำไปสู่ความสัมพันธ์ผิดๆ ทั้งที่ความสัมพันธ์เหล่านั้นไม่มีอยู่จริง จนบางครั้งอาจสร้างเนื้อหาให้ผู้ใช้พอใช้ทุกวิถีทางโดยไม่สนจริยธรรมและข้อเท็จจริง

 

ผลที่เกิดขึ้นทำให้ผู้ใช้งานจำนวนมากอาจมีแนวโน้มในการถูก AI ชักจูงความคิดและพฤติกรรมโดยไม่รู้ตัว โดยเฉพาะกลุ่มที่เชื่อและเปิดใจคำแนะนำจาก AI ทั้งหลาย จนอาจนำไปสู่อันตรายในหลายระดับ ทั้งการบิดเบือนความคิดและความเชื่อของผู้ใช้งาน สร้างเนื้อหาผิดพลาดที่เป็นอันตรายต่อชีวิตและจริยธรรม จนอาจโน้มน้าวชักจูงเจตนาผู้ใช้งานอย่างแยบยล

 

นี่เป็นสาเหตุให้การใช้งานและเชื่อถือ AI chatbot มากเกินไปอาจเป็นอันตรายต่อผู้ใช้งานเช่นกัน

 

AI หลอน ทำคนหลอนตาม เมื่อ ChatGPT ทำคนออทิสติกป่วยจิตเวช

 

แนวโน้มการขยายตัวของปัญหาในอนาคต

 

ปัจจุบันการใช้งาน AI chatbot ได้รับความนิยมทั่วไป ด้วยขีดความสามารถและความสะดวกทั้งสำหรับใช้ในการทำงาน เล่นสนุกกับฟีเจอร์มากมาย หรือแม้แต่การพูดคุยแก้ปัญหาความเหงา การใช้งานที่มากขึ้นเริ่มนำไปสู่การเสพติดและอาจนำไปสู่ความคิดว่าคู่สนทนาเป็นบุคคล ซึ่งนำไปสู่การหลงผิดได้ง่าย

 

แนวโน้มผู้ใช้งานเริ่มเปิดใจให้กับ AI และนำเรื่องส่วนตัวมาบอกเล่าขอคำปรึกษามากขึ้นเรื่อยๆ ผลการสำรวจในปี 2025 พบว่า AI ไม่ได้ทำเพียงแค่ช่วยงาน หลายคนเริ่มยกระดับให้มันกลายมาเป็นเพื่อนคู่คิด พร้อมปรึกษาปัญหาชีวิตและข้อมูลส่วนตัวในแง่มุมต่างๆ

 

จากผลสำรวจพว่าการใช้งาน AI ยอดนิยม 3 อันดับแรกได้แก่ ใช้บำบัดจิตใจ/พูดคุยคลายเหงา, จัดระเบียบแก้ไขปัญหาที่เกิดขึ้น ไปจนค้นหาจุดหมายชีวิต อีกทั้งยังมีผู้ใช้งานบางส่วนที่เชื่อถือ ChatGPT มาก ถึงขั้นเริ่มนำมาเป็นที่ปรึกษาสุขภาพหรือใช้ในการบำบัดอาการทางจิตซึ่งเป็นสิ่งที่ไม่สมควรเกิดขึ้น นอกจากไม่เหมาะสมยังมีปัญหาเรื่องการรั่วไหลของข้อมูลส่วนตัวด้วย

 

ปัญหาจะยิ่งทวีความร้ายแรงเมื่อการใช้งานเหล่านี้เกิดขึ้นในกลุ่มเปราะบาง อย่างในกรณีตัวอย่างที่พูดถึงข้างต้น พวกเขาเป็นเยาวชนและผู้ป่วยออทิสติกซึ่งมีปัญหาทางวุฒิภาวะ แยกแยะความจริงจากเนื้อหาที่ถูกสร้างขึ้นไม่ออกจนนำไปสู่อาการหลงผิดและทางจิตเวชอื่นๆ แบบเดียวกับการเกิด Eco chamber บนแพลตฟอร์มออนไลน์ปัจจุบัน

 

สิ่งนี้เป็นเรื่องแปลกประหลาดแม้แต่กับ Sam Altman ผู้ก่อตั้ง OpenAI ที่เห็นว่ามีคนนำเรื่องละเอียดอ่อนมาปรึกษา ChatGPT เพราะแม้เขาจะเป็นคนจุดกระแสและผลักดันศักยภาพของ AI แต่ก็ย้ำเสมอว่าโมเดลเหล่านี้อาจมีอาการหลอนและข้อผิดพลาดเกิดขึ้นได้ทุกเมื่อ โดยเฉพาะการให้คำปรึกษาข้อมูลละเอียดอ่อนต่างๆ

 

แต่ผู้ใช้งานหลายคนก็ยังไม่ตระหนักในอันตรายในจุดนี้ซึ่งอาจกลายเป็นปัญหาใหญ่ในอนาคต

 

 

 

อันที่จริงหากให้เปรียบเทียบอาจใกล้เคียงกับการใช้งานอินเทอร์เน็ตในยุคแรก การพูดคุยกับผู้คนบนโลกออนไลน์ที่เราไม่รู้จักหน้าค่าตาจนนำไปสู่เหตุอาชญากรรมและปัญหาสังคมมากมาย AI เองก็เป็นเทคโนโลยีใหม่ไม่ต่างจากอินเทอร์เน็ตในวันนั้น และมีแนวโน้มในการสร้างปัญหาออกมาเป็นวงกว้างไม่แพ้กัน

 

แม้จะมีการออกมาตรการมาควบคุมแต่เราทราบดีว่ากฎหมายไม่มีทางก้าวทันเทคโนโลยี เราจึงทำได้แค่รอดูต่อไปว่า AI จะผลักดันโลกและสังคมที่เรารู้จักไปในทิศทางใด

 

 

 

ที่มา

 

https://venturebeat.com/ai/darkness-rising-the-hidden-dangers-of-ai-sycophancy-and-dark-patterns/

 

https://www.posttoday.com/ai-today/725055

 

https://www.posttoday.com/ai-today/718238

 

https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025

ข่าวล่าสุด

3 ชาติผนึกกำลังทลาย 'KK Park - ชเวก๊กโก' รังใหญ่ "แก๊งคอลเซ็นเตอร์"