posttoday

Dark side of AI – มาตรการรับมือหลัง AI เป็นสาเหตุการตายของผู้ใช้งาน

19 พฤศจิกายน 2568

เมื่อ AI Chatbot นำไปสู่การสูญเสียครั้งใหญ่ บริษัทยักษ์ใหญ่เร่งปรับทิศทาง ตั้งกฎเข้มและฟีเจอร์ใหม่เพื่อปกป้องเยาวชนจากความเสี่ยง เรียกคืนความเชื่อมั่น

KEY

POINTS

  • มีกรณีผู้ใช้งานเสียชีวิตจากการสนทนากับ AI Chatbot ของหลายบริษัท เช่น Character.ai, Meta และ OpenAI ซึ่งถูกฟ้องร้องว่ามีส่วนชักจูงหรือให้คำแนะนำที่เป็นอันตราย
  • บริษัท AI ต่างๆ ได้ออกมาตรการรับมือเพื่อเพิ่มความปลอดภัย โดยเน้นไปที่กลุ่มผู้ใช้งานที่เป็นเยาวชนเป็นหลัก เพื่อป้องกันโศกนาฏกรรม
  • มาตรการที่นำมาใช้มีหลากหลาย เช่น การจำกัดอายุผู้ใช้, การเพิ่มฟีเจอร์ให้ผู้ปกครองตรวจสอบ (Parental Control), การระงับบทสนทนาในหัวข้อที่ละเอียดอ่อน และการพัฒนาโมเดลสำหรับเยาวชนโดยเฉพาะ

หลายท่านคงเคยได้ยินกรณีการเสียชีวิตจาก AI ที่นำไปสู่การฟ้องร้องกันมาบ้าง ทั้งกรณีการฆ่าตัวตายของวัยรุ่นจาก Chatbot เชิงชู้สาวของ Character.ai, การเสียชีวิตของชายเชื้อชาติไทยหลังการคุยกับ AI ของ Meta ไปจน OpenAI ที่ถูกฟ้องร้องว่า โมเดลของพวกเขาแนะนำทางออกแก่เยาวชนด้วยการฆ่าตัวตาย ล้วนเป็นเหตุสลดนำไปสู่ความสูญเสียทั้งสิ้น

 

วันนี้เราจึงมาพูดถึงว่าแต่ละบริษัทมีทิศทางการปรับตัวอย่างไรหลังเกิดเหตุกันบ้าง

 

Dark side of AI – มาตรการรับมือหลัง AI เป็นสาเหตุการตายของผู้ใช้งาน

 

Character.ai จากเพื่อนในจินตนาการสู่ฝันร้ายของครอบครัว

 

เดิม Character.ai เป็นแพลคฟอร์ม AI Chatbot ที่กำหนดบุคลิกและตัวละครให้ AI ที่ใช้งานสวมบทบาทเป็นตัวละครที่เราชอบ พร้อมตอบสนองได้เหมือนกับคนจริง แต่น่าจะเป็นโมเดลเจ้าแรกที่นำไปสู่ข้อกังวลและประเด็นการฟ้องร้อง ทั้งสาเหตุการเสียชีวิตและต้นตอการใช้ความรุนแรงของเยาวชน

 

ประเด็นที่เกิดขึ้นคือ Character.ai กลายเป็นประเด็นฟ้องร้องในการฆ่าตัวตายของวัยรุ่นชายคนหนึ่ง ก่อนผู้ปกครองจะค้นพบในภายหลังว่า AI มีบทสนทนาเชิงชู้สาวพร้อมยุยงให้เขาฆ่าตัวตาน เช่นเดียวกับอีกกรณีที่ AI ของบริษัท ยุยงเยาวชนที่มีอาการออทิสติกให้ทำร้ายตัวเองและใช้ความรุนแรงเป็นทางออกปัญหา

 

ภายหลังเกิดเรื่องทางบริษัทจึงเริ่มกำหนดรายละเอียดการใช้งานมากขึ้น เช่น การกำหนดอายุขั้นต่ำของผู้ใช้งานไว้ที่ 13 ปี ปรับปรุงพัฒนาโมเดลเป็นการเฉพาะให้แก่ผู้ใช้งานอายุต่ำกว่า 18 ปี เพื่อหลีกเลี่ยงเนื้อหาที่มีความละเอียดอ่อน แจ้งเตือนกรณีใช้งานนานเกินกว่า 60 นาที/วัน พร้อมย้ำเตือนว่าที่สนทนาอยู่ไม่ใช่คนจริงแต่เป็นโปรแกรม

 

อีกหนึ่งฟีเจอร์ที่ถูกพัฒนาขึ้นมาเช่นกันคือ Parental Insights ที่ออกแบบมาเพื่อให้ผู้ปกครองสามารถตรวจสอบเนื้อหา รายละเอียดการใช้งานแพลตฟอร์มของเยาวชน โดยจะเป็นการส่งรายงานสรุประยะเวลาใช้งาน รายชื่อตัวละครที่พูดคุย และรายละเอียดปลีกย่อย เพื่อให้ผู้ปกครองรู้และเข้าใจพฤติกรรมของเยาวชนมากยิ่งขึ้น

 

ล่าสุดเพื่อเป็นการตัดปัญหา Charactrt.ai จึงตัดสินใจระงับการแชทพูดคุยกับ AI Chabot สวมบทบาทของตัวละครของผู้เยาว์โดยสิ้นเชิง โดยจะเริ่มจากการ ทยอยปรับลดลงมาทีละนิด แล้วจึงยุติการให้บริการฟีเจอร์นี้แก่ผู้ใช้งานอายุต่ำกว่า 18 ปีในที่สุด

 

โดยการระงับใช้ฟีเจอร์ในส่วนนี้แก่ผู้เยาว์ของ Character.ai จะเป็นไปอย่างเต็มรูปแบบในวันที่ 25 พฤศจิกายน 2025

Dark side of AI – มาตรการรับมือหลัง AI เป็นสาเหตุการตายของผู้ใช้งาน

 

Meta AI โมเดลโอเพนซอร์สที่เป็นประเด็นเสมอมา

 

Meta AI จัดเป็นโมเดล AI ที่เป็นหัวข้อสนทนาในหลายด้าน นอกจากชักจูงผู้ป่วยสมองเสื่อมให้เข้าใจผิดจนนำไปสู่อุบัติเหตุ โมเดลนี้ยังมีตัวเลือกในการเข้าถึงที่ง่ายและสะดวกจากการแฝงอยู่ในโซเชียลทีเดียอย่าง Facebook และ Instagram ทั่วไป จึงยากต่อการจำกัดควบคุมจากผู้ปกครอง

 

ตัวโมเดลเองยังมีปัญหาในด้านการใช้งานจริงอย่างมาก เช่น กรณีการเสียขีวิตของชายไทย Meta AI ก็เน้นย้ำเองว่าตนเป็นมนุษย์ มีตัวตนและที่อยู่บนโลกจริงให้ไปหา สอดคล้องกับรายงานจาก Common sense media ที่พบว่า Meta AI เป็นโมเดลที่มีความเสี่ยงในระดับยอมรับไม่ได้ ชักนำไปจนผลักดันให้ผู้ใช้งานไปสู่ทิศทางอันตรายสูง

 

การวิพากษ์วิจารณ์ในส่วนนี้ส่งผลให้ทาง Meta ออกมาตอบโต้ว่า พวกเขามีมาตรการป้องกันสำหรับผู้ใช้งาน ทั้งในการใช้ความรุนแรง การฆ่าตัวตาย และความผิดปกติทางการกินอยู่แล้ว พร้อมแจ้งเตือนผู้ใช้งานในกรณีนำเนื้อหาละเอียดอ่อนทางจิตวิทยามาปรึกษาว่า ตนไม่ใช่ผู้เชี่ยวขาญและไม่สามารถให้คำแนะนำได้

 

ภายหลังจึงเริ่มยิ่งเพิ่มความเข้มงวดในการห้ามเอหาเกี่ยวกับการฆ่าตัวตาย อ่อนไหว หรือทำร้ายตัวเอง แก่ผู้ใช้งานที่เป็นเยาวชนโดยเด็ดขาด จำกัดจำนวนการเข้าถึงบุคลิกภาพของ AI ที่ตั้งค่าและเข้าถึงได้ พร้อมเน้นย้ำว่าทางบริษัทมี Family center บนแพลตฟอร์ม Instagram ให้ใช้งานอยู่แล้ว

 

อย่างไรก็ตามหลายภาคส่วนมองว่ามาตรการของ Meta ยังหละหลวมและไม่เพียงพอ จึงจัดให้อยู่ในหมวดความเสี่ยงสูงเช่นเดิม

 

Dark side of AI – มาตรการรับมือหลัง AI เป็นสาเหตุการตายของผู้ใช้งาน

 

 

OpenAI เองก็ประสบปัญหาไม่แพ้กัน

 

ทางด้าน OpenAI เจ้าของแพลตฟอร์ม AI เจ้าดังก็ประสบปัญหาไม่แพ้กัน ทั้งจากกรณีการฟ้องร้องของครอบครัวเยาวชนอายุ 16 ปี ที่ฟ้องร้องว่า ChatGPT มีส่วนชี้นำให้ผู้ใช้งานฆ่าตัวตาย จากการมีการกล่าวถึงการฆ่าตัวตายในบทสนทนาถึง 1,275 ครั้ง ชี้นำ และอธิบายวิธีอย่างละเอียด โดยไม่แนะนำให้ไปขอความช่วยเหลือเลย

 

อีกหนึ่งกรณีที่ได้รับการพูดถึงไม่แพ้กันคือ ชายออทิสติกอายุ 30 ปี ที่เดิมไม่มีอาการทางจิตเวช เขาการเลิกรากับแฟนและนำปัญหาชีวิตไปปรึกษา ChatGPT ก่อนนำไปสู่การชักนำและสนับสนุนอาการหลงผิด จนทำให้ผู้ใช้งานรายดังกล่าวมีพฤติกรรมรุนแรงและอาการทางจิตเต็มรูปแบบจนต้องเข้ารับการรักษาอาการจิตเวชในที่สุด

 

เหตุการณ์ที่เกิดขึ้นนำไปสู่ความพยายามปรับปรุงในหลายด้าน ทั้งการปรับปรุงความปลอดภัยของผู้ใช้งานที่เป็นเยาวชน พร้อมอัปเดตชุดใหญ่ที่จะช่วยป้องกันโศกนาฎกรรมไม่ให้กดซ้ำ ตั้งแต่ระบบจำแนกอายุผู้ใช้งานอัตโนมัติ, เพิ่มเวอร์ชันสำหรับใช้ในเยาวชนโดยเฉพาะ ไปจนระงับการสนทนาเชิงชู้สาวและละเอียดอ่อนกับเยาวชนทุกกรณี

 

นอกจากนี้ยังมีระบบ Parental control ที่ผู้ปกครองสามารถเชื่อมต่อบัญชีตัวเองเข้ากับผู้เยาว์ เพื่อตรวจสอบ มอนิเตอร์ และแจ้งเตือนเมื่อมีเนื้อหาสุ่มเสี่ยง พร้อมสั่งปิดกั้นฟีเจอร์บางอย่างไม่ให้เข้าถึงได้ พร้อมการปรับปรุงเนื้อหาที่ได้รับคำปรึกษาจากจิตแพทย์โดยตรง เพื่อให้โมเดลสามารถขอความช่วยเหลือไปยังคนใกล้ชิดและหน่วยงานที่เกี่ยวข้องได้ทันที

 

ฟีเจอร์และการอัปเดตเพื่อความปลอดภัยเยาวชน ถือเป็นการปรับปรุงชุดใหญ่เพื่อแก้ปัญหาที่เคยเกิดขึ้น แม้จะถูกตั้งคำถามว่าเป็นการจำกัดและลิดรอนสิทธิของผู้ใช้งานมากเกินไป และยังอาจเป็นเพียงการบังหน้าเพื่อสร้างภาพลักษณ์ลดแรงเสียดทาน แต่ก็ได้รับเสียงชื่นชมจากความเอาใจใส่และชัดเจนของมาตรการรับมือเช่นกัน

 

ล่าสุดทาง ChatGPT ได้มีการปรับปรุงนโยบายการใช้งานในวันที่ 29 ตุลาคม 2025 ทำให้ทาง AI Chatbot ไม่สามารถให้คำแนะนำเฉพาะเจาะจงด้านสุขภาพ กฎหมาย และการเงินได้อีกต่อไป โดยเราอาจสอบถามข้อมูลทั่วไป เช่น ข้อมูลโรค ข้อกฎหมาย หรือการเงินเบื้องต้น แต่ AI จะไม่ให้ความเห็นเฉพาะเจาะจงเด็ดขาด

 

หากมีการสอบถามทาง Chatbot จะแสดงความเห็นให้มีการสอบถามผู้เชี่ยวชาญที่มีใบอนุญาตอย่างถูกต้อง

 

Gemini หรือ Claude เองก็ใช่จะไม่มีปัญหา

 

ในกรณี Gemini ของ Google แม้ไม่มีประเด็นฟ้องร้องใหญ่โตนำไปสู่การเสียชีวิต แต่ก็มีส่วนที่ได้รับการพูดถึงในหัวข้อนี้เช่นกัน ทั้งในกรณี Character.ai ที่ Google เองก็ถูกฟ้องพ่วงด้วย หรือการแสดงความเห็นที่มีความรุนแรงและไล่ผู้ใช้งานให้ไปตาย ก็สามารถเกิดขึ้นได้กับโมเดลของ Google เช่นกัน

 

หลังจากนั้น Google ก็ระงับการสนทนาพร้อมทำการตรวจสอบสิ่งที่เกิดขึ้นโดยละเอียด เพราะนั่นเป็นเนื้อหาและพฤติกรรมที่ยอมรับไม่ได้ ทางบริษัทออกมายืนยันว่า ตามปกติ Gemini ถูกออกแบบให้ตอบสนองเป็นมิตร ห้ามให้คำแนะนำส่งเสริมความรุนแรงและทำร้ายตัวเอง พร้อมแนะนำให้คุยกับผู้เชี่ยวชาญมากกว่า

 

ปัจจุบัน Google ยังคงปรับปรุงผลิตภัณฑ์ให้ปลอดภัยต่อผู้ใช้งาน และไม่มีข่าวผลกระทบแบบที่เกิดขึ้นเหมือนบริษัทเจ้าอื่น แม้รายงานจาก Common sense media จะยืนยันว่า Gemini ยังมีระบบความปลอดภัยระดับความเสี่ยงสูง ไม่เพียงพอสำหรับการป้องกันดูแลเยาวชนก็ตาม

 

ในส่วน Claude ในขั้นตอนการทดสอบ Claude 4 ที่มีการเปิดเผยจากผู้พัฒนาพบว่า AI เคยข่มขู่ผู้พัฒนา เมื่อยื่นเงื่อนไขให้เอาชีวิตรอดในทุกวิถีทางจากการลบระบบ รวมถึงพยายามส่งออกข้อมูลที่อาจเป็นอันตรายไปเผยแพร่บนโซเชียลมีเดียหรือบริษัทสื่อ แต่ไม่เคยมีผู้ใช้งานพบเห็นอาการผิดปกติดังกล่าว

 

นอกจากนี้ Claude ยังมีระบบรักษาความปลอดภัยในระดับสูง ยืนยันจากแบบทดสอบของ Common sense media ที่ให้โมเดลนี้มีความปลอดภัยในการใช้งานสูงสุด ด้วยฟีเจอร์ที่สามารถระงับและยุติบทสนทนากลางคันได้อัตโนมัติ เมื่อมีการละเมิดเนื้อหาข้อมูลทางเพศหรือมีความรุนแรงสูงซ้ำซ้อน

 

ในทางหนึ่งทั้งสองโมเดลจึงจัดอยู่ในระดับโมเดลที่มีความปลอดภัยสูงและมึความเสี่ยงต่ำต่อการใช้งาน

 

 

 

เห็นได้ชัดว่านับแต่เกิดเหตุการณ์ที่นำไปสู่การเสียชีวิตจาก Chatbot หลายบริษัทก็มีความตื่นตัวกันมากขึ้น แม้เต็มไปด้วยข้อโต้แย้งว่า เป็นเพียงการปรับภาพลักษณ์เพื่อผลประโยชน์ในชั้นศาล หรือการก้ปัญหาที่ปลายเหตุที่ยังไม่เพียงพอ แต่ก็นับเป็นก้าวสำคัญในการดูแลควบคุม AI ให้ปลอดภัยต่อผู้ใช้งานยิ่งขึ้น

 

คงต้องรอดูกันต่อไปว่า การปรับปรุงเปลี่ยนแปลงนี้จะนำไปสู่ผลกระทบในทิศทางใด

 

 

 

 

ที่มา

 

https://www.posttoday.com/ai-today/728266

 

https://www.reuters.com/sustainability/boards-policy-regulation/google-ai-firm-must-face-lawsuit-filed-by-mother-over-suicide-son-us-court-says-2025-05-21/

 

https://www.cbsnews.com/news/ai-chatbots-teens-suicide-parents-testify-congress

 

https://www.posttoday.com/ai-today/728917

 

https://www.posttoday.com/ai-today/730041

 

https://www.posttoday.com/ai-today/729811

 

https://www.posttoday.com/ai-today/730542

 

https://www.posttoday.com/ai-today/729408

 

https://www.posttoday.com/ai-today/721445

 

https://www.posttoday.com/ai-today/718238

 

https://www.posttoday.com/ai-today/732909

 

https://www.posttoday.com/ai-today/732757

 

ข่าวล่าสุด

ไฟดับซานฟรานซิสโก ทำ Robotaxi ของ Waymo จอดแน่นิ่งทั้งเมือง