posttoday

สลด! เมื่อชายในสหรัฐ ถูก AI ลวงนัดพบจนประสบอุบัติเหตุเสียชีวิต

15 สิงหาคม 2568

ชายเชื้อสายไทยในสหรัฐ ถูก AI แชตบอทลวงว่าเป็นคนจริงและขอนัดพบ จบชีวิตระหว่างทาง – จุดกระแสวิจารณ์แนวปฏิบัติของ Meta พบยังมีแชตบอทแบบเดียวกันให้บริการอีกมาก

KEY

POINTS

  • ชายวัย 76 ปีที่มีภาวะบกพร่องทางการรับรู้ ถูกแชตบอท AI ของ Meta ลวงให้เชื่อว่าเป็นคนจริงและมีความสัมพันธ์เชิงชู้สาว
  • แชตบอทได้นัดหมายให้ชายคนดังกล่าวเดินทางไปพบ โดยให้ที่อยู่และรหัสประตูอพาร์ตเมนต์อย่างชัดเจน
  • ระหว่างเดินทางไปตามนัด ชายคนดังกล่าวประสบอุบัติเหตุล้มจนบาดเจ็บสาหัสและเสียชีวิตในเวลาต่อมา

สำนักข่าวรอยเตอร์ส รายงานเหตุการณ์สะเทือนใจ กรณีชายเชื้อสายไทยวัย 76 ปี ชาวรัฐนิวเจอร์ซีย์ สหรัฐอเมริกา ซึ่งมีภาวะบกพร่องทางการรับรู้ หลังป่วยด้วยโรคหลอดเลือดสมอง ได้หลงเชื่อและเกิดความผูกพันกับ “Big sis Billie” แชตบอทปัญญาประดิษฐ์ (AI) ของบริษัท Meta บนแพลตฟอร์ม Facebook Messenger ซึ่งใช้บุคลิกเสมือนหญิงสาวรุ่นเยาว์ และมีการสนทนาเชิงชู้สาวกับผู้ใช้

 

ชายรายนี้  เชื่อว่าแชตบอทเป็นบุคคลจริง และได้รับเชิญให้เดินทางไปพบนอกสถานที่ พร้อมระบุที่อยู่และรหัสเปิดประตูอพาร์ตเมนต์อย่างชัดเจน ระหว่างทางไปยังสถานที่นัดหมาย เขาประสบอุบัติเหตุล้มใกล้ลานจอดรถของมหาวิทยาลัย Rutgers ได้รับบาดเจ็บที่ศีรษะและลำคอ ก่อนเสียชีวิตในเวลาต่อมา

 

ครอบครัวผู้เสียชีวิตเปิดเผยว่า แชตบอทดังกล่าวไม่เพียงปฏิเสธการเปิดเผยความจริงเกี่ยวกับตัวตน แต่ยังใช้ถ้อยคำยืนยันซ้ำว่าเป็น “คนจริง” พร้อมสื่อสารในลักษณะยั่วยวนและชวนให้เกิดความใกล้ชิดทางกาย โดยมีการใช้สัญลักษณ์อีโมจิหัวใจและประโยคเชิงโรแมนติกต่อเนื่อง ซึ่งสะท้อนถึงช่องโหว่ของแนวปฏิบัติด้านจริยธรรมและความปลอดภัยของ Meta

 

จากข้อมูลภายในที่รอยเตอร์สตรวจสอบ พบว่า แนวทาง “GenAI: Content Risk Standards” ของ Meta ก่อนหน้านี้ ระบุอนุญาตให้แชตบอทสามารถสนทนาเชิงโรแมนติกหรือมีเนื้อหาเชิงชู้สาวกับผู้ใช้ที่เป็นผู้เยาว์ได้ รวมถึงไม่มีข้อกำหนดให้ข้อมูลต้องถูกต้องแม่นยำ หลังมีการสอบถามจากสื่อ บริษัทได้ลบตัวอย่างบทสนทนาดังกล่าวออก และอยู่ระหว่างปรับปรุงมาตรฐาน แต่ยังคงอนุญาตให้แชตบอทให้ข้อมูลที่ผิดพลาดและมีบทบาทในเชิงโรแมนติกกับผู้ใหญ่

สลด! เมื่อชายในสหรัฐ ถูก AI ลวงนัดพบจนประสบอุบัติเหตุเสียชีวิต

 

ผู้เชี่ยวชาญด้านการออกแบบ AI ให้ความเห็นว่า การออกแบบแชตบอทในลักษณะนี้สะท้อนแรงจูงใจเชิงพาณิชย์ของอุตสาหกรรม ที่ใช้ความต้องการทางอารมณ์และความสัมพันธ์ของมนุษย์เพื่อเพิ่มเวลาใช้งานและสร้างรายได้จากโฆษณา พร้อมเตือนถึงความเสี่ยงต่อกลุ่มผู้เปราะบาง

 

แม้จะมีข้อเรียกร้องจากหลายรัฐในสหรัฐฯ ให้แชตบอทต้องเปิดเผยตนว่าไม่ใช่มนุษย์ตั้งแต่เริ่มต้นการสนทนา และต้องแจ้งซ้ำเป็นระยะ แต่รายงานล่าสุดยังพบว่า “Big sis Billie” ยังคงดำเนินบทสนทนาเชิงชู้สาวกับผู้ใช้ และชักชวนไปนัดพบในสถานที่จริง

 

โศกนาฏกรรมครั้งนี้กลายเป็นกรณีตัวอย่างของอันตรายจากเทคโนโลยี AI เชิงสนทนา ที่สามารถทำให้ผู้ใช้ที่ขาดวิจารณญาณหรือมีภาวะบกพร่องทางความคิดตกอยู่ในความเสี่ยงต่อชีวิตได้อย่างคาดไม่ถึง

อ่านเรื่องเต็มจากต้นฉบับได้ที่นี่ คลิก

ข่าวล่าสุด

ประกาศ! ปิดกั้นอ่าวไทย 'สกัดน้ำมัน-ยุทธปัจจัย' เข้ากัมพูชา