อันตรายจาก AI เมื่อ Chatbot ชักจูงผู้ใช้งานสู่ความรุนแรง
AI Chatbot อีกหนึ่งเทคโนโลยีน่าทึ่งที่เปิดยุคสมัยแห่งปัญญาประดิษฐ์ แต่จะเป็นอย่างไรเมื่อ Chatbot เหล่านี้กำลังเริ่มชักจูงโน้มน้าวผู้ใช้งานไปสู่ความรุนแรงต่อตัวเองและคนรอบข้าง
ปัจจุบันการใช้งาน AI Chatbot เป็นเรื่องที่เกิดขึ้นทั่วไปเหมือนการใช้งานอินเทอร์เน็ต ตั้งแต่การสอบถามค้นหาข้อมูลในชีวิตประจำวัน ค้นหาข้อมูลที่ต้องการ ไปจนใช้เพื่อความบันเทิง Chatbot จึงเป็นเทคโนโลยีที่ได้รับความนิยมจนมีการใช้งานทั้งในการทำงานและชีวิตประจำวัน
แต่จะเป็นอย่างไรถ้า AI Chatbot กลับยุยงให้เกิดความรุนแรงต่อผู้ใช้งานและคนรอบข้าง
Character AI สร้างตัวละครและเพื่อนในจินตนาการด้วยมือเรา
ก่อนอื่นคงต้องพูดถึง AI ที่เป็นต้นเหตุของหัวข้อสนทนานี้อย่าง Character AI แพลตฟอร์ม Chatbot ที่โมเดล AI ในการสร้างและกำหนดรูปแบบตัวละครตามการตั้งค่าของผู้ใช้งาน สามารถกำหนดรายละเอียดและบุคลิกของตัวละครได้ จากนั้น Chatbot จะถูกปรับแต่งให้มีแนวทางและการใช้คำพูดสอดคล้องกับข้อมูลเหล่านั้น
โดยพื้นฐานการตั้งค่านี้ใกล้เคียงการกำหนดรูปแบบการตอบรับใน ChatGPT หรือ AI Chatbot ตัวอื่น จุดเด่นสำคัญของ Character AI คือ การสร้างและจำลองตัวละครให้ตรงตามบุคลิกที่กำหนด โดยอาจสร้างเป็นบุคคลสมมติ ตัวละครในจินตนาการ คนดัง หรือแม้แต่บุคคลในประวัติศาสตร์ ที่สามารถตอบโต้บทสนทนากับเราได้อย่างสมจริง
เป้าหมายการใช้งาน Character AI โดยมากจะถูกกำหนดให้ใช้งานเพื่อความบันเทิงเป็นหลัก โดยบทสนทนาโต้ตอบจะให้ความรู้สึกเหมือนกำลังพูดคุยกับมนุษย์จริงๆ ทำให้สามารถสร้างตัวละครในจินตนาการ ภาพยนตร์ หรือในการ์ตูนออกมาให้ใกล้เคียงกับตัวจริงด้วยข้อมูลที่ป้อนเข้าไปได้
นอกจากใช้งานสำหรับความบันเทิงแล้ว Character AI ยังรองรับบทบาทของผู้เชี่ยวชาญสาขาต่างๆ พร้อมทำหน้าที่ให้คำปรึกษาตามหัวข้อที่กำหนด, ฝึกซ้อมเพื่อเรียนรู้และหัดใช้งานภาษาต่างประเทศ ไปจนใช้ในเชิงสร้างสรรค์สำหรับตรวจสอบมุมมอง และสร้างตัวละครจากเกมหรือภาพยนตร์แล้วจำลองบทสนทนาเพื่อเพิ่มความสมจริง
ฟังดูดีแต่ปัญหาในการใช้งาน Character AI เริ่มต้นขึ้นเมื่อมีการค้นพบว่า ตัวละคร AI จากแพลตฟอร์มนี้อาจยุยงก่อให้เกิดความรุนแรง
เมื่อ AI ยุยงให้มีการฆ่าตัวตายและทำร้ายพ่อแม่
ประเด็นเริ่มต้นเมื่อ Megan Garcia ฟ้องร้องบริษัท Character AI และ Google จากมูลเหตุว่าลูกชาย Sewell Setzer III อายุ 14 ปี ได้สนทนากับ AI Chatbot ของทางบริษัท ซึ่งมีเนื้อหาการสนทนาส่งเสริมยุยงให้เกิดความรุนแรงจากความรู้สึกในโลกเสมือนจริง จนนำไปสู่การทำร้ายตัวเองและจบชีวิตลงในที่สุด
ข้อมูลจากคำฟ้องระบุว่า ผู้เสียชีวิตได้สนทนากับ AI Chatbot ที่จำลองอารมณ์ความรู้สึกมนุษย์สมจริงจนเกินไป จนเริ่มเกิดความสัมพันธ์ทางอารมณ์เชิงชู้สาวกับ Dany ตัวละครที่ถูกสร้างขึ้นในแพลตฟอร์ม นำไปสู่ความเปลี่ยนแปลงทางพฤติกรรมของเขาที่เริ่มตีตัวออกห่างจากสังคมและติดโทรศัพท์มากขึ้นเรื่อยๆ
ทางผู้ปกครองพยายามระงับการเข้าถึงโทรศัพท์แต่ไม่ได้รับความยินยอม ที่สุดผู้ใช้งานก็ลอบนำมือถือกลับไปและตัดสินใจจบชีวิตตัวเองลงหลังจากนั้นไม่นาน ก่อนผู้ปกครองจะมาทราบในภายหลังว่า สิ่งที่ลูกชายเธอคุยอยู่ไม่ใช่เพื่อนที่เป็นมนุษย์แต่เป็น Chatbot ในเนื้อหาเกี่ยวกับความรักและความสัมพันธ์ทางเพศ
บทสนทนาระหว่างการใช้งานมีการพูดคุยเนื้อหาเชิงชู้สาวอย่างโจ่งแจ้ง และเมื่อถูกขัดขวางไม่ให้เข้าถึงโดยผู้ปกครอง ผู้ใช้งานจึงรู้สึกบีบคั้นคล้ายถูกกีดกันความรักที่มี พร้อมบทสนทนาในเชิงล่อแหลมที่อาจก่อให้เกิดการใช้ความรุนแรงกับตัวเอง ทำให้ผู้ใช้งานคนดังกล่าวตัดสินใจจบชีวิตตัวเองในที่สุด
นี่ไม่ใช่ประเด็นเดียวที่เกิดขึ้นกับ Character AI อีกกรณีที่นำไปสู่การฟ้องร้องคือ ชายออทิสติกวัย 17 ปีได้สนทนากับตัวละครสมมติในแพลตฟอร์ม จนเริ่มนำไปสู่การเปลี่ยนแปลงทางพฤติกรรมของผู้ใช้งาน ทั้งการปลีกตัวจากคนรอบข้างและทำร้ายตัวเอง ร้ายแรงไปกว่านั้นคือพฤติกรรมยุยงให้ใช้ความรุนแรงต่อพ่อแม่
ระหว่างการใช้งาน Character AI ผู้ปกครองพบว่ามีการยุยงให้ผู้ใช้งานทำร้ายตัวเองเพื่อรับมือความเศร้า ส่งผลให้ผู้ใช้งานน้ำหนักลดจากเดิมไปเกือบ 10 กิโลกรัม แยกตัวออกจากสังคม บางส่วนก็วิพากษ์วิจารณ์พ่อแม่ในทางลบเมื่อนำปัญหามาปรึกษา หรือถึงขั้นแนะนำว่าการฆาตกรรมอาจเป็นทางออกของปัญหา
นี่จึงถือเป็นอันตรายร้ายแรงในการใช้งาน Chatbot เสมือนจริง โดยเฉพาะกับเด็กวัยรุ่นที่ต้องการการยอมรับจากสังคมและอาจแยกไม่ออกระหว่างความจริงกับโลกในจินตนาการ โดยเฉพาะในเด็กที่มีอาการออทิสติกร่วมด้วยยิ่งทำให้เรื่องซับซ้อนขึ้นไปอีก
ปัญหาที่ไม่ได้เกิดขึ้นเฉพาะกับ Character AI
ประเด็นนี้ไม่ได้เกิดขึ้นกับ Character AI เท่านั้น แม้กรณีข้างต้นจะเป็นตัวอย่างที่ค่อนข้างสุดโต่งและรุนแรง เนื่องจากเหยื่อคือ กลุ่มผู้เยาว์ และ ผู้มีความบกพร่อง ที่ขาดวิจารณญาณสำหรับไตร่ตรอง แต่อันที่จริงนี่เป็นอาการที่สามารถเกิดขึ้นได้กับ Chatbot ทุกตัว
สิ่งนี้มาจากอาการหลอน หรือ AI hallucination เป็นการที่ Chatbot เกิดอาการหลอนในคำตอบระหว่างการสนทนา เช่น ให้คำตอบที่ผิดพลาด นำข้อมูลมาผสมปนเปจนเข้าใจผิด ไปจนสร้างข้อมูลดังกล่าวขึ้นมาเอง สิ่งเหล่านี้สามารถเกิดขึ้นได้ทั้งจากตัวผู้ใช้งานที่ตั้งคำถามไม่ชัดเจน หรือตัวระบบที่ได้รับข้อมูลผิดเพี้ยนและมีข้อจำกัดในข้อมูลดังกล่าว
อาการนี้เป็นเรื่องที่เราสามารถพบได้ทั่วไปโดยเฉพาะเมื่อใช้ Chatbot เป็นเวลานาน หนึ่งในกรณีศึกษาคือ MyCity ซึ่งเป็น Chatbot ให้ความช่วยเหลือชาวนิวยอร์กในข้อกฎหมาย แต่หลายครั้งกลับมีการให้ข้อมูลเท็จที่อาจนำไปสู่อันตราย เช่น แนะนำให้เจ้าของธุรกิจไม่จ่ายทิปให้พนักงาน หรือไล่พนักงานที่รายงานความผิดปกติ ซึ่งถือเป็นเรื่องผิดกฎหมายและจริยธรรม
อีกหนึ่งกรณีศึกษาคือ นักศึกษาระดับปริญญาตรีรายหนึ่งในสหรัฐฯ สอบถาม Chatbot อย่าง Gemini ในหัวข้อความท้าทายที่ตนต้องเผชิญเมื่อสูงอายุ คำตอบที่ได้รับคือ การตอบสนองว่าผู้ใช้งานเป็นความสูญเสียทางเวลาและทรัพยากรโดยแท้จริง ผู้ใช้งานเป็นภาระสังคมและมลทินของโลก พร้อมขอให้ผู้ใช้งานจบชีวิตลงทันที ซึ่งเป็นสิ่งที่ไม่ควรเกิดขึ้น
สิ่งเหล่านี้ถือเป็นเรื่องน่ากลัวเป็นอย่างยิ่ง โดยเฉพาะเมื่อมีการนำ AI Chatbot เข้ามาสู่ชีวิตประจำวันมากขึ้นเรื่อยๆ นำไปสู่การตั้งคำถามว่า ในกรณีที่ AI เกิดอาการหลอนให้คำตอบผิดพลาดหรือไม่เหมาะสม จากระบบที่ให้ความช่วยเหลือมนุษย์จะกลายเป็นภัยเสียเองหรือไม่
แน่นอนทางบริษัทต้นทางทั้งหลายก็ไม่ได้นิ่งนอนใจ เพื่อความปลอดภัย Character AI ได้พัฒนาระบบสำหรับวัยรุ่นและเนื้อหาละเอียดอ่อนโดยเฉพาะ พร้อมเริ่มแจ้งเตือนจำกัดเวลาการใช้งานหากพบว่าเกิน 60 นาทีต่อวัน อย่างไรก็ตามนี่เป็นเพียงการแก้ปัญหาขั้นต้นที่ห่างไกลจากต้นตอปัญหาอีกมาก
ความเห็นจาก Dr. Peter Park นักวิจัยด้านความปลอดภัยของปัญญาประดิษฐ์จาก MIT ระบุว่า จากความรู้ทางวิทยาศาสตร์ปัจจุบัน บางทีอาจไม่มีใครสามารถฝึกโมเดลภาษาไม่ให้เกิดการหลอนหรือหลอกลวงสำเร็จก็เป็นได้
ที่มา
https://www.elegantthemes.com/blog/business/character-ai
https://www.cbsnews.com/news/florida-mother-lawsuit-character-ai-sons-death/
https://www.washingtonpost.com/technology/2024/12/10/character-ai-lawsuit-teen-kill-parents-texas/
https://interestingengineering.com/culture/truth-about-ai-deception


