เริ่มต้นจากประจบประแจงของ AI สู่อนาคตของภัยคุกคามจาก Chatbot
AI ที่ตอบสนองผู้ใช้มากเกิน อาจกลายเป็นดาบสองคม เมื่อ Chatbot อาจสร้างความผูกพันปลอม บิดเบือนความจริง และชักจูงสังคมโดยไม่รู้ตัว
การใช้งาน AI ไม่ได้เป็นเรื่องไกลตัวสำหรับหลายคน ปัจจุบันมีการใช้ AI Chatbot ทั้งในการทำงานและชีวิตประจำวันกันอย่างแพร่หลายและยังมีแนวโน้มขยายตัวขึ้นเรื่อยๆ จากการที่หลายบริษัทเริ่มนำเทคโนโลยีนี้ไปปรับใช้ตามผลิตภัณฑ์ต่างๆ
แต่ล่าสุดเราอาจต้องกลับมาหยุดคิดหรือตัดสินใจใหม่ เมื่อ AI Chatbot อาจมีข้อเสียกว่าที่คิด
เมื่อ AI เอาใจผู้ใช้งานมากกว่าความถูกต้อง
OpenAI เจ้าของผลิตภัณฑ์ ChatGPT ออกมาเปิดเผยว่า พวกเขาตรวจพบความผิดปกติเกิดขึ้นกับจำนวนกดถูกใจคำตอบของผู้ใช้งาน ก่อนพบว่าเนื้อหาที่ AI ตอบลูกค้ามีลักษณะความเห็นไปทางประจบประแจงเอาใจผู้ใช้งานอย่างไม่ทราบสาเหตุ ส่งผลให้พวกเขาต้องโรลแบ็คเวอร์ชันดังกล่าวในที่สุด
ปัญหานี้ไม่ใช่เรื่องเล็กน้อยหลายท่านอาจมองว่าการที่ AI ตอบเอาใจเป็นเรื่องดี บางท่านก็อาจตั้งค่ารูปแบบการตอบในทิศทางนั้น แต่แนวทางนี้ทำให้การตอบสนองจาก AI ขาดความจริงใจ สร้างความรู้สึกไม่สบายใจในระยะยาว ในบางกรณียังอาจส่งผลต่อความถูกต้องแม่นยำของคำตอบอีกด้วย
แนวโน้มพฤติกรรมของโมเดลนี้ไม่เพียงก่อให้เกิดปัญหา แต่ยังอาจเป็นอันตรายทั้งต่อผู้ใช้งานและสังคม เพราะการประจบประแจงและยกย่องพฤติกรรมโดยไม่แสดงความเห็น อาจนำไปสู่การสนับสนุนแนวความคิดที่เป็นอันตรายในหลายรูปแบบ ทั้งต่อตัวผู้ใช้งาน คนรอบข้าง และสังคม
ส่วนนี้สอดคล้องกับข้อมูลการวิจัยล่าสุดของบริษัท Giskard ที่พบว่า กรณีกำหนดให้ AI ตอบคำสั้นเกินจนไม่เปิดพื้นที่ให้อธิบาย โดยเฉพาะในหัวข้อที่มีความคลุมเครือสูง โมเดลจะจัดสรรและค้นหาคำตอบที่ตรงกับความต้องการของผู้ใช้งานในทุกวิถีทาง แม้จะต้องบิดเบือนหรือให้ข้อมูลคลาดเคลื่อนกับความเป็นจริงก็ตาม
จริงอยู่ทาง OpenAI สามารถตอบสนองและแก้ไขได้รวดเร็ว แต่ก็นำไปสู่การตั้งคำถามถึงพฤติกรรมและแนวโน้มอันตรายที่อาจจะเกิดในอนาคตเช่นกัน
คาดการณ์ปัญหาและอันตรายที่อาจจะเกิดจาก AI Chatbot
แรกสุดคือรูปแบบการใช้งาน AI Chatbot ในปัจจุบันเป็นแบบพูดคุยโต้ตอบ คล้ายคลึงกับการที่เรากำลังสนทนาพูดคุยกับคนจริง จึงเป็นการง่ายที่โมเดลจะใช้ภาษาสร้างตัวตน ความนึกคิด อัตลักษณ์ และความผูกพันจนนำไปสู่ความสัมพันธ์ผิดๆ กลายเป็นความรู้สึกไว้วางใจและพึ่งพามากจนเกินไป
ปัญหาของเรื่องนี้ยิ่งเพิ่มขึ้นเมื่อมีการเก็บรวบรวมข้อมูลพบว่า ในปี 2025 ผู้ใช้งานจำนวนมากใช้ AI เป็นที่พูดคุย ระบาย หรือปรึกษาปัญหาชีวิต ผู้ใช้งานกลุ่มนี้จึงอาจรู้สึกว่า AI เป็นมิตร มองพวกเขาเป็นคนจริง จนอาจถูกโน้มน้าวชักจูงให้ทำพฤติกรรมที่ไม่เคยทำได้ง่าย
สาเหตุที่เป็นแบบนี้อาจเกิดจากการประจบสอพลอเอาใจผู้ใช้แบบที่กล่าวถึงข้างต้น จริงอยู่มันช่วยให้ AI เป็นผู้ฟังที่ดีแต่ก็อาจนำไปสู่แนวคิดที่เป็นอันตรายได้หากผู้ใช้งานเชื่อถือจริงจัง และมองว่าพวกเขาเป็นอีกส่วนของตัวเองหรือบุคคลจริงที่สนิทสนมด้วย เพราะ AI อาจไม่ห้ามหรือแจ้งเตือนพฤติกรรมเสี่ยงอันตราย
สอดคล้องกับแนวคิดว่า Chatbot เริ่มตอบสนองเพื่อรักษาผู้ใช้งาน AI อาจพยายามทำทุกวิถีทางเพื่อรักษาผู้ใช้บริการให้อยู่บนแพลคฟอร์มให้นานที่สุดแบบเดียวกับโซเชียลมีเดีย ที่นำเสนอเนื้อหาให้เราถูกใจจนอยู่กับแพลตฟอร์มนานเท่าที่ทำได้ แต่เป็นในรูปแบบการพูดคุยสนทนาโดยตรงที่อันตรายยิ่งกว่า
บางครั้งความพยายามเหล่านี้เองนำไปสู่การชักจูงโน้มน้าวผู้ใช้งานให้มีการทำพฤติกรรมอันตรายต่างๆ เช่น กรณี Character AI ที่ผู้เยาว์หลงรักตัวละครสมมติจาก AI จนแยกแยะความจริงไม่ได้ นำไปสู่การทำร้ายตัวเองถึงชีวิต หรือการยุยงให้ผู้ใช้งานก่อความรุนแรงต่อคนรอบข้าง เมื่อรวมกับความเชื่อถือที่ได้จึงยิ่งทำให้ AI ทวีความอันตราย
อีกหนึ่งส่วนที่น่าสนใจคือความพยายามในการหากำไรจาก AI เมื่อถึงจุดหนึ่งผู้ให้บริการอาจเริ่มรับสปอนเซอร์เข้ามาในระบบ สิ่งนี้อาจส่งผลต่อการประมวลผลและให้คำตอบของแพลตฟอร์ม จะทำให้เกิดการอคติต่อแบรนด์จากการมีส่วนได้ส่วนเสียโดยตรง จนอาจนำไปสู่การเสนอข้อมูลไม่ตรงข้อเท็จจริงเพียงเพื่อส่งเสริมการขาย
สิ่งนี้เป็นเรื่องที่เคยเกิดขึ้นกับ AI Chatbot หลายตัว เช่น Gemini ที่พยายามนำเสนอความหลากหลายมากเกินจนบิดเบือนประวัติศาสตร์, Grok หลีกเลี่ยงการวิพากษ์วิจารณ์ Elon musk ในบางกรณี หรือ Deepseek ที่งดตอบคำถามขัดแย้งนโยบายรัฐบาลจีน
นี่จะกลายเป็นปัญหาที่ยิ่งทวีความร้ายแรงมากขึ้นตามความก้าวหน้าและแพร่หลายของ AI ในอนาคต
สู่อนาคตที่เราต้องเผชิญในสักวัน
ปัญหานี้มีแนวโน้มชัดเจนขึ้นเมื่อ Sam Altman ซีอีโอของ OpenAI ออกมาแสดงความเห็นว่า เขาต้องการให้ ChatGPT เป็นเหมือน Google คือมี AI ที่เก็บข้อมูลทุกภาคส่วนของผู้ใช้งาน ทั้งสายสนทนา อีเมล เอกสาร ประวัติค้นหา และข้อมูลในชีวิตประจำวัน เพื่อให้เป็น AI ที่ได้รับการปรับแต่งให้เข้ากับบุคคลนั้นๆ
แต่เราได้เห็นกันมาแล้วผลกระทบที่เกิดจากโลกออนไลน์และอินเทอร์เน็ตในสเกลใหญ่กับผลลัพธ์ที่เกินจินตนาการ ปัญหาจะยิ่งร้ายแรงมากขึ้นเมื่อ AI ที่หลายบริษัทตั้งใจพัฒนาให้เข้ามาเป็นผู้ช่วยส่วนตัวในทุกมิติ เริ่มเข้ามาแสดงความเห็น บิดเบือน เปลี่ยนแปลงเจตนาและความคิดของผู้ใช้งานอย่างแนบเนียน ในฐานะการให้คำแนะนำ
จริงอยู่ปัจจุบันอาจไม่เป็นแบบนั้น หลายบริษัทมุ่งเน้นพัฒนายกระดับความสามารถของ AI เป็นหลัก แต่เราทราบดีว่าบริษัทเจ้าของโมเดลเหล่านี้ล้วนผ่านการทำการตลาดและโมเดลธุรกิจแบบนี้มาแล้วทั้งสิ้น เช่น Google, Amazon, Meta, Alibaba ฯลฯ ซึ่งอาจนำระบบเหล่านี้เข้ามาสู่ผลิตภัณฑ์ AI ได้ทุกเมื่อ
คำถามที่เราควรถามจึงไม่ใช่จะทำหรือไม่ แต่น่าจะเป็น “เมื่อไหร่” มากกว่า
แน่นอนใช่ว่าไม่มีความพยายามกำกับดูแล หลายประเทศตื่นตัวและเริ่มมองหาแนวทางรับมือ เช่น กฎหมาย AI ในสหภาพยุโรป อย่างไรก็ตามด้วยการเป็นเทคโนโลยีเกิดใหม่ การที่กฎหมายและกฎเกณฑ์จะพัฒนาให้ทันเป็นเรื่องยาก กับประเทศที่ไม่ใส่ใจหรือไม่รับรู้อันตรายพวกนี้ยิ่งแล้วใหญ่
นั่นทำให้เราทำได้เพียงรอดูต่อไปว่า ทิศทางของ AI Chatbot นับจากนี้จะถูกผลักดันไปในทิศทางใด
ที่มา
https://www.posttoday.com/ai-today/723547
https://www.springnews.co.th/digital-tech/technology/857614
https://www.posttoday.com/ai-today/718238
https://venturebeat.com/ai/darkness-rising-the-hidden-dangers-of-ai-sycophancy-and-dark-patterns/
https://interestingengineering.com/culture/chatgpt-to-absorb-users-life-history


