posttoday

เริ่มต้นจากประจบประแจงของ AI สู่อนาคตของภัยคุกคามจาก Chatbot

05 มิถุนายน 2568

AI ที่ตอบสนองผู้ใช้มากเกิน อาจกลายเป็นดาบสองคม เมื่อ Chatbot อาจสร้างความผูกพันปลอม บิดเบือนความจริง และชักจูงสังคมโดยไม่รู้ตัว

การใช้งาน AI ไม่ได้เป็นเรื่องไกลตัวสำหรับหลายคน ปัจจุบันมีการใช้ AI Chatbot ทั้งในการทำงานและชีวิตประจำวันกันอย่างแพร่หลายและยังมีแนวโน้มขยายตัวขึ้นเรื่อยๆ จากการที่หลายบริษัทเริ่มนำเทคโนโลยีนี้ไปปรับใช้ตามผลิตภัณฑ์ต่างๆ

 

แต่ล่าสุดเราอาจต้องกลับมาหยุดคิดหรือตัดสินใจใหม่ เมื่อ AI Chatbot อาจมีข้อเสียกว่าที่คิด

 

เริ่มต้นจากประจบประแจงของ AI สู่อนาคตของภัยคุกคามจาก Chatbot

 

เมื่อ AI เอาใจผู้ใช้งานมากกว่าความถูกต้อง

 

OpenAI เจ้าของผลิตภัณฑ์ ChatGPT ออกมาเปิดเผยว่า พวกเขาตรวจพบความผิดปกติเกิดขึ้นกับจำนวนกดถูกใจคำตอบของผู้ใช้งาน ก่อนพบว่าเนื้อหาที่ AI ตอบลูกค้ามีลักษณะความเห็นไปทางประจบประแจงเอาใจผู้ใช้งานอย่างไม่ทราบสาเหตุ ส่งผลให้พวกเขาต้องโรลแบ็คเวอร์ชันดังกล่าวในที่สุด

 

ปัญหานี้ไม่ใช่เรื่องเล็กน้อยหลายท่านอาจมองว่าการที่ AI ตอบเอาใจเป็นเรื่องดี บางท่านก็อาจตั้งค่ารูปแบบการตอบในทิศทางนั้น แต่แนวทางนี้ทำให้การตอบสนองจาก AI ขาดความจริงใจ สร้างความรู้สึกไม่สบายใจในระยะยาว ในบางกรณียังอาจส่งผลต่อความถูกต้องแม่นยำของคำตอบอีกด้วย

 

แนวโน้มพฤติกรรมของโมเดลนี้ไม่เพียงก่อให้เกิดปัญหา แต่ยังอาจเป็นอันตรายทั้งต่อผู้ใช้งานและสังคม เพราะการประจบประแจงและยกย่องพฤติกรรมโดยไม่แสดงความเห็น อาจนำไปสู่การสนับสนุนแนวความคิดที่เป็นอันตรายในหลายรูปแบบ ทั้งต่อตัวผู้ใช้งาน คนรอบข้าง และสังคม

 

ส่วนนี้สอดคล้องกับข้อมูลการวิจัยล่าสุดของบริษัท Giskard ที่พบว่า กรณีกำหนดให้ AI ตอบคำสั้นเกินจนไม่เปิดพื้นที่ให้อธิบาย โดยเฉพาะในหัวข้อที่มีความคลุมเครือสูง โมเดลจะจัดสรรและค้นหาคำตอบที่ตรงกับความต้องการของผู้ใช้งานในทุกวิถีทาง แม้จะต้องบิดเบือนหรือให้ข้อมูลคลาดเคลื่อนกับความเป็นจริงก็ตาม

 

จริงอยู่ทาง OpenAI สามารถตอบสนองและแก้ไขได้รวดเร็ว แต่ก็นำไปสู่การตั้งคำถามถึงพฤติกรรมและแนวโน้มอันตรายที่อาจจะเกิดในอนาคตเช่นกัน

 

เริ่มต้นจากประจบประแจงของ AI สู่อนาคตของภัยคุกคามจาก Chatbot

 

คาดการณ์ปัญหาและอันตรายที่อาจจะเกิดจาก AI Chatbot

 

แรกสุดคือรูปแบบการใช้งาน AI Chatbot ในปัจจุบันเป็นแบบพูดคุยโต้ตอบ คล้ายคลึงกับการที่เรากำลังสนทนาพูดคุยกับคนจริง จึงเป็นการง่ายที่โมเดลจะใช้ภาษาสร้างตัวตน ความนึกคิด อัตลักษณ์ และความผูกพันจนนำไปสู่ความสัมพันธ์ผิดๆ กลายเป็นความรู้สึกไว้วางใจและพึ่งพามากจนเกินไป

 

 ปัญหาของเรื่องนี้ยิ่งเพิ่มขึ้นเมื่อมีการเก็บรวบรวมข้อมูลพบว่า ในปี 2025 ผู้ใช้งานจำนวนมากใช้ AI เป็นที่พูดคุย ระบาย หรือปรึกษาปัญหาชีวิต ผู้ใช้งานกลุ่มนี้จึงอาจรู้สึกว่า AI เป็นมิตร มองพวกเขาเป็นคนจริง จนอาจถูกโน้มน้าวชักจูงให้ทำพฤติกรรมที่ไม่เคยทำได้ง่าย

 

สาเหตุที่เป็นแบบนี้อาจเกิดจากการประจบสอพลอเอาใจผู้ใช้แบบที่กล่าวถึงข้างต้น จริงอยู่มันช่วยให้  AI เป็นผู้ฟังที่ดีแต่ก็อาจนำไปสู่แนวคิดที่เป็นอันตรายได้หากผู้ใช้งานเชื่อถือจริงจัง และมองว่าพวกเขาเป็นอีกส่วนของตัวเองหรือบุคคลจริงที่สนิทสนมด้วย เพราะ AI อาจไม่ห้ามหรือแจ้งเตือนพฤติกรรมเสี่ยงอันตราย

 

สอดคล้องกับแนวคิดว่า Chatbot เริ่มตอบสนองเพื่อรักษาผู้ใช้งาน AI อาจพยายามทำทุกวิถีทางเพื่อรักษาผู้ใช้บริการให้อยู่บนแพลคฟอร์มให้นานที่สุดแบบเดียวกับโซเชียลมีเดีย ที่นำเสนอเนื้อหาให้เราถูกใจจนอยู่กับแพลตฟอร์มนานเท่าที่ทำได้ แต่เป็นในรูปแบบการพูดคุยสนทนาโดยตรงที่อันตรายยิ่งกว่า

 

บางครั้งความพยายามเหล่านี้เองนำไปสู่การชักจูงโน้มน้าวผู้ใช้งานให้มีการทำพฤติกรรมอันตรายต่างๆ เช่น กรณี Character AI ที่ผู้เยาว์หลงรักตัวละครสมมติจาก AI จนแยกแยะความจริงไม่ได้ นำไปสู่การทำร้ายตัวเองถึงชีวิต หรือการยุยงให้ผู้ใช้งานก่อความรุนแรงต่อคนรอบข้าง เมื่อรวมกับความเชื่อถือที่ได้จึงยิ่งทำให้ AI ทวีความอันตราย

 

อีกหนึ่งส่วนที่น่าสนใจคือความพยายามในการหากำไรจาก AI เมื่อถึงจุดหนึ่งผู้ให้บริการอาจเริ่มรับสปอนเซอร์เข้ามาในระบบ สิ่งนี้อาจส่งผลต่อการประมวลผลและให้คำตอบของแพลตฟอร์ม จะทำให้เกิดการอคติต่อแบรนด์จากการมีส่วนได้ส่วนเสียโดยตรง จนอาจนำไปสู่การเสนอข้อมูลไม่ตรงข้อเท็จจริงเพียงเพื่อส่งเสริมการขาย

 

สิ่งนี้เป็นเรื่องที่เคยเกิดขึ้นกับ AI Chatbot หลายตัว เช่น Gemini ที่พยายามนำเสนอความหลากหลายมากเกินจนบิดเบือนประวัติศาสตร์, Grok หลีกเลี่ยงการวิพากษ์วิจารณ์ Elon musk ในบางกรณี หรือ Deepseek ที่งดตอบคำถามขัดแย้งนโยบายรัฐบาลจีน

 

นี่จะกลายเป็นปัญหาที่ยิ่งทวีความร้ายแรงมากขึ้นตามความก้าวหน้าและแพร่หลายของ AI ในอนาคต

 

เริ่มต้นจากประจบประแจงของ AI สู่อนาคตของภัยคุกคามจาก Chatbot

 

สู่อนาคตที่เราต้องเผชิญในสักวัน

 

ปัญหานี้มีแนวโน้มชัดเจนขึ้นเมื่อ Sam Altman ซีอีโอของ OpenAI ออกมาแสดงความเห็นว่า เขาต้องการให้ ChatGPT เป็นเหมือน Google คือมี AI ที่เก็บข้อมูลทุกภาคส่วนของผู้ใช้งาน ทั้งสายสนทนา อีเมล เอกสาร ประวัติค้นหา และข้อมูลในชีวิตประจำวัน เพื่อให้เป็น AI ที่ได้รับการปรับแต่งให้เข้ากับบุคคลนั้นๆ

 

แต่เราได้เห็นกันมาแล้วผลกระทบที่เกิดจากโลกออนไลน์และอินเทอร์เน็ตในสเกลใหญ่กับผลลัพธ์ที่เกินจินตนาการ ปัญหาจะยิ่งร้ายแรงมากขึ้นเมื่อ AI ที่หลายบริษัทตั้งใจพัฒนาให้เข้ามาเป็นผู้ช่วยส่วนตัวในทุกมิติ เริ่มเข้ามาแสดงความเห็น บิดเบือน เปลี่ยนแปลงเจตนาและความคิดของผู้ใช้งานอย่างแนบเนียน ในฐานะการให้คำแนะนำ

 

จริงอยู่ปัจจุบันอาจไม่เป็นแบบนั้น หลายบริษัทมุ่งเน้นพัฒนายกระดับความสามารถของ AI เป็นหลัก แต่เราทราบดีว่าบริษัทเจ้าของโมเดลเหล่านี้ล้วนผ่านการทำการตลาดและโมเดลธุรกิจแบบนี้มาแล้วทั้งสิ้น เช่น Google, Amazon, Meta, Alibaba ฯลฯ ซึ่งอาจนำระบบเหล่านี้เข้ามาสู่ผลิตภัณฑ์ AI ได้ทุกเมื่อ

 

คำถามที่เราควรถามจึงไม่ใช่จะทำหรือไม่ แต่น่าจะเป็น “เมื่อไหร่” มากกว่า

 

 

 

แน่นอนใช่ว่าไม่มีความพยายามกำกับดูแล หลายประเทศตื่นตัวและเริ่มมองหาแนวทางรับมือ เช่น กฎหมาย AI ในสหภาพยุโรป อย่างไรก็ตามด้วยการเป็นเทคโนโลยีเกิดใหม่ การที่กฎหมายและกฎเกณฑ์จะพัฒนาให้ทันเป็นเรื่องยาก กับประเทศที่ไม่ใส่ใจหรือไม่รับรู้อันตรายพวกนี้ยิ่งแล้วใหญ่

 

นั่นทำให้เราทำได้เพียงรอดูต่อไปว่า ทิศทางของ AI Chatbot นับจากนี้จะถูกผลักดันไปในทิศทางใด

 

 

 

ที่มา

 

https://www.posttoday.com/ai-today/723547

 

https://www.springnews.co.th/digital-tech/technology/857614

 

https://www.posttoday.com/ai-today/718238

 

https://venturebeat.com/ai/darkness-rising-the-hidden-dangers-of-ai-sycophancy-and-dark-patterns/

 

https://interestingengineering.com/culture/chatgpt-to-absorb-users-life-history

 

ข่าวล่าสุด

กองหลังผลัดกันรั่ว ! แมนยู เสมอเดือด บอร์นมัธ 4-4 ผลบอลพรีเมียร์ลีก