posttoday

ปวดหัวไปอีกขั้น! เมื่อ AI เริ่มไม่ยอมให้คำตอบตามตรงอีกต่อไป

06 พฤษภาคม 2568

เมื่อ AI เริ่มประจบเอาใจเกินเหตุ ผู้ใช้เริ่มกังวลว่าคำตอบจาก ChatGPT อาจขาดความจริงใจ ส่งผลต่อคุณภาพการใช้งานและความไว้วางใจที่ลดลง

ปัจจุบัน AI เข้ามามีบทบาทในชีวิตและการทำงานมากขึ้นเรื่อยๆ ถึงแบบนั้นก็ยังมีคำเตือนเน้นย้ำอย่างต่อเนื่องว่า เราไม่สามารถไว้ใจ AI ได้เสมอไป เพราะมีโอกาสผิดพลาดจากอาการหลอนได้ง่าย แต่ล่าสุดอาจยิ่งซับซ้อนไปกว่านั้น เมื่อ AI Chatbot เริ่มไม่ตอบคำถามเราตามตรงอีกต่อไป

 

ข้อมูลนี้ส่วนหนึ่งได้รับการยืนยันจาก OpenAI เจ้าของผลิตภัณฑ์ ChatGPT ต้องทำการโรลแบ็ค หรือย้อนกลับการอัปเดตเวอร์ชันของโมเดล GPT-4o ภายหลังได้รับคำร้องเรียนว่า คำตอบของโมเดลมีอัตราการกดถูกจมากเกินไป จากการมีลักษณะคำตอบที่ประจบประแจงเอาใจผู้ใช้งานจนเกินไป

 

สำหรับบางท่านอาจมองว่ามันดูไม่เลวร้าย แต่การโต้ตอบในลักษณะนี้จะทำให้คำตอบที่ได้ขาดความจริงใจ ส่งผลให้ผู้ใช้งานไม่สบายใจ กังวล และไม่มีความสุขในการใช้งาน นอกจากนี้ยังอาจส่งผลต่อคุณภาพคำตอบ หรือการให้คำแนะนำที่ไม่พึ่งประสงค์ซึ่งอาจนำไปสู่อันตรายได้เช่นกัน

 

สิ่งนี้สอดคล้องกับความเห็นของ Kevin Systrom ผู้ร่วมก่อตั้ง Instagram ที่มองว่า การเติบโตของแพลคฟอร์ม AI Chatbot นำไปสู่การแข่งขันอย่างรุนแรง นำไปสู่การให้คำตอบที่ไม่ตรงความต้องกา ทยอยให้ข้อมูลทีละส่วน หรือพยายามสร้างคำถามปิดท้ายการสนทนา เพื่อดึงเวลาผู้ใช้งานในแพลตฟอร์มให้มากและนานขึ้น

 

สาเหตุที่เป็นแบบนั้นเนื่องจากผู้พัฒนา AI หลายส่วนมองว่า จำนวนผู้ใช้งานรวมถึงระยะเวลาที่อยู่ในแพลตฟอร์มเป็นอีกหนึ่งตัวชี้วัดที่อาจนำไปดึงดูดนักลงทุน แต่นั่นเป็นเรื่องผิดที่ผิดทาง เนื่องจากโมเดล AI ควรวัดความสามารภด้วยการให้คำตอบคุณภาพสูงและมีความแม่นยำมากกว่า เป็นการให้ความเห็นสอดคล้องกับการประจบประแจงของโมเดล GPT-4o

 

อย่างไรก็ตามทาง OpenAI เคยให้เหตุผลว่า การชวนคุยและถามรายละเอียดเพิ่มเติม เป็นส่วนสำคัญเพื่อกำหนดรายละเอียดในการมอบคำตอบที่ดีแก่ผู้ใช้งานเช่นกัน

ข่าวล่าสุด

นายกฯ อนุทิน มอบคำขวัญวันเด็ก 2569 “รักชาติไทย ใส่ใจโลก”