ปวดหัวไปอีกขั้น! เมื่อ AI เริ่มไม่ยอมให้คำตอบตามตรงอีกต่อไป
เมื่อ AI เริ่มประจบเอาใจเกินเหตุ ผู้ใช้เริ่มกังวลว่าคำตอบจาก ChatGPT อาจขาดความจริงใจ ส่งผลต่อคุณภาพการใช้งานและความไว้วางใจที่ลดลง
ปัจจุบัน AI เข้ามามีบทบาทในชีวิตและการทำงานมากขึ้นเรื่อยๆ ถึงแบบนั้นก็ยังมีคำเตือนเน้นย้ำอย่างต่อเนื่องว่า เราไม่สามารถไว้ใจ AI ได้เสมอไป เพราะมีโอกาสผิดพลาดจากอาการหลอนได้ง่าย แต่ล่าสุดอาจยิ่งซับซ้อนไปกว่านั้น เมื่อ AI Chatbot เริ่มไม่ตอบคำถามเราตามตรงอีกต่อไป
ข้อมูลนี้ส่วนหนึ่งได้รับการยืนยันจาก OpenAI เจ้าของผลิตภัณฑ์ ChatGPT ต้องทำการโรลแบ็ค หรือย้อนกลับการอัปเดตเวอร์ชันของโมเดล GPT-4o ภายหลังได้รับคำร้องเรียนว่า คำตอบของโมเดลมีอัตราการกดถูกจมากเกินไป จากการมีลักษณะคำตอบที่ประจบประแจงเอาใจผู้ใช้งานจนเกินไป
สำหรับบางท่านอาจมองว่ามันดูไม่เลวร้าย แต่การโต้ตอบในลักษณะนี้จะทำให้คำตอบที่ได้ขาดความจริงใจ ส่งผลให้ผู้ใช้งานไม่สบายใจ กังวล และไม่มีความสุขในการใช้งาน นอกจากนี้ยังอาจส่งผลต่อคุณภาพคำตอบ หรือการให้คำแนะนำที่ไม่พึ่งประสงค์ซึ่งอาจนำไปสู่อันตรายได้เช่นกัน
สิ่งนี้สอดคล้องกับความเห็นของ Kevin Systrom ผู้ร่วมก่อตั้ง Instagram ที่มองว่า การเติบโตของแพลคฟอร์ม AI Chatbot นำไปสู่การแข่งขันอย่างรุนแรง นำไปสู่การให้คำตอบที่ไม่ตรงความต้องกา ทยอยให้ข้อมูลทีละส่วน หรือพยายามสร้างคำถามปิดท้ายการสนทนา เพื่อดึงเวลาผู้ใช้งานในแพลตฟอร์มให้มากและนานขึ้น
สาเหตุที่เป็นแบบนั้นเนื่องจากผู้พัฒนา AI หลายส่วนมองว่า จำนวนผู้ใช้งานรวมถึงระยะเวลาที่อยู่ในแพลตฟอร์มเป็นอีกหนึ่งตัวชี้วัดที่อาจนำไปดึงดูดนักลงทุน แต่นั่นเป็นเรื่องผิดที่ผิดทาง เนื่องจากโมเดล AI ควรวัดความสามารภด้วยการให้คำตอบคุณภาพสูงและมีความแม่นยำมากกว่า เป็นการให้ความเห็นสอดคล้องกับการประจบประแจงของโมเดล GPT-4o
อย่างไรก็ตามทาง OpenAI เคยให้เหตุผลว่า การชวนคุยและถามรายละเอียดเพิ่มเติม เป็นส่วนสำคัญเพื่อกำหนดรายละเอียดในการมอบคำตอบที่ดีแก่ผู้ใช้งานเช่นกัน


