ผลวิจัยเผย Gemini 3 Flash โมเดลสุดฉลาดที่พอไม่รู้ชอบมั่วคำตอบ
งานวิจัยชี้ Gemini 3 Flash อาจ “หลอน” สูงถึง 91% เมื่อถูกถามนอกขอบเขตความรู้ ตอกย้ำว่าการใช้ AI ยังต้องตรวจสอบข้อมูลซ้ำอย่างรอบคอบเสมอ
ถึง Google จะเปิดตัวโมเดลล่าสุดอย่าง Gemini 3 Flash ได้ไม่นาน แต่ผลการวิจัยจากกลุ่มวิจัย AI อิสระ Artificial Analysis พบว่า เมื่อมีการถามคำถามหรือเนื้อหาที่อยู่นอกขอบเขตความรู้ความเข้าใจ โมเดลจะเกิดอาการหลอนและมีโอกาสให้ข้อมูลที่ไม่สอดคล้องกับข้อเท็จจริงมากถึง 91% เมื่อเจอคำถามนอกเหนือความเข้าใจ
ในที่นี้ไม่ได้หมายความว่า อัตราความผิดพลาดของโมเดล Gemini 3 Flash สูงถึง 91% แต่อย่างใด สื่งที่เกิดขึ้นคือ ในกรณีที่ถามข้อมูลเกี่ยวกับเรื่องที่โมเดลขาดแคลนข้อมูล แทนที่จะตอบว่าไม่ทราบหรือไม่มีข้อมูลเพียงพอ โมเดลจะเลือกแต่งคำตอบที่ดูเหมือนจะถูกต้องขึ้นมารองรับสถานการณ์แทน
ในกรณี่ที่ใช้สอบถามข้อมูลเยื้องต้นหรือเรื่องที่มีฐานข้อมูลอยู่ก่อน Gemini 3 Flash ยังคงเป็นโมเดลประสิทธิภาพสูงที่มีคุณสมบัติในการให้ข้อมูลที่มีความแม่นยำและน่าเชื่อถือสูงสุด ดังนั้นปัญหาจึงไม่ใช่ด้านขีดความสามารถ แต่เป็นการตอบสนองต่อข้อมูลที่ไม่รู้แต่ยังคงฝืนให้คำตอบผิดพลาดแทนที่จะชี้แจงไปตามตรง
อันที่จริงปัญหานี้ไม่ได้เกิดขึ้นแค่กับ Gemini 3 Flash อย่างเดียว ข้อมูลบางแหล่งยังระบุว่า Gemini 3 Pro เองก็สามารถเกิดอาการนี้ในอัตราการหลอนระดับใกล้เคียงกันที่ 88% เป็นอาการที่สามารถพบได้ทั่วไป ด้วยรูปแบบกลไกการฝึกโมเดลให้ทำนายคำตอบที่น่าจะถูกต้อง มากกว่าการชี้แจงข้อเท็จจริงไปตามตรง
นั่นทำให้สิ่งนี้ไม่ได้จำกัดและเกิดขึ้นกับ Gemini เพียงอย่างเดียว แต่สามารถพบได้กับโมเดล AI เจ้าอื่นด้วยเช่นกัน นั่นทำให้เราต้องระมัดระวังการใช้งาน AI และหมั่นตรวจสอบคำตอบที่ได้มาอยู่เสมอ โดยเฉพาะในปัจจุบันที่ AI Chatbot แทรกซึมเข้าไปในทุกผลิตภัณฑ์ยิ่งทำให้เราต้องระมัดระวังการใช้งานข้อมูลมากยิ่งขึ้น


