มีปัญหามากก็ไม่คุย! Claude ยุติบทสนทนาได้เองโดยอัตโนมัติ
Anthropic อัปเดต Claude Opus 4 และ 4.1 ให้ยุติสนทนาอันตรายหรือรุนแรงได้เอง ใช้เป็นมาตรการสุดท้าย แม้ช่วยป้องกันแต่อาจกลายเป็นการจำกัดเสรีภาพ
Anthropic ประกาศอัปเดตฟีเจอร์ใหม่ให้แก่ Claude Opus 4 และ 4.1 ที่เป็นโมเดลเรือธงของบริษัท ให้สามารถตัดสินใจยุติบทบทสนทนาที่ล่อแหลม เป็นอันตราย หรือมีความรุนแรงได้ เพื่อใช้ระงับบทสนทนาหรือพฤติกรรมเสี่ยงของผู้ใช้งานและตัวโมเดลไปพร้อมกัน
เงื่อนไขการทำงานของฟีเจอร์นี้จะทำงานเมื่อหัวข้อสนทนาล่อแหลมมีความเสี่ยงผิดข้อห้ามของระบบ เช่น การร้องขอทางเพศกับบุคคลที่ยังไม่บรรลุนิติภาวะ ขอข้อมูลที่มีความรุนแรงสูง หรือเนื้อหาเกี่ยวกับการก่อเหตุรุนแรงและการก่อการร้ายต่างๆ เพื่อป้องกันไม่ให้มีการสร้างเนื้อหาที่เป็นอันตราย
ขั้นตอนการทำงานของระบบจะเริ่มแสดงความไม่สบายใจต่อความเห็นหรือคำขอของผู้ใช้งาน แจ้งเตือนเพื่อให้มีการปรับเนื้อหาหรือเปลี่ยนหัวข้อสนทนา ในกรณีที่ปฏิเสธหลายครั้งและไม่สามารถเปลี่ยนหัวข้อได้สำเร็จ โมเดลจะทำการยุติบทสนทนาในแชทนั้นด้วยตัวเองและปิดการสนทนานั้นลง แต่ยังสามารถสร้างแชทใหม่ได้ตามปกติ
ทางบริษัทยืนยันว่าฟีเจอร์นี้จะไม่รบกวนการใช้งานทั่วไปแม้แต่น้อย ผู้ใช้งานส่วนใหญ่จะไม่รู้สึกถึงผลกระทบในการใช้งาน และยังสามารถหยิบหัวข้อและเนื้อหาที่มีความละเอียดอ่อนอื่นๆ มาปรึกษาหรือถกเถียงได้ตามเดิม ฟีเจอร์นี้เป็นเพียงมาตรการสุดท้ายที่จะใช้งานเมื่อไม่สามารถควบคุมบทสนทนาได้เท่านั้น
อย่างไรก็ตามการเพิ่มฟีเจอร์นี้เข้ามานำไปสู่ความไม่สบายใจของผู้ใช้งานบางส่วน เพราะนั่นเท่ากับว่าโมเดล AI สามารถปฏิเสธคำสั่งและการทำงานของผู้ใช้ได้ แม้จะได้รับการการันตียว่ามีโอกาสเกิดขึ้นน้อยมาก แต่ก็นำไปสู่การตั้งคำถามว่า อาจขัดขวางการใช้งาน เป็นการจำกัดเสรีภาพทางความคิด และอาจนำไปสู่การปิดกั้นแบบเดียวกับโมเดลของจีน
ปัจจุบันฟีเจอร์นี้ได้รับการอัปเดตให้ใช้งานแล้ว เราคงต้องรอดูต่อไปว่าจะก่อให้เกิดผลกระทบในทิศทางใด


