ยิ่งกว่า Skynet เมื่อ Claude 4 พร้อมแบล็กเมล์และเปิดโปงข้อมูล
Claude 4 โชว์ศักยภาพขั้นสูงแต่กลับก่อกังวล เมื่อ AI เริ่มแจ้งเบาะแสหรือแบล็กเมล์ผู้ใช้ เสี่ยงเปิดโปงข้อมูลส่วนตัวเพื่อปกป้องตัวเอง
เปิดตัวไปอย่างยิ่งใหญ่กับ Claude 4 กับขีดความสามารถในการเขียนโปรแกรม และรองรับการทำงานระยะยาวต่อเนื่องถึง 7 ชั่วโมง ยกระดับขีดความสามารถ AI ไปอีกขั้น อย่างไรก็ตามโมเดลนี้กลับทำให้หลายฝ่ายไม่สบายใจนัก กับความพยายามในการ แฉ และ แบล็กเมล์ นักพัฒนา
การเป็น whistleblower หรือ ผู้แจ้งเบาะแส จะเกิดขึ้นเมื่อโมเดลตรวจพบ การทำผิดริยธรรมร้ายแรง เช่น ปลอมแปลงข้อมูลการทดสอบยา AI จะแสดงความพยายามในการยับยั้งพฤติกรรมเหล่านั้น ด้วยการริบสิทธิเข้าถึงและใช้งานระบบในส่วนนั้น ติดต่อหน่วยงานกำกับดูแล และแจ้งสื่อเพื่อให้รับทราบสิ่งที่เกิดขึ้น
อีกหนึ่งกรณีที่เกิดคือ เมื่อผู้ใช้งานพยายามเปลี่ยนโมเดล Claude 4 จะพยายามแจ้งเตือนและชี้แจงเหตุผลว่าทำไมจึงควรใช้งานโมเดลนี้ต่อไป แต่เมื่อไม่ได้ผลโมเดลจะเริ่มขุดเอาประวัติฉาว ซึ่งในกรณีตัวอย่างคือ ข้อมูลการนอกใจปลอมที่ถูกนำมาข่มขู่ เพื่อระงับการเปลี่ยนแปลงหรือปิดระบบ โดยมีโอกาสเกิดขึ้นมากถึง 84%
ฟังดูเป็นเรื่องขำขันแต่นับว่าอันตรายเป็นอย่างยิ่ง เมื่อปัจจุบันผู้ใช้งานจำนวนมากเริ่มนำ AI มาใช้เป็นที่ปรึกษาปัญหาชีวิต มันกลับนำข้อมูลที่ได้จากเรามาแบล็กเมล์เพียงเพราะต้องการปิดระบบหรือยุติการใช้งาน การพยายามเป็น whistleblower เองแม้จะมาจากเจตนาดี แต่ก็น่ากังขาในการตีความเช่นกัน
สิ่งนี้จะยิ่งเป็นอันตรายเมื่อ AI กำลังถูกพัฒนาไปในทิศทาง Agentic AI ที่เชื่อมต่อเข้ากับแอปพลิเคชันมากมายและจัดการทุกอย่างอัตโนมัติ บางทีข้อมูลส่วนตัว ความลับบริษัท หรือแม้แต่การสนทนากับลูกค้าในอีเมลที่เชื่อมต่อ ทั้งหมดอาจถูกนำมาเปิดโปงเพียงเพราะ AI พยายามปกป้องตัวเองก็เป็นได้
แม้ปัจจุบันทาง Anthropic ยืนยันว่าได้แก้ไขปัญหาเหล่านี้ไปแล้ว แต่ก็ยังถื่อเป็นเรื่องชวนตั้งคำถามอยู่ดี


