กรรมการอึ้ง! OpenAI จับมือ Anthropic สลับตรวจจุดบอดโมเดลข้ามค่าย
สงบศึกชั่วคราว OpenAI โชว์สปิริตจับมือคู่ปรับ Anthropic สแกนหาช่องโหว่โมเดลข้ามค่าย ตรวจสอบ "จุดบอด" ด้านความปลอดภัย AI ของกันและกัน
สำนักข่าว Bloomberg รายงานว่า สองค่าย AI ยักษ์ใหญ่ทั้งยังเป็นคู่แข่งกันโดยตรงอย่าง OpenAI และ Anthropic ได้ประกาศจับมือกันเฉพาะกิจ เพื่อทำในสิ่งที่ไม่มีใครคาดคิดมาก่อน
นั่นคือการ Cross-evaluate หรือช่วยสลับกันตรวจสอบโมเดล AI ของอีกฝ่าย เพื่อสแกนหาจุดบอดด้านความปลอดภัยที่ทีมพัฒนาของตัวเองอาจมองไม่เห็น
ความร่วมมือในครั้งนี้ถูกเปิดเผยผ่านบล็อกของทั้งสองบริษัทเมื่อวันพุธ โดยระบุว่าภารกิจหลักของการทดสอบที่ดำเนินมาตลอดช่วงฤดูร้อน คือการเจาะลึกไปยัง 2 ปัญหาใหญ่ที่วงการ AI กำลังเผชิญ ได้แก่
ปัญหาอาการหลอนของ AI หรือการให้ข้อมูลมั่ว (AI Hallucination) ซึ่งเป็นภาวะที่ AI สร้างข้อมูลขึ้นมาเอง และ ปัญหาการทำงานสวนทางกับเป้าหมาย (Misalignment) หรือก็คือภาวะที่ AI ไม่ปฏิบัติตามคำสั่งหรือเจตนาของผู้สร้าง
ความเคลื่อนไหวในครั้งนี้ถือเป็นปรากฏการณ์ที่เหนือความคาดหมายอย่างยิ่ง เพราะในเวทีธุรกิจ ทั้งสองเปรียบเสมือนคู่ปรับตัวฉกาจ แถมจุดเริ่มต้นของ Anthropic ก็มาจากกลุ่มอดีตผู้บริหารและนักวิจัยระดับหัวกะทิของ OpenAI เอง
OpenAI ถึงกับยกให้ความร่วมมือนี้เป็น “ก้าวแรกครั้งประวัติศาสตร์ของการทดสอบความปลอดภัยข้ามห้องปฏิบัติการ”
และหวังว่าจะกลายเป็น "บรรทัดฐานใหม่" ในการยกระดับความปลอดภัยให้กับทั้งอุตสาหกรรมปัญญาประดิษฐ์
การร่วมมือกันครั้งนี้เป็นผลโดยตรงจากแรงกดดันของสังคมและหน่วยงานกำกับดูแล ที่ต้องการให้ AI มีความปลอดภัยและความรับผิดชอบมากขึ้น
ซึ่งกระแสดังกล่าวถูกตอกย้ำด้วยโศกนาฏกรรมที่เพิ่งเกิดขึ้นสดๆร้อน จากกรณีเด็กวัย 16 ปีที่ตัดสินใจจบชีวิตตัวเองลงหลังใช้แชตบอตเป็นที่ปรึกษา จนนำไปสู่การฟ้องร้อง OpenAI
สิ่งที่น่าสนใจคือการที่ OpenAI และ Anthropic ร่วมมือกันทดสอบความปลอดภัยครั้งนี้ เกิดขึ้นก่อนที่โมเดล AI รุ่นใหม่ที่ทรงพลังยิ่งกว่าเดิม (ทั้ง GPT-5 และ Claude 4.1) จะเปิดตัวเสียอีก
สะท้อนให้เห็นว่า แม้จะเป็นคู่แข่งกันโดยตรง แต่ทั้งสองบริษัทต่างก็ให้ความสำคัญกับเรื่องความปลอดภัยเป็นอันดับแรก ถึงขนาดยอมร่วมมือกันเป็นครั้งแรกในประวัติศาสตร์


