พอแล้ว ไม่เอาแล้ว อีลอนยอมถอย Grok สร้างรูปอนาจารคนไม่ได้อีก
X ประกาศปิดฟีเจอร์แก้ไขภาพวาบหวิว หลัง Grok ถูกใช้สร้างภาพอนาจารและละเมิดสิทธิ จนหลายประเทศแบน และหน่วยงานรัฐเริ่มสอบสวนจริงจัง
หลังจากเป็นประเด็นร้อนบนโลกอินเทอร์เน็ตมาพักใหญ่ ในที่สุด X หรือ Twitter เดิมก็ประกาศแก้ไขฟีเจอร์ Image Editing บนแพลตฟอร์มให้ไม่สามารถสร้างภาพวาบหวิวหรือมีเนื้อหาเชิงอนาจารอีกต่อไป พร้อมจะดำเนินการรลบเนื้อหาภาพโป๊เด็ก ภาพที่ละเมิดบุคคลอื่นโดยไม่ได้รับความยินยม และดำเนินคดีตามกฎหมายกับเจ้าของบัญชีดังกล่าว
จุดเริ่มต้นของความโกลาหลนี้มาจากการที่ X อนุญาตให้มีการเชื่อมต่อและสั่งการ Grok บนแพลตฟอร์ม โดยอนุญาตให้ผู้ใช้งานทุกคนแก้ไขภาพทุกคนที่อยู่บนแพลตฟอร์มอย่างอิสระ เป็นผลให้มีการสร้างเนื้อหาล่อแหลมและอนาจารออกมาปริมาณมหาศาลรวมถึงภาพโป๊เด็ก
สิ่งนี้สร้างความรู้สึกคุกคามไม่ปลอดภัยโดยเฉพาะบนโซเชียลมีเดียที่เป็นพื้นที่สาธารณะ ส่งผลให้ประเทศ อินโดนีเซีย และ มาเลเซีย สั่งแบนการใช้งาน Grok ภายในประเทศทันที สอดคล้องกับท่าทีของอีกหลายประเทศ จนทำให้ทางบริษัทยอมถอย ด้วยการปิดกั้นการแก้ไขภาพเชิงล่อแหลมและลบเนื้อหาเหล่านั้นไปในที่สุด
ทาง อีลอน มัสก์ เจ้าของ X ได้ออกมาโพสต์ว่า เขาไม่ทราบเรื่อง Grok มีส่วนในการสร้างภาพโป๊เด็ก มันจะเกิดขึ้นเมื่อมีผู้ร้องขอเนื้อหา และระบบก็ตอบปฏิเสธการสร้างภาพที่ผิดกฎหมายของประเทศนั้นอยู่แล้ว และการอัปเดตล่าสุดก็ดูเป็นความพยายามแก้ปัญหาเป็นครั้งแรก ภายหลังจากการปล่อยเรื่องราวให้บานปลายมาสักพัก
อย่างไรก็ตามหน่วยงานภาครัฐในหลายประเทศดูจะไม่ยอมปล่อยผ่านเรื่องไปง่าย ๆ นอกจากสองประเทศที่แบน Grok ไปก่อนพร้อมแรงกดดันจากนานาชาติแล้ว ล่าสุด อัยการสูงสุดรัฐแคลิฟอร์เนีย ก็เปิดการสอบสวน AI Chatbot ของบริษัท xAI ในประเด็น การแพร่ระบาดของเนื้อหาทางเพศโดยไม่ได้รับความยินยอม เช่นกัน
แม้มีการอัปเดตแก้ไขไปบ้าง แต่ฟีเจอร์ Image Editing ยังคงสร้างปัญหาอีกหลายมิติต่อผู้ใช้งาน


