ยังไม่จบ! EU เริ่มสอบสวน Grok จากประเด็นสร้างภาพอนาจารนับล้าน
สหภาพยุโรปเปิดสอบสวน X ภายใต้กฎหมาย DSA หลัง Grok เปิดช่องสร้างภาพอนาจาร-ลามกเด็ก กระทบสิทธิผู้ใช้ จนหลายประเทศเริ่มแบน
คณะกรรมาธิการแห่งสหภาพยุโรป ได้เริ่มเปิดการสอบสวนต่อ X(Twitter เดิม) อย่างเป็นทางการ ภายใต้กฎหมายบริการดิจิทัล DSA ในประเด็นที่ทางแพลตฟอร์มไม่ปฏิบัติตามแนวทางควบคุมความเสี่ยงที่กำหนด จากการนำ Grok เข้ามาใช้งานแต่อนุญาตให้มีการสร้างเนื้อหาผิดกฎหมายที่ส่งผลกระทบต่อผู้ใช้งาน
นี่เป็นประเด็นสืบเนื่องมาจากการที่ Grok เปิดให้ใช้ AI แก้ไขภาพที่อยู่ในแพลตฟอร์มได้อย่างอิสระ นำไปสู่การสร้างภาพอนาจารหรือโป๊เปลือยของผู้หญิงและเด็กเป็นจำนวนมหาศาล สิ่งนี้นับเป็นการลดทอนศักดิ์ศรีความเป็นมนุษย์ จึงเป็นเรื่องที่ยินยอมไม่ได้และต้องถูกสอบสวนทางกฎหมาย
ข้อมูลจากการวิจัยของ ศูนย์ต่อต้านความเกลียดชังทางดิจิทัล(CCDH) องค์กรไม่แสวงหาผลกำไรระบุยว่า Grok มีอัตราการสร้างภาพเสมือนจริงจำนวนมหาศาล และมีจำนวมากที่ถูกใช้ในเชิงอนาจาร โดยกลุ่มที่ได้รับผลกระทบอย่างชัดเจนมักจะเป็นบรรดาคนดัง แต่ที่ร้ายแรงกว่าคือภาพโป๊เปลือยของเด็กและผู้หญิง
ทางองค์กรระบุว่า ในช่วงเวลาดังกล่าว Grok มีอัตราการผลิตสื่อลามกเป็นจำนวนมหาศาล โดยเป็นภาพลามกเด็กเป็นจำนวนราว 23,000 ภาพ และภาพของผู้หญิงวัยผู้ใหญ่อีกมากมาย โดยคาดว่าจะมีจำนวนภาพอนาจารที่ถูกผลิตขึ้นในช่วงเวลา 11 วันนี้อยู่ราว 3 ล้านภาพเลยทีเดียว
นั่นทำให้ X และ Grok กลายเป็นเป้าโจมตีจากนานาชาติ นอกจากการสอบสวนในสหภาพยุโรปแล้ว หลายประเทศยังเริ่มมีการแบน Grok เช่นกัน ทั้งอินโดนีเซีย มาเลเซีย หรือฟิลิปปินส์ แม้สองประเทศหลังจะเริ่มมีการปลดแบนเมื่อ Grok แก้ไขฟีเจอร์ที่สร้างปัญหา เช่นเดียวกับสหราชอาณาจักรและสหรัฐฯเองก็มีการสอบสวนประเด็นนี้อย่างเข้มข้น
คงต้องรอดูกันต่อไปว่า นอกจากปรับเรื่องเนื้อหาโป๊เปลือย เหตุการณ์นี้จะทำให้ Grok จะถูกปรับแต่งไปในทิศทางใดเพิ่มเติม


