
Deepfake เชิงอนาจาร ภัยคุกคามจาก AI ที่ถูกใช้สร้างสื่อลามก
Deepfake เชิงอนาจารกำลังทวีความรุนแรงจากการที่ใครก็สร้างได้ สู่ภัยคุกคามสิทธิส่วนบุคคลและการล่วงละเมิด โดยเทคโนโลยีและกฎหมายทั่วโลกยังไล่ตามไม่ทัน
KEY
POINTS
- Deepfake เชิงอนาจารคือการใช้เทคโนโลยี AI สร้างสื่อลามกปลอมเพื่อทำลายชื่อเสียง สร้างความเสียหายทางจิตใจ และใช้เป็นเครื่องมือข่มขู่คุกคามเหยื่อ
- เทคโนโลยี AI ที่เข้าถึงง่ายขึ้นทำให้ทุกคนสามารถสร้างสื่อลามกปลอมจากภาพถ่ายเพียงใบเดียวได้ เพิ่มความเสี่ยงให้คนทั่วไปตกเป็นเหยื่อได้ง่ายขึ้น
- หลายประเทศเริ่มออกกฎหมายเอาผิดผู้สร้างและเผยแพร่โดยตรง แต่เทคโนโลยีตรวจจับยังตามไม่ทัน และประเทศไทยยังไม่มีกฎหมายที่ครอบคลุมปัญหานี้โดยเฉพาะ
สำหรับผู้ที่ติดตามข่าวสารแวดวงเทคโนโลยี Deepfake ไม่ใช่เรื่องใหม่ มันคือเทคโนโลยีการดัดแปลงสื่อที่ให้ภาพและเสียงสมจริงจนน่าขนลุก จนแทบแยกไม่ออกระหว่าง เรื่องจริง กับ สิ่งปรุงแต่ง แม้จุดเริ่มต้นจะถูกนำไปใช้ในการเผยแพร่ข้อมูลเท็จ หรือการปลอมแปลงตัวตนเพื่ออาชญากรรมทางการเงิน แต่สิ่งที่สร้างบาดแผลเรื้อรังต่อสังคมไม่แพ้กันคือ การนำ Deepfake ไปผลิตสื่อลามกอนาจาร
ภัยคุกคามที่กัดกินตัวตนและชื่อเสียง
ปัญหา Deepfake เชิงอนาจาร ปรากฏขึ้นตั้งแต่ยุคแรกของเทคโนโลยี โดยมักพุ่งเป้าไปที่ดาราหญิงด้วยการตัดต่อใบหน้าใส่ในสื่อลามก ผลกระทบที่ตามมาไม่ใช่แค่ความเข้าใจผิด แต่คือการทำลายชื่อเสียง ความน่าเชื่อถือในวิชาชีพ และสร้างความรู้สึกเหมือนถูกล่วงละเมิดทางเพศจริงๆ
แม้จะเป็นของปลอมแต่เมื่อถูกเผยแพร่สู่สาธารณะ ความเสียหายมักเกิดขึ้นทันที การกู้คืนชื่อเสียงเป็นเรื่องยากหรือแทบเป็นไปไม่ได้ ซ้ำร้ายสื่อเหล่านี้ยังถูกนำมาใช้เป็นเครื่องมือ ข่มขู่คุกคาม (Sextortion) เพื่อบังคับให้เหยื่อกระทำสิ่งที่ไม่สมควร และถึงแม้จะแจ้งลบออกจากแพลตฟอร์ม แต่เราไม่อาจแน่ใจได้เลยว่าข้อมูลที่กลายเป็นสาธารณะไปแล้วจะถูกกำจัดหมดสิ้น หรือจะวนกลับมาทำร้ายเราอีกเมื่อไหร่
จุดเปลี่ยนเทคโนโลยี: จาก "ผู้เชี่ยวชาญ" สู่ "ใครก็ทำได้"
เดิมทีการทำ Deepfake มีความซับซ้อน วุ่นวาย และต้องอาศัยผู้เชี่ยวชาญเฉพาะทาง ปัญหาจึงอยู่ในวงจำกัด แต่จุดเปลี่ยนสำคัญคือการมาถึงของโมเดลภาษาขนาดใหญ่ (LLM) และ Generative AI ที่ทลายกำแพงทางเทคนิคลง
ปัจจุบันเราสามารถสั่งการให้ AI ทำงานซับซ้อนได้โดยไม่ต้องมีความชำนาญ แม้แต่เด็กและเยาวชนก็เข้าถึงได้ ที่น่ากลัวที่สุดคือ AI ยุคใหม่ ต้องการเพียงรูปถ่ายใบเดียวก็สามารถสร้างวิดีโอลามกได้ทันที เพิ่มความเสี่ยงต่อการฉ้อโกงและอาชญากรรมไซเบอร์ที่ทวีความรุนแรงขึ้น
สงครามเทคโนโลยี การไล่จับที่ยังมีข้อจำกัด
เมื่อภัยคุกคามขยายตัว ทีมวิจัยและบริษัทเทคโนโลยีต่างเร่งพัฒนาเครื่องมือตรวจสอบ ซึ่งแบ่งเป็นแนวทางหลักๆ ดังนี้
1.การฝังลายน้ำและ Metadata บริษัทผู้พัฒนา AI พยายามฝังลายน้ำ (Watermark) โค้ด หรือเมตาดาต้าเฉพาะ เพื่อใช้ตรวจสอบที่มาและป้องกันการแอบอ้าง
2.การตรวจจับสัญญาณชีวภาพ วิเคราะห์ความผิดปกติที่ AI ยังเลียนแบบมนุษย์ได้ไม่สมบูรณ์ 100% เช่น การกะพริบตา, จังหวะการเว้นวรรคตอนพูด, อัตราการเต้นของหัวใจ, สีผิว หรือแม้แต่การไหลเวียนของเลือดในวิดีโอ
3.การวิเคราะห์เชิงระบบ (Code & Pixel) ตรวจสอบร่องรอยการตัดแปะ (Artifacts), ความผิดปกติของแสงเงา หรือรายละเอียดในเม็ดพิกเซลที่ตามองไม่เห็น
แม้กระบวนการเหล่านี้จะมีความแม่นยำสูงกว่า 90% แต่ก็ต้องแลกมาด้วยเวลาและความเชี่ยวชาญ ซึ่งยากสำหรับคนทั่วไป อีกทั้งฝั่งผู้สร้าง Deepfake ก็มีการพัฒนาเทคนิคการปลอมปนข้อมูล หรือหาข้อมูลอื่นมาทับลายน้ำเพื่อหลบเลี่ยงการตรวจสอบเช่นกัน ทำให้เทคโนโลยีป้องกันยังตกเป็นรอง
กฎหมายทั่วโลก การขยับตัวเพื่อโต้กลับ
เมื่อเทคโนโลยีป้องกันได้ไม่เต็มร้อย "กฎหมาย" จึงกลายเป็นเครื่องมือสำคัญในการแก้ปัญหา โดยแต่ละประเทศมีบริบทการรับมือที่น่าสนใจดังนี้
- เกาหลีใต้ (South Korea) ประเทศที่ได้รับผลกระทบหนักจากกลุ่มลับใน Telegram (ที่มีสมาชิกกว่า 220,000 ราย) โดยเหยื่อส่วนใหญ่เป็นสตรีและเยาวชน นำไปสู่การแก้กฎหมายเพิ่มโทษผู้ผลิตและเผยแพร่ จำคุกสูงสุด 7 ปี ปรับสูงสุด 50 ล้านวอน รวมถึงเอาผิดผู้ครอบครองและรับชมทั้งทางแพ่งและอาญา
- สหราชอาณาจักร (UK) ประสบปัญหา Cyberbullying ในโรงเรียน จึงผ่านกฎหมาย Online Safety Act ระบุให้การ "สร้าง" รูปอนาจารเป็นความผิดทางอาญาแม้ยังไม่เผยแพร่ และบังคับให้แพลตฟอร์มต้องลบเนื้อหาทันทีที่ได้รับแจ้ง
- สหรัฐอเมริกา (USA) เน้นแก้ปัญหาการทำให้เสื่อมเสียและข่มขู่ โดยเฉพาะในกลุ่ม เด็กและเยาวชนชาย ล่าสุดมีการผ่านกฎหมาย Take It Down Act บังคับให้ลบเนื้อหาภายใน 48 ชั่วโมง แต่การฟ้องร้องผู้ผลิตยังจำกัดอยู่แค่กฎหมายระดับมลรัฐ
- เดนมาร์ก (Denmark) ใช้วิธีการที่น่าสนใจโดยปรับปรุงกฎหมายลิขสิทธิ์ ให้ครอบคลุมถึง สิทธิในใบหน้า ร่างกาย และเสียง ถือเป็นสิทธิส่วนบุคคล หากถูกนำไปใช้ไม่เหมาะสม สามารถขอให้ลบและฟ้องร้องได้
- ประเทศไทย ยังไม่มีกฎหมายบัญญัติคำว่า Deepfake โดยตรง ต้องอาศัยการเทียบเคียงจาก พ.ร.บ. คอมพิวเตอร์ฯ หรือกฎหมายหมิ่นประมาท ซึ่งยังไม่มีกฎหมายคุ้มครองผู้ได้รับผลกระทบโดยตรง
แม้ดูเหมือนว่าทั้งกฎหมายและเทคโนโลยีจะยังไล่ตามผู้สร้าง Deepfake เชิงอนาจารไม่ทัน แต่สิ่งสำคัญที่สุดในตอนนี้คือการสร้างความเข้าใจให้สังคมและบอกกับเหยื่อว่า "เขาไม่ใช่คนผิด" นี่ไม่ใช่เรื่องน่าอับอาย แต่คือการถูกละเมิดสิทธิและเป็นเหยื่ออาชญากรรม การสร้างเกราะป้องกันทางความคิดนี้ อาจเป็นวิธีรับมือเบื้องต้นที่มีประสิทธิภาพที่สุด ในระหว่างที่เรารอดูว่ามาตรการของแต่ละประเทศจะสัมฤทธิ์ผลเพียงใด
ที่มา
https://www.posttoday.com/ai-today/727337
https://www.posttoday.com/ai-today/729475
https://www.thaipbs.or.th/news/content/345076
https://www.posttoday.com/ai-today/726792
https://www.posttoday.com/ai-today/724317
https://www.posttoday.com/smart-life/717827







