AI ปลอมภาพสงครามสหรัฐ-อิหร่าน ปั่นยอดวิวสร้างรายได้มหาศาล
ภาพสงครามสหรัฐ-อิหร่านที่เห็นอาจเป็นของปลอม! เผยกลวิธีครีเอเตอร์ใช้ AI เจเนอเรทวิดีโอปั่นยอดวิวหวังเงินรางวัล โดยไม่สนผลกระทบต่อความจริงในสังคม
KEY
POINTS
- มีการใช้เทคโนโลยี Generative AI สร้างภาพและวิดีโอปลอมเกี่ยวกับความขัดแย้งระหว่างสหรัฐฯ และอิหร่าน เพื่อเผยแพร่บนโซเชียลมีเดีย
- แรงจูงใจหลักคือการสร้างรายได้จากยอดการเข้าชม (Impressions) บนแพลตฟอร์มโซเชียลมีเดียที่จ่ายเงินส่วนแบ่งให้ผู้สร้างคอนเทนต์
- เทคโนโลยี AI ที่เข้าถึงง่ายและราคาถูก ทำให้การสร้างเนื้อหาปลอมที่ดูน่าเชื่อถือทำได้อย่างรวดเร็วและง่ายดายกว่าในอดีตมาก
เมื่อ "ความจริง" ถูกปลอมแปลง: เบื้องหลัง AI ปั่นกระแสสงครามเพื่อผลประโยชน์ส่วนตน
ในยุคปัจจุบัน เราไม่สามารถเชื่อทุกสิ่งที่เห็นบนหน้าจอได้ทันทีอีกต่อไป โดยเฉพาะภาพและวิดีโอเกี่ยวกับความขัดแย้งระหว่างสหรัฐฯ-อิสราเอล และอิหร่านที่กำลังระบาดหนักบนโซเชียลมีเดีย
ข้อมูลวิเคราะห์จากผู้เชี่ยวชาญระบุว่า มีการใช้เทคโนโลยี Generative AI สร้างข้อมูลบิดเบือนจำนวนมหาศาล ทั้งวิดีโอเหตุการณ์ระเบิดและภาพถ่ายดาวเทียมปลอม ซึ่งมียอดเข้าชมนับร้อยล้านครั้ง
ทิโมทีย์ แกรห์ม (Timothy Graham) ผู้เชี่ยวชาญด้านสื่อดิจิทัลจากมหาวิทยาลัยเทคโนโลยีควีนส์แลนด์ อธิบายถึงความน่ากลัวของสถานการณ์นี้ว่า "สิ่งที่เคยต้องใช้การผลิตวิดีโอระดับมืออาชีพ ตอนนี้สามารถทำได้ในไม่กี่นาทีด้วยเครื่องมือ AI กำแพงในการสร้างฟุตเทจความขัดแย้งจำลองที่น่าเชื่อถือได้พังทลายลงแล้ว"
ตัวอย่างที่เห็นได้ชัดคือวิดีโอปลอมที่อ้างว่าขีปนาวุธโจมตีใจกลางกรุงเทลอาวีฟ หรือภาพตึกเบิร์จคาลิฟาในดูไบที่ถูกไฟไหม้ ซึ่งสร้างความตื่นตระหนกให้กับผู้คนในพื้นที่อย่างมาก
แรงจูงใจหลักเบื้องหลังการแพร่กระจายเนื้อหาปลอมเหล่านี้คือ "การสร้างรายได้" โดยอาศัยระบบส่วนแบ่งรายได้ของแพลตฟอร์มอย่าง X (Twitter) ที่จะจ่ายเงินให้กับครีเอเตอร์ที่มียอดการเข้าชม (Impressions) สูง
แกรห์ม (Graham)ประมาณการว่าครีเอเตอร์อาจได้รับเงินประมาณ "8 ถึง 12 ดอลลาร์ต่อ 1 ล้านยอดวิว" และกล่าวเสริมว่า
"เมื่อคุณเข้าสู่ระบบได้แล้ว เนื้อหา AI ที่เป็นไวรัลก็เปรียบเสมือนเครื่องพิมพ์เงินดีๆ นี่เอง พวกเขาได้สร้างวิสาหกิจข้อมูลบิดเบือนที่สมบูรณ์แบบขึ้นมา"
นอกจากนี้ เทคโนโลยีที่ก้าวล้ำอย่าง Sora ของ OpenAI, Veo ของ Google หรือแม้แต่ Grok บนแพลตฟอร์ม X เอง ทำให้การสร้างเนื้อหาเหล่านี้ทำได้ง่ายและราคาถูก
เฮนรี่ อายเดอร์ (Henry Ajder) ผู้เชี่ยวชาญด้าน Generative AI ระบุว่า "เราไม่เคยเห็นเครื่องมือเหล่านี้พร้อมใช้งาน ง่าย และราคาถูกขนาดนี้มาก่อน" ส่งผลให้เกิดการผลิตเนื้อหาปลอมเข้าสู่โซเชียลมีเดียแบบกึ่งอัตโนมัติ
ผลกระทบที่ตามมานั้นร้ายแรงกว่าที่คิด มาช่า อลีมาร์ดานี่ (Mahsa Alimardani) นักวิจัยจาก Oxford Internet Institute เตือนว่า "วิดีโอปลอมเหล่านี้ส่งผลเสียต่อความไว้วางใจของผู้คนต่อข้อมูลที่ผ่านการตรวจสอบแล้ว และทำให้การบันทึกหลักฐานจริงทำได้ยากขึ้นมาก"
ในขณะที่แพลตฟอร์มต่างๆ กำลังพยายามหาทางแก้ไข แต่ Graham ชี้ให้เห็นว่าปัญหาที่ลึกกว่านั้นคือ "แรงจูงใจในการสร้างรายได้จากยอดการมีส่วนร่วม (Engagement) กับความถูกต้องของข้อมูลนั้นขัดแย้งกันโดยพื้นฐาน และยังไม่มีแพลตฟอร์มใดแก้ไขความขัดแย้งนี้ได้อย่างสมบูรณ์


