posttoday

ลายน้ำ AI ทางแก้ปัญหาภาพและวีดีโอจาก AI ที่ยังไม่ได้ผลนัก

28 สิงหาคม 2568

Deepfake และเนื้อหาจาก AI ทำให้ความน่าเชื่อถือของไฟล์ภาพและเสียงสั่นคลอน หลายบริษัทยักษ์ใหญ่เริ่มสร้างลายน้ำบนผลงาน AI แม้ยังมีข้อจำกัดในการใช้งาน

KEY

POINTS

  • บริษัทเทคโนโลยีชั้นนำอย่าง Google, Microsoft, และ Meta พยายามแก้ปัญหาภาพและวิดีโอปลอมจาก AI ด้วยการฝัง "ลายน้ำ" ที่มองไม่เห็นเพื่อระบุแหล่งที่มา
  • ปัญหาหลักคือแต่ละบริษัทใช้มาตรฐานและเครื่องมือตรวจสอบลายน้ำของตนเอง ทำให้ขาดเอกภาพและเป็นเรื่องยากสำหรับผู้ใช้ทั่วไปในการตรวจสอบ
  • ลายน้ำและข้อมูลระบุตัวตน (metadata) สามารถถูกลบหรือทำให้ตรวจจับไม่ได้ง่ายๆ ผ่านการบีบอัด การแปลงไฟล์ หรือเมื่ออัปโหลดบนบางแพลตฟอร์มโซเชียลมีเดีย
  • แนวทางการแก้ปัญหายังไม่ครอบคลุมถึงโมเดล AI จากประเทศอื่นหรือโมเดลโอเพนซอร์ส ซึ่งอาจไม่ยอมรับมาตรฐานเดียวกัน ทำให้การบังคับใช้ยังไม่มีประสิทธิภาพในวงกว้าง

ความก้าวหน้าของ AI สร้างความสะดวกสบายมากมายแก่ชีวิต แต่เราต่างทราบดีว่ามันก่อให้เกิดปัญหาไม่แพ้กัน เนื้อหาที่สร้างจาก AI ก่อให้เกิดปัญหาในหลายระดับจนสร้างผลกระทบอย่างกว้างขวาง เห็นได้ชัดจากเนื้อหาจากภาพ เสียง และวีดีโอที่ถูกสร้างขึ้นอย่างแนบเนียนสมจริงขึ้นเรื่อยๆ

 

วันนี้ก่อนจะพาไปดูทางแก้ปัญหา คงต้องมาดูกันเสียหน่อยว่าผลกระทบเกิดขึ้นในทางใดบ้าง

 

ลายน้ำ AI ทางแก้ปัญหาภาพและวีดีโอจาก AI ที่ยังไม่ได้ผลนัก

 

ผลกระทบจากเนื้อหาที่มีความสมจริงสูงจาก AI

 

ที่ต้องพูดถึงควบคู่กับ AI เป็นอย่างแรกคือ Deepfake การปลอมแปลงเนื้อหาอย่างสมจริงจนแยกแยะได้ยาก สิ่งนี้สร้างผลกระทบเป็นอย่างต่อหลักฐานบันทึกภาพ เสียง และวีดีโอที่ถูกปลอมแปลง อาจนำไปสู่การใส่ความและเสื่อมเสียต่อบุคคลและองค์กร และจะยิ่งเลวร้ายหากถูกนำไปใช้ในการสร้างความเข้าใจผิดเชิงการเมืองหรือความสัมพันธ์ระหว่างประเทศ

 

อันดับถัดมาคือ ประเด็นด้านลิขสิทธิ์ที่ยังคงมีข้อถกเถียงอย่างกว้างขวาง เนื้อหาต้นฉบับของผู้สร้างที่ถูกนำไปเทรนด้วย AI ก่อให้เกิดความคลุมเครือ ซึ่งอาจนำไปสู่ประเด็นด้านลิขสิทธิ์จากผลงานของผู้สร้าง ที่ยังคงอยู่ในข้อถกเถียงทางกฎหมายเรื่องความเป็นเจ้าของกับบริษัท AI ต่างๆ

 

อีกหนึ่งภาคส่วนที่มักนำไปใช้งานในทางที่ผิดคือ การต้มตุ๋นหลอกลวง อาศัยการปลอมเสียงของผู้ใช้งานจาก AI เป็นคนรู้จักใกล้ชิดในการหลอกให้โอนเงิน หรือใช้รูปและวีดีโอปลอมบนแพลตฟอร์มโซเชียลมีเดีย ที่มักนำไปสู่การต้มตุ๋นนำไปสู่การสูญเสียมูลค่ามหาศาล

 

เหตุการณ์เหล่านี้รวมกับการใช้เนื้อหา AI เป็นกันทั่วไปก่อให้เกิดผลกระทบเป็นวงกว้าง ในระยะยาวเราอาจหมดความเชื่อถือจากเนื้อหาที่ได้พบบนโลกออนไลน์หรือหน้าสื่อโดยสิ้นเชิง หรือร้ายแรงกว่าในกรณีที่เนื้อหาเหล่านี้ถูกปลอมแปลงไปใช้พิจารณาคดีในชั้นศาล จนอาจนำไปสู่ความเชื่อมั่นในสังคมและเทคโนโลยีในระยะยาว

 

นี่เป็นเหตุผลที่หลายบริษัทเริ่มมีการคิดค้นหาทางแก้ไขอย่างการสร้างลายน้ำบนชิ้นงานจาก AI

 

ลายน้ำ AI ทางแก้ปัญหาภาพและวีดีโอจาก AI ที่ยังไม่ได้ผลนัก

 

แนวทางยืนยันชิ้นงานจาก AI ของบริษัทต่างๆ

 

บริษัทไอทีน้อยใหญ่เริ่มปรับตัวนำเสนอโซลูชั่นในการรับมือ Deepfake และเนื้อหาที่สร้างจาก AI กันมากมาย โดยเฉพาะบริษัทเทคโนโลยีผู้พัฒนาโมเดล AI ชื่อดังหลายแห่ง ที่เริ่มผลักดันแนวคิดและลายน้ำของตัวเองลงบนเนื้อหาที่สร้างขึ้นจากโมเดลของบริษัทขึ้นมาเช่นกัน

 

เริ่มจากบริษัทไอทีเจ้าดังอย่าง Google เจ้าของโมเดล Gemini ที่เป็นอีกหนึ่งขาใหญ่วงการ AI ที่เริ่มมีการใช้งาน SynthID หรือลายน้ำลงในเนื้อหาภาพ เสียง และข้อความที่สร้างขึ้นจากโมเดลของบริษัท โดยจะไม่สามารถมองเห็นได้ด้วยตาเปล่าและไม่มีผลกระทบต่อการใช้งาน และตรวจสอบได้ผ่านเครื่องมือเฉพาะของบริษัท

 

Microsoft เองก็ไม่น้อยหน้าพวกเขาใส่ลายน้ำที่มองไม่เห็นด้วยตาเปล่า ลงบนเนื้อหาที่สร้างขึ้นจากผลิตภัณฑ์ของ Microsoft และแพลตฟอร์ม Azure ทุกชิ้น เป็นลายน้ำที่รองรับการบีบอัด ดัดแปลง และแก้ไขระดับสูง พร้อมตรวจสอบผ่านช่องทางออนไลน์ จึงแน่ใจได้ว่าแม้จะถูกนำไปแปลงไฟล์ก็ยังเหลือร่องรอยให้ตรวจสอบ

 

Adobe เองก็เป็นอีกหนึ่งบริษัทที่พัฒนา Content Credentials ที่จะอาศัย metadata มีคุณสมบัติคล้ายการติดฉลาก เพื่อใช้ในการแยกแยะเนื้อหาที่ถูกสร้างขึ้น ไม่ใช่เพียงเนื้อหาที่ถูกสร้างด้วย AI เท่านั้น แต่ยังตามรอยการผ่านเครื่องมือหรือขั้นตอนการแก้ไขที่ผ่านมา พร้อมตามรอยไปถึงผู้ใช้บริการที่ทำการแก้ไขไฟล์นี้ได้เลยทีเดียว

 

อีกหนึ่งบริษัทที่มีความตื่นตัวด้านนี้ไม่แพ้กันคือ Meta ที่จะฝังลายน้ำที่มองไม่เห็นลงไปในงาน ในส่วนรูทของไฟล์เพื่อป้องกันไม่ให้ถูกแก้ไขโดยง่าย นอกจากนี้ตามแพลตฟอร์มของบริษัทอย่าง Facebook และ Instagram จะมีการติดตั้งป้ายว่าเนื้อหานี้ถูกสร้างโดย AI เพื่อเป็นการยืนยันความโปร่งใสของเนื้อหา

 

อย่างไรก็ตามกระบวนการเหล่านี้ยังมีข้อจำกัดจนไม่สามารถใช้งานได้อย่างมีประสิทธิภาพนัก

 

ปัญหาของระบบตรวจจับเนื้อหาในปัจจุบัน

 

ถึงหลายบริษัทจะตื่นตัวเรื่องการพยายามระบุแยกแยะเนื้อหาจาก AI แม้แนวคิดและนวัตกรรมมีความน่าสนใจอยู่บ้าง แต่ในขั้นตอนการใช้งานจริงการตรวจสอบเนื้อหาเป็นไปได้ยาก โดยเฉพาะกับผู้ใช้งานทั่วไปที่อาจไม่สามารถจัดการตรวจสอบเองได้เลย

 

สาเหตุมาจากกลวิธีตรวจสอบปัจจุบัน แนวคิดการใช้ลายน้ำนั้นเรียบง่ายและได้ผล อย่างไรก็ตามแต่ละบริษัทกลับมีการคิดค้นรูปแบบการฝังลายน้ำของตัวเอง รวมถึงเครื่องมือตรวจสอบเฉพาะทางของแต่ละเจ้า เป็นเรื่องยากต่อคนทั่วไปที่จะมานั่งทดสอบหาทีละเจ้าว่า เนื้อหาเหล่านี้ถูกสร้างขึ้นจากโมเดลของบริษัทใด

 

อันดับถัดมาเทคโนโลยี metadata ที่สามารถใส่ข้อมูลแทรกเพื่อให้ตามรอยอย่างละเอียด แม้จะมีประสิทธิภาพแต่ระบบนี้ไม่ได้รองรับในทุกแพลตฟอร์ม บางโซเชียลมีเดียหรือเว็บไซต์อาจตัดรายละเอียดส่วนนี้ออกทันทีที่อัปโหลดสู่เซิร์ฟเวอร์จึงทำให้การตรวจสอบผ่านวิธีนี้ก็ยากเช่นกัน

 

ประเด็นสำคัญของแนวทางการตรวจสอบอยู่ตรงนี้เอง บริษัทไอทีและ AI ทั้งหลายขาดเอกภาพ แม้ Adobe จะเป็นโต้โผจัดตั้งแนวทางการใช้ metadata พร้อมเชิญชวนบริษัทใหญ่อย่าง Tiktok มาเข้าร่วม แต่ก็ยังมีข้อจำกัดการใช้จริงและไม่ได้รับการยอมรับให้ใช้งานในวงกว้าง

 

Metadata สามารถถูกแก้ไขและตัดออกจากเนื้อหาได้ง่าย เนื่องจากทุกแพลตฟอร์มไม่ได้รองรับระบบนี้ หรือแม้แต่ลายน้ำมองไม่เห็นที่ถูกฝังภายในไฟล์ หากผ่านการบีบอัดหรือแปลงไฟล์ก็มีแนวทางแก้ไขหรือทำให้ตรวจจับไม่ได้เช่นกัน ซึ่งนั่นจะยิ่งทำให้การตรวจสอบรายละเอียดซับซ้อนขึ้นไปอีก

 

อันดับสุดท้ายคือ ต่อให้บริษัทไอทีในสหรัฐฯทั้งหมดโน้มน้าวและร่วมมือในการใช้ระบบเดียวกัน ก็ไม่มีอะไรยืนยันว่าเดลจากประเทศอื่น เช่น Qwen หรือ Deepseek จากจีนจะยอมรับแนวทางนี้ ยังไม่รวมกับโมเดลโอเพนซอร์สที่เปิดให้ดาวน์โหลดไปใช้งานและเทรนขึ้นมาเองส่วนบุคคลหรือองค์กรอีกด้วย

 

นั่นทำให้แนวทางแก้ไขรับมือ Deepfake หรือเนื้อหาปลอมจาก AI ยังเป็นเรื่องยากจนปัจจุบัน

 

 

 

อยางไรก็ตามแนวทางการรับมือของแต่ละบริษัทนับเป็นจุดเริ่มต้นที่ดี แสดงให้เห็นถึงความสนใจในการแก้ไขปัญหาและความเสี่ยงที่อาจจะเกิดขึ้น แม้วันนี้จะยังไม่ประสบความสำเร็จ แต่ในอนาคตหากมีความร่วมมือในการพัฒนานวัตกรรมขึ้นมาเป็นการเฉพาะ การระบุเนื้อหาจาก AI ก็ใช่จะเป็นไปไม่ได้เสียทีเดียว

 

 

 

ที่มา

 

https://theconversation.com/googles-synthid-is-the-latest-tool-for-catching-ai-made-content-what-is-ai-watermarking-and-does-it-work-257637

 

https://www.reuters.com/technology/tiktok-label-ai-generated-images-video-openai-elsewhere-2024-05-09/

 

https://cosmosmagazine.com/technology/ai/does-ai-watermarking-work/

 

https://deepmind.google/science/synthid/

 

https://helpx.adobe.com/creative-cloud/help/content-credentials.html

 

ข่าวล่าสุด

ถ่ายทอดสด ซันเดอร์แลนด์ พบ นิวคาสเซิ่ล พรีเมียร์ลีก วันนี้ 14 ธ.ค.68