posttoday

Nightshade อุปกรณ์ใหม่ของศิลปินป้องกัน AI นำภาพไปใช้งาน

25 ธันวาคม 2566

ความก้าวหน้าของ AI นำไปสู่การเกิดข้อถกเถียงโต้แย้งในหลายด้าน โดยเฉพาะในกลุ่มศิลปินที่รู้สึกว่าพวกเขาถูกละเมิดลิขสิทธิ์ จากการที่ภาพของตนถูกนำไปใช้เป็นฐานข้อมูลโดยไม่ได้รับอนุญาต นำไปสู่การคิดค้น Nightshade ระบบป้องกันไม่ให้เอไอนำภาพไปใช้งาน

ความก้าวหน้าของเทคโนโลยี AI หรือ ปัญญาประดิษฐ์ สร้างแนวโน้มความเป็นไปได้ในการพัฒนาอันไร้ขีดจำกัด ความสะดวกสบายในการใช้งานไปจนขีดความสามารถเป็นสิ่งที่ผู้คนต่างยอมรับ แต่ขณะเดียวกันนี่ก็เป็นเทคโนโลยีที่ทำให้เกิดข้อถกเถียงในหลายด้าน

 

          หนึ่งในกลุ่มที่เกิดข้อถกเถียงมากที่สุดคือ กลุ่มศิลปิน โดยเฉพาะเอไอที่สามารถสร้างภาพขึ้นมาได้โดยอาศัยเพียงการป้อนคำสั่งตัวอักษร เสียง หรือแม้แต่เสียงดนตรี แต่ด้วยความคลุมเครือในด้านข้อมูลที่นำไปใช้งานตลอดจนลิขสิทธิ์ ทำให้เกิดกระแสความไม่พอใจจนมีการฟ้องร้องตามกฎหมาย

 

          นำไปสู่การคิดค้นพัฒนาเทคโนโลยีเพื่อใช้ในการรับมือกับการสร้างภาพด้วยปัญญาประดิษฐ์โดยเฉพาะ

 

Nightshade อุปกรณ์ใหม่ของศิลปินป้องกัน AI นำภาพไปใช้งาน

 

Nightshade และ Glaze ระบบป้องกันเอไอนำภาพไปใช้งาน

 

          ผลงานนี้เป็นของทีมวิจัยจาก Massachusetts Institute of Technology(MIT) กับการคิดค้นระบบป้องกันชนิดใหม่ขึ้นมาเพื่อรับมือเอไอ โดยจะทำการเติมส่วนประกอบขนาดเล็กเพื่อทำให้ภาพเกิดการบิดเบือน ป้องกันไม่ให้เอไอนำภาพดังกล่าวไปใช้เทรนหรือเป็นต้นแบบในการผลิตภาพใหม่ต่อไป

 

          เอไอกับศิลปะยังคงเป็นประเด็นร้อนแรงด้วยความคลุมเครือและช่องโหว่ของกฎหมาย ศิลปินจำนวนมากต่างรู้สึกว่าตัวเองถูกเอาเปรียบ เมื่อผลงานพวกเขาถูกใช้เป็นฐานข้อมูลสร้างภาพขึ้นมาใหม่ นำไปสู่การฟ้องร้องในข้อหาละเมิดลิขสิทธิ์ต่อเอไอเชิงศิลปะอย่าง DALL-E, Midjourney และ Stable Diffusion

 

          ปัจจุบันการฟ้องร้องยังคงไม่ยุติแม้มีการประกาศว่าภาพจากเอไอไม่มีลิขสิทธิ์เพื่อป้องกันปัญหา แต่ข้อถกเถียงนี้เองนำไปสู่แนวคิดในการพัฒนาแนวทางป้องกัน ไม่ให้บริษัทไอทีนำข้อมูลภาพไปใช้เทรนเอไอตามอำเภอใจ ให้ความเป็นธรรมแก่ศิลปินที่ต้องการรักษาสิทธิจากทรัพย์สินทางปัญญาของตัวเอง

 

          นำไปสู่การคิดค้นพัฒนา Nightshade เพื่อป้องกันไม่ให้เอไอนำภาพไปใช้งานโดยไม่ได้รับอนุญาต โดยจะทำการแก้ไขข้อมูลพิกเซลในภาพบางส่วน การแก้ไขนี้มนุษย์ไม่สามารถมองเห็นหรือรับรู้ได้ด้วยตาเปล่า แต่สำหรับเอไอการแก้ไขนี้จะทำให้ภาพข้อมูลที่ได้รับเกิดการผิดเพี้ยน จนทำให้ได้ภาพที่ไม่ตรงความเป็นจริงในที่สุด

 

          นอกจากนี้พวกเขายังได้พัฒนาระบบป้องกันอีกรูปแบบคือ Glaze ซึ่งมีกลไกการทำงานใกล้เคียงกับ Nightshade ทำการบิดเบือนข้อมูลบางส่วนที่มนุษย์สังเกตได้ยาก เพื่อป้องกันไม่ให้เอไอนำข้อมูลภาพไปใช้เป็นต้นแบบในการลอกเลียนสไตล์ส่วนตัวของศิลปิน ซึ่งเป็นอีกปัญหาที่ได้รับการพูดถึงในปัจจุบัน

 

          เมื่อนำทั้งสองระบบนี้มาประกอบเข้าด้วยกันก็จะกลายเป็นระบบป้องกันภาพจากเอไอโดยสมบูรณ์

 

Nightshade อุปกรณ์ใหม่ของศิลปินป้องกัน AI นำภาพไปใช้งาน

 

แนวทางการบิดเบือนที่อาจทำลายการสร้างภาพของเอไอ

 

          ฟังดูเรียบง่ายเสียจนหลายท่านอาจเริ่มตั้งคำถามว่า เพียงการบิดเบือนรายละเอียดเล็กน้อยในระดับพิกเซล เป็นความเปลี่ยนแปลงในระดับที่มองไม่เห็นด้วยตาเปล่า จะสามารถสร้างปัญหาจนเอไอไม่สามารถนำภาพดังกล่าวไปใช้งานและสร้างผลกระทบขนาดนั้นได้จริงหรือ?

 

          ในส่วนนี้มีการทดสอบด้วยการนำโมเดลล่าสุดของ Stable Diffusion มาใช้งานโดยทำการนำภาพที่ผ่านโปรแกรม Nightshade มาใช้เป็นต้นแบบให้เอไอเรียนรู้ เพื่อตรวจผลลัพธ์ในการป้อนข้อมูลบิดเบือนแก่เอไอแล้วจึงป้อนคำสั่งให้สร้างภาพตามที่กำหนด

 

          ผลปรากฏว่าตั้งแต่การป้อนภาพเป็นจำนวนราว 50 ภาพขึ้นไปภาพก็เริ่มแปลกตาและบิดเบี้ยวออกจากที่ควรเป็น และเมื่อได้รับการป้อนข้อมูลภาพเป็นจำนวน 300 ภาพขึ้นไป ก็ทำให้ภาพที่เอไอสร้างขึ้นแตกต่างจากภาพจริงโดยสิ้นเชิง เช่น ภาพหมากลายเป็นแมว, ภาพรถยนต์กลายเป็นวัว หรือภาพหมวกที่กลายเป็นเค้ก ฯลฯ

 

          ผลกระทบจากการบิดเบือนนี้ไม่ได้เกิดขึ้นเพียงแค่ภาพที่ทำการป้อนเข้าไปเท่านั้น เมื่อมีการเรียกใช้คำที่มีความใกล้เคียงกันก็ยังได้รับผลกระทบตามไปด้วย เช่น ภาพสุนัขที่บิดเบือน ส่งผลกระทบต่อคีย์เวิร์ดหลายคำตั้งแต่ลูกสุนัข, ไซบีเรียนฮัสกี้, หมาป่า ฯลฯ อีกทั้งยังสามารถใช้งานกับศิลปะทุกชนิดตั้งแต่สมจริงไปจนภาพแฟนตาซีต่างๆ

 

          กลไกการทำงานของระบบนี้ถือเป็นการวางยาระบบเอไอที่คิดนำภาพของศิลปินไปใช้โดยไม่ได้รับอนุญาต ช่วยให้ผู้ใช้งานสามารถรักษาสิทธิจากทรัพย์สินทางปัญญาของตัวเอง ลดปัญหาการลอกเลียนลายเส้นอันเป็นเอกลักษณ์ของบรรดาศิลปิน เพิ่มโอกาสที่บริษัทเอไอจะยอมจ่ายค่าลิขสิทธิ์การนำภาพไปใช้งานต่อไปในอนาคต

 

          จริงอยู่ในเชิงผลลัพธ์ระยะยาวการบิดเบือนนี้อาจส่งผลกระทบ จนนำไปสู่การใช้งานในทางที่ผิดหรือสร้างปัญหาร้ายแรงได้แต่โอกาสเป็นไปได้มีน้อย ที่ในการทดสอบสามารถเห็นได้ชัดเนื่องจากจำนวนภาพที่ใช้ในการเทรนมีน้อย ในกรณีจริงเอไอที่มีการใช้งานอาศัยฐานข้อมูลภาพจำนวนมหาศาล ภาพบิดเบือนจำนวนเล็กน้อยจึงแทบไม่น่าก่อให้เกิดความเสียหายได้

 

          นอกจากนี้ปัจจุบัน Nightshade เปิดเป็น Opensource ให้ทุกคนสามารถเข้าถึง ใช้งาน และแก้ไขเพิ่มเติมได้โดยไม่มีค่าใช้จ่าย เปิดโอกาสให้ศิลปินเข้าไปเรียนรู้การใช้งานและหาแนวทางป้องกันผลงานของตัวเองอย่างอิสระ และอาจพัฒนาต่อยอดระบบ Nightshade เป็นของตัวเองได้อีกด้วย

 

          นี่จึงถือเป็นระบบป้องกันที่ช่วยให้บรรดาศิลปินตอบโต้บริษัทเทคโนโลยีได้โดยไม่โดนเอาเปรียบอยู่ฝ่ายเดียว

 

 

 

          จริงอยู่ Nightshade อาจเป็นเจ้าแรกที่เริ่มคิดค้นแนวทางป้องกันให้แก่ศิลปินบนโลกออนไลน์ แต่ความพยายามป้องกันไม่ให้มีการใช้เอไอในทางที่ผิดไม่เพิ่งเกิดขึ้น ก่อนหน้านี้มีการคิดค้น GPTZero ในการพยายามรับมือการเขียนรายงานหรือบทความผ่าน ChatGPT รวมถึง AntiFake ที่ป้องกันการนำเสียงของเราไปใช้ในการเทรนเอไอเช่นกัน

 

          คงต้องรอดูกันต่อไปว่าแนวทางแก้ไขและรับมือเอไออย่างเป็นรูปธรรมจะออกมาในทิศทางใด

 

 

 

 

          ที่มา

 

          https://www.technologyreview.com/2023/10/23/1082189/data-poisoning-artists-fight-generative-ai/

 

          https://www.blognone.com/node/132151

 

          https://www.posttoday.com/international-news/703141