posttoday

ธปท.คลอดแนวทางคุมสถาบันการเงินใช้งาน AI รับมือความเสี่ยงรอบด้าน

17 กันยายน 2568

ธปท.ออกแนวนโยบายคุมเข้มการใช้ AI ของผู้ให้บริการทางการเงิน มุ่งบริหารความเสี่ยงรอบด้าน ยึดหลัก FEAT รับผิดชอบ โปร่งใส เป็นธรรม

KEY

POINTS

  • ธปท. ออกแนวนโยบายให้สถาบันการเงินใช้เป็นแนวทางในการบริหารจัดการความเสี่ยงจากการใช้งานระบบปัญญาประดิษฐ์ (AI) อย่างรัดกุมและมีความรับผิดชอบ
  • แนวทางดังกล่าวครอบคลุม 2 ส่วนหลัก ได้แก่ ด้านธรรมาภิบาล (Governance) และด้านการพัฒนาและความมั่นคงปลอดภัย (Development and Security)
  • นโยบายนี้มุ่งเน้นการรับมือความเสี่ยง 3 ด้านที่เกิดจาก AI คือ ความเสี่ยงด้านข้อมูล, ความเสี่ยงด้านการพัฒนาโมเดล และความเสี่ยงจากภัยคุกคามทางไซเบอร์

นางสาวดารณี แซ่จู ผู้ช่วยผู้ว่าการ สายกำกับระบบการชำระเงินและคุ้มครองผู้ใช้บริการทางการเงิน ธนาคารแห่งประเทศไทย (ธปท.) เปิดเผยว่า ธปท.นำส่งแนวนโยบายธนาคารแห่งประเทศไทย เรื่อง การบริหารจัดการความเสี่ยงของการใช้งานระบบปัญญาประดิษฐ์ (AI) เพื่อให้ผู้ให้บริการทางการเงินนำไปใช้อ้างอิงเป็นแนวทางในการบริหารจัดการความเสี่ยงของการใช้งานระบบ AI ให้เป็นไปอย่างรัดกุมเหมาะสมตามลักษณะการใช้งาน โดยสอดคล้องกับหลักการใช้งานระบบ AI อย่างรับผิดชอบ

แนวนโยบายฉบับนี้มีสาระสำคัญคือ ธรรมาภิบาลของการนำระบบ AI มาใช้งานครอบคลุมการกำหนดบทบาทหน้าที่และขอบเขตความรับผิดชอบของคณะกรรมการและผู้บริหารระดับสูง นโยบายและกรอบแนวทางการใช้งานและการบริหารจัดการความเสี่ยงของการใช้งานระบบ AI ขององค์กร การบริหารจัดการความเสี่ยงจากการใช้งานระบบ AI รวมไปถึงการพัฒนาและการรักษาความมั่นคง ปลอดภัยของการใช้งานระบบ AI ที่ครอบคลุมการควบคุมความเสี่ยงด้านข้อมูล ด้านการพัฒนาโมเดล และ ด้านภัยคุกคามทางไซเบอร์

เหตุผลและความสำคัญ ธปท. สนับสนุนการนำ AI มาใช้เพื่อเพิ่มประสิทธิภาพและพัฒนานวัตกรรม แต่ก็ตระหนักว่า AI อาจขยายหรือเปลี่ยนแปลงรูปแบบความเสี่ยงได้ หากระบบไม่ให้ผลลัพธ์ที่ถูกต้อง น่าเชื่อถือ โปร่งใส และอธิบายได้ แนวนโยบายนี้จึงเป็นแนวทางเพิ่มเติมจากหลักเกณฑ์เดิม เช่น IT Risk และ Data Governance เพื่อให้ผู้ให้บริการทางการเงินบริหารจัดการความเสี่ยงได้อย่างเหมาะสมและสอดคล้องกับหลักการใช้งาน AI อย่างรับผิดชอบ

ขอบเขตและนิยาม แนวนโยบายนี้ใช้กับสถาบันการเงิน สถาบันการเงินเฉพาะกิจ ผู้ประกอบธุรกิจระบบการชำระเงิน และผู้ประกอบธุรกิจบริการการชำระเงิน โดย "ระบบ AI" หมายถึง ระบบที่เลียนแบบปัญญาของมนุษย์ สามารถเรียนรู้ จดจำ ตัดสินใจ ปฏิบัติงาน หรือสร้างสรรค์เนื้อหาใหม่จากการเรียนรู้ข้อมูลและการสร้างเงื่อนไขอัตโนมัติ ซึ่งไม่รวมถึงระบบอัตโนมัติที่มนุษย์กำหนดขั้นตอน เช่น RPA

ประเภทของความเสี่ยงจากการใช้งาน AI

1. ความเสี่ยงด้านข้อมูล: เกิดจากข้อมูลไม่มีคุณภาพ (ไม่เป็นปัจจุบัน, ไม่ถูกต้อง, ไม่หลากหลาย) ทำให้ผลลัพธ์ไม่น่าเชื่อถือ หรือข้อมูลสำคัญรั่วไหลจากการรักษาความปลอดภัยไม่รัดกุม

2. ความเสี่ยงด้านการพัฒนาโมเดล: โมเดลอาจไม่สามารถอธิบายที่มาของผลลัพธ์ (explainability) หรือสร้างผลลัพธ์ที่ไม่น่าเชื่อถือ เชิงลบ โน้มเอียง ซึ่งกระทบต่อการดำเนินธุรกิจและการบริการลูกค้า

3. ความเสี่ยงด้านภัยคุกคามทางไซเบอร์: การโจมตีไซเบอร์ที่เจาะจงกับ AI เช่น Prompt injection, Model inversion, Data poisoning และ Adversarial attack ที่อาจทำให้ระบบทำงานผิดพลาดหรือลดประสิทธิภาพ

หลักการบริหารจัดการความเสี่ยง AI 

ผู้ให้บริการทางการเงินควรบริหารจัดการความเสี่ยงของการใช้งานระบบ AI ให้เหมาะสมกับลักษณะการใช้งาน โดยสอดคล้องกับหลักการ ดังนี้

(1) ผู้ให้บริการทางการเงินมีความรับผิดชอบต่อการทางานของระบบ AI รวมถึงการตัดสินใจที่อ้างอิงจากผลลัพธ์ของระบบ AI

(2) ผู้ให้บริการทางการเงินมีการกากับดูแลการใช้งานระบบ AI ให้เป็นไปตามหลักการใช้งานระบบ AI อย่างรับผิดชอบ (responsible AI) ที่ได้รับการยอมรับโดยทั่วไป เช่น หลักการใช้งานระบบ AI ที่มีความเป็นธรรม (fairness) มีจริยธรรม (ethics) มีความรับผิดชอบ (accountability) และมีความโปร่งใส (transparency) (หลักการ FEAT)

(3) ผู้ให้บริการทางการเงินมีการบริหารจัดการความเสี่ยงของระบบ AI ครอบคลุมกระบวนการพัฒนาและการใช้งานระบบ AI (AI lifecycle) อย่างรัดกุมเหมาะสม และระบบ AI มีความมั่นคงปลอดภัย ถูกต้อง และเชื่อถือได้ โดยสามารถควบคุมความเสี่ยงและอธิบายที่มาของผลลัพธ์จากระบบ AI ได้

(4) ผู้ให้บริการทางการเงินมีแนวทางการดูแลและคุ้มครองลูกค้าที่โปร่งใสและเป็นธรรม

แนวทางบริหารจัดการความเสี่ยงของการใช้งานระบบ AI

ส่วนที่ 1: ธรรมาภิบาลของการนำระบบ AI มาใช้งาน (governance) ผู้ให้บริการทางการเงินต้องกำหนดความรับผิดชอบในการใช้งาน AI อย่างชัดเจน และมีการกำกับดูแลตามหลัก responsible AI เช่น FEAT รวมถึงมีกรอบบริหารจัดการความเสี่ยงที่รัดกุม โดยมีประเด็นสำคัญดังนี้

  • การกำหนดบทบาทหน้าที่และความรับผิดชอบ ของคณะกรรมการและผู้บริหารระดับสูงอย่างชัดเจน รวมถึงการดูแลให้มีนโยบายการใช้งาน AI และการกำกับดูแลความเสี่ยงตามหลัก three lines of defence
  • การพัฒนาความรู้และทักษะของบุคลากร เพื่อให้ใช้งาน AI ได้อย่างรัดกุมและปลอดภัย
  • การกำหนดนโยบายและกรอบแนวทางการใช้งานและการบริหารจัดการความเสี่ยงขององค์กร ที่ชัดเจน สอดคล้องกับหลัก responsible AI และมีการทบทวนสม่ำเสมอ
  • การบริหารจัดการความเสี่ยงจากการใช้งาน AI โดยระบุ ประเมิน และติดตามความเสี่ยงต่อเนื่อง กำหนด risk appetite ที่ชัดเจน และพิจารณาให้มนุษย์มีส่วนร่วมในการตัดสินใจ (human in the loop) หรือกำกับดูแล (human over the loop) โดยเฉพาะงานหลักที่มีผลกระทบโดยตรงต่อลูกค้า
  • การแจ้งลูกค้าเกี่ยวกับการใช้ AI ในการสนทนาหรือสื่อสาร และเสนอทางเลือกในการติดต่อเจ้าหน้าที่หากลูกค้าไม่ประสงค์จะสื่อสารกับ AI

ส่วนที่ 2: การพัฒนาและการรักษาความมั่นคงปลอดภัยของการใช้งานระบบ AI (development and security) ผู้ให้บริการทางการเงินต้องมีแนวทางควบคุมความเสี่ยงด้านข้อมูลที่ AI ใช้เรียนรู้ ด้านการพัฒนาโมเดล และด้านภัยคุกคามทางไซเบอร์ เพื่อให้การใช้งาน AI ถูกต้อง เชื่อถือได้ โปร่งใส และมั่นคงปลอดภัย ซึ่งรวมถึง

  • การควบคุมความเสี่ยงด้านข้อมูล: มีแนวทางควบคุมและประเมินคุณภาพข้อมูล จัดให้มีขั้นตอนการตรวจสอบข้อมูล และมีแนวทางป้องกันข้อมูลรั่วไหล เช่น การจำกัดการเข้าถึง (access control), การปกปิดข้อมูล (data masking), และการจัดทำขอบเขตข้อมูล (data boundary) สำหรับ Generative AI ของบุคคลภายนอก
  • การควบคุมความเสี่ยงด้านการพัฒนาโมเดล: มีเกณฑ์ควบคุมและประเมินประสิทธิภาพของโมเดลอย่างต่อเนื่อง ใช้เทคนิคเพื่อลดความเสี่ยงจากการให้ข้อมูลเท็จ (hallucination) ใน Generative AI เช่น Retrieval-augmented generation (RAG) และมีแนวทางที่ทำให้ผู้เกี่ยวข้องสามารถเข้าใจและอธิบายผลลัพธ์ของ AI ได้
  • การควบคุมความเสี่ยงด้านภัยคุกคามทางไซเบอร์: จัดการป้องกันไม่ให้ AI แสดงข้อมูลสำคัญที่ไม่พึงเปิดเผยด้วยการคัดกรองเนื้อหา (content filtering) ทั้ง input และ output จัดการทดสอบรูปแบบการโจมตีต่างๆ อย่างต่อเนื่อง และติดตามประเมินภัยคุกคามใหม่ๆ พร้อมปรับปรุงแนวทางป้องกันให้ทันสมัยตามมาตรฐานสากล

นโยบายนี้เป็นหลักการและแนวทางที่ผู้ให้บริการทางการเงินสามารถนำไปประยุกต์ใช้ได้ ไม่ว่าจะเป็นระบบ AI ที่พัฒนาขึ้นเอง หรือระบบ AI ของบุคคลภายนอก และต้องปฏิบัติตามกฎหมายที่เกี่ยวข้องอย่างเคร่งครัด เช่น กฎหมายคุ้มครองข้อมูลส่วนบุคคลและกฎหมายทรัพย์สินทางปัญญา

ข่าวล่าสุด

'สิงคโปร์'ใช้กฎหมาย สั่งปรับสูงสุด 27 ล้านบาท หากปล่อยโฆษณาลวง-บัญชีปลอม