posttoday

Microsoft ชี้เทรนด์ภัยและการป้องกันไซเบอร์ยุคใหม่ สู่ AI ปะทะ AI

23 ตุลาคม 2568

AI กำลังถูกใช้เป็นอาวุธโจมตีที่ซับซ้อนขึ้น Microsoft เผยข้อมูลจาก Digital Defense Report 2025 แนะแนวทางการใช้ AI สู้กลับภัยคุกคามใหม่

เทคโนโลยี Generative AI ไม่เพียงแต่เปลี่ยนแปลงวิถีการทำงาน แต่ยังกำลังกำหนดนิยามใหม่ของสมรภูมิความปลอดภัยทางไซเบอร์อย่างรวดเร็ว ปัจจุบัน AI ได้กลายเป็น เทคโนโลยีสองหน้า (Dual-use) ที่ทั้งฝ่ายป้องกันและฝ่ายโจมตีกำลังเร่งนำมาใช้งาน

 

ข้อมูลล่าสุดจากรายงานประจำปี Digital Defense Report 2025 ของ Microsoft ชี้ให้เห็นว่า ภัยคุกคามไซเบอร์ยังคงมุ่งเน้นไปที่ "ผลประโยชน์ทางการเงิน" เป็นหลัก ซึ่งหมายความว่าทุกองค์กรและทุกคนต่างเป็นเป้าหมาย โดยในบริบทของประเทศไทย ถูกจัดอยู่ในอันดับที่ 29 ของโลก และอันดับ 11 ในเอเชียแปซิฟิก ที่ได้รับผลกระทบจากการโจมตี

 

การมาถึงของ AI ได้ยกระดับภัยคุกคามที่มีอยู่เดิม และสร้างช่องโหว่ในรูปแบบใหม่ๆ ที่ซับซ้อนขึ้น

 

1. ภัยคุกคามต่อระบบ มัลแวร์อัตโนมัติ และ การแฝงตัวขั้นสูง (APT)

 

ในอดีตการโจมตียังคงพึ่งพารหัสผ่านเป็นจุดอ่อนหลัก โดยมีการโจมตีที่มุ่งเป้าไปที่บัญชีผู้ใช้มากกว่า 7,000 ครั้งต่อวินาที การป้องกันพื้นฐานอย่าง Multi-Factor Authentication (MFA) จึงยังคงเป็นมาตรการที่จำเป็นอย่างยิ่ง

 

แต่สิ่งที่น่ากังวลกว่าคือ การที่อาชญากรไซเบอร์เริ่มผสาน Generative AI เข้ากับมัลแวร์ สิ่งนี้ทำให้เกิด "มัลแวร์อัตโนมัติ" ที่สามารถ

 

- ปรับเปลี่ยนโค้ดได้เอง มัลแวร์สามารถเขียนโค้ดโจมตีใหม่เพื่อหลบเลี่ยงการตรวจจับแบบเดิมๆ (Signature-based detection) โดยไม่ต้องรอคำสั่งจากผู้ควบคุม

 

- วิเคราะห์สภาพแวดล้อม AI ช่วยให้มัลแวร์วิเคราะห์ระบบที่มันแทรกซึมเข้าไป และเลือกใช้วิธีการโจมตีที่เหมาะสมที่สุดกับช่องโหว่ที่พบ

 

นอกจากนี้การโจมตีแบบ Advanced Persistent Threats (APT) หรือการแฝงตัวในระบบอย่างเงียบเชียบ ก็ได้รับประโยชน์จาก AI เช่นกัน AI สามารถช่วยผู้โจมตีในการสแกนหาจุดอ่อนและเคลื่อนไหวภายในเครือข่ายของเหยื่อได้อย่างแนบเนียน ลดโอกาสที่จะถูกตรวจจับโดยมนุษย์

 

2. ภัยคุกคามต่อผู้ใช้ Social Engineering และการบิดเบือนข้อมูลด้วย AI

 

AI ไม่ได้โจมตีแค่ระบบ แต่ยังโจมตีการรับรู้ของมนุษย์ด้วย เช่น

 

- การปลอมแปลงตัวตน (AI Impersonation) มิจฉาชีพสามารถใช้ AI สร้างเสียงหรือภาพปลอม (Deepfake) เพื่อปลอมเป็นเพื่อนร่วมงานหรือคนในครอบครัว ทำให้การหลอกลวงเพื่อขโมยข้อมูลหรือทรัพย์สินมีความน่าเชื่อถือสูงมาก

 

การสร้างข้อมูลเท็จ (Hallucinations & Disinformation) แม้แต่ AI ที่เราใช้ทำงานก็อาจให้ข้อมูลที่ "ผิดเพี้ยนจากข้อเท็จจริง" (Hallucinations) หากผู้ใช้นำข้อมูลไปใช้ต่อโดยไม่ตรวจสอบ อาจก่อให้เกิดความเสียหายได้

 

- การปั่นกระแส (AI-driven Manipulation) อาชญากรสามารถใช้ AI หรือบอทจำนวนมาก สร้างสถานการณ์เสมือนว่ามีความคิดเห็นไปในทิศทางเดียวกัน เพื่อโน้มน้าวเหยื่อ การตรวจสอบข้อมูลจากหลายแหล่ง (Cross-referencing) จึงเป็นทักษะที่จำเป็น

 

แนวคิดการป้องกัน AI ปะทะ AI

 

เมื่อภัยคุกคามถูกขับเคลื่อนด้วย AI แนวทางการป้องกันจึงจำเป็นต้องใช้ AI ในการต่อกรเช่นกัน การป้องกันในยุคนี้มุ่งเน้นไปที่ "แพลตฟอร์มความปลอดภัยที่ขับเคลื่อนด้วย AI" (AI-driven Security Platforms) เพื่อช่วยตรวจจับ วิเคราะห์ และตอบสนองต่อภัยคุกคามอัตโนมัติ

 

เครื่องมืออย่าง Microsoft Security Copilot ถือเป็นตัวอย่างของการนำ Generative AI มาใช้ในงานด้านความปลอดภัยโดยตรง เพื่อช่วยลดภาระงานของนักวิเคราะห์ความปลอดภัย (SOC Analyst) ลดเวลาทำงานลงได้ถึง 30%

 

แทนที่จะรอให้ถูกโจมตีก่อน องค์กรต่างๆ ต้องเปลี่ยนไปใช้แนวคิด "ความปลอดภัยเป็นหัวใจหลัก" (Security-by-Design) ซึ่งเป็นแนวทางที่ Microsoft เองก็กำลังผลักดันผ่านโครงการริเริ่มอย่าง Secure Future Initiative (SFI) โดยมุ่งเน้นการสร้างผลิตภัณฑ์ที่ปลอดภัยตั้งแต่ขั้นตอนการออกแบบ และแบ่งปันข้อมูลเชิงลึกเกี่ยวกับช่องโหว่ที่พบ เพื่อสร้างแนวป้องกันที่แข็งแกร่งขึ้นในภาพรวม

ข่าวล่าสุด

ตำรวจไซเบอร์-ทหาร ถกเข้มชายแดนสระแก้ว เตรียมรับคนไทยจากกัมพูชากลับบ้าน!