posttoday

2025 ปีชงวงการไอที ผ่าสาเหตุทำไมปีนี้ “เว็บล่ม” บ่อยจนโลกป่วน

19 พฤศจิกายน 2568

ผ่าวิกฤตไอทีปี 2025 ทำไมระบบเว็บไซต์ ‘ล่ม’ บ่อยและเสียหายหนักกว่าที่เคย พลาดจุดเดียวก็ฉุดเศรษฐกิจพังทั้งกระดานตามกันเป็นโดมิโน

KEY

POINTS

  • วิกฤตเว็บล่มปี 2025 รุนแรงและเกิดบ่อยขึ้น เหตุจากโครงสร้างพื้นฐานระดับโลกที่ผูกขาดอยู่กับยักษ์ใหญ่ไอทีเพียงไม่กี่ราย 
  • การเปลี่ยนจากเซิร์ฟเวอร์บริษัทมาใช้ Cloud Computing สร้างความสะดวกแต่แลกมาด้วยความเปราะบางของระบบ เมื่อเจ้าตลาดล้ม ก็ลากทุกวงการให้พังครืนตามกันไป
  • ธุรกิจยุคใหม่ต้องเลิกฝากความหวังไว้ที่บริษัทเดียว การลงทุนระบบสำรองข้ามค่ายกลายเป็นสิ่งจำเป็น แม้ต้นทุนสูง แต่คุ้มค่ากว่าความเสียหายตอนระบบล่ม

 


 

คำว่า “การใช้ชีวิตแบบออฟไลน์” แทบไม่มีอยู่จริงในพจนานุกรมของคนรุ่นใหม่ อินเทอร์เน็ตกลายเป็นกระดูกสันหลังของระบบนิเวศทางการเงินและการบริโภคระดับโลก เป็นท่อส่งที่เอื้อให้เกิดการสื่อสารและการทำธุรกรรมแบบเรียลไทม์ 

 

แต่เหรียญย่อมมีสองด้าน ความสะดวกสบายต้องแลกมาด้วย “ความเปราะบาง” ของระบบ ที่เมื่อใดก็ตามเครือข่ายอินเทอร์เน็ตสะดุดหยุดลง เว็บล่ม ทั้งกระดานก็พังครืน สร้างความเสียหายทางเศรษฐกิจชนิดประเมินค่าไม่ได้

 

ปี 2025 กลายเป็นปีที่เราเห็นปรากฏการณ์ “ระบบล่ม” หรือ “เว็บล่ม” บ่อยจนน่าใจหาย ความผิดพลาดทางเทคนิคของผู้ให้บริการโครงสร้างพื้นฐานเว็บรายใหญ่ได้ฉุดบริการต่างๆ ให้หยุดชะงัก ส่งผลกระทบต่อผู้ใช้งานนับล้าน

 

ภาพจำลองการเก็บข้อมูลบน Cloud

 

ภาพจำที่ชัดเจนที่สุดคงหนีไม่พ้นเหตุการณ์เมื่อเดือนตุลาคม ที่ Data Center ของเจ้าตลาดอย่าง Amazon (AWS) เกิด “น็อก” ยาวนานถึง 15 ชั่วโมง

 

ผลคือวุ่นวายกันทั้งโลก เด็กร้องระงมเพราะเข้าเกม Roblox ไม่ได้, พนักงานออฟฟิศนั่งตบยุงเพราะ Zoom ใช้งานไม่ได้, ซ้ำร้ายวิศวกรในอินเดียที่เตรียมจะลาพักร้อนช่วงเทศกาลดิวาลี ต้องถูกตามตัวกลับมาแก้ปัญหากันจ้าละหวั่น

 

ยังไม่ทันหายใจทั่วท้อง กลางเดือนพฤศจิกายน Cloudflare ผู้ให้บริการระบบความปลอดภัยเว็บรายใหญ่ก็งานเข้า ส่งผลให้เว็บไซต์และบริการจำนวนมาก "ล่ม" ไปเป็นแถบ

 

ไม่ว่าจะเป็น ChatGPT, ระบบขนส่งในนิวเจอร์ซีย์ หรือแม้แต่แพลตฟอร์ม X (เดิม Twitter) ของอีลอน มัสก์ ก็ไม่รอด

คำถามที่น่าสนใจคือ ทำไมแค่บริษัทเดียวมีปัญหา ถึงลากโลกทั้งใบให้พังตามไปด้วย?

 

คำตอบไม่ได้ซับซ้อน เพราะเป็นผลพวงของวิวัฒนาการอินเทอร์เน็ต และทางลัดในการบริหารต้นทุนของบริษัทเทคโนโลยียักษ์ใหญ่ที่เลือกฝากชีวิตไว้กับบริษัทเดียวและเป็นบริษัทเดิมๆ

 

Amazon Web Services Data Center

 

ย้อนไปยุค 90s หรือต้นปี 2000 บริษัทไหนมีเว็บ ก็ต้องลงทุนซื้อเซิร์ฟเวอร์มาตั้งไว้ในออฟฟิศ (On-premises) ดูแลเอง นักเลงพอ ข้อมูลใครข้อมูลมัน ถ้าพังก็พังแค่บริษัทนั้น ไม่เดือดร้อนชาวบ้าน

 

แต่จุดเปลี่ยนมาถึงเมื่อ Amazon ยักษ์ใหญ่ค้าปลีก เริ่มรู้สึกว่าวิศวกรตัวเองเสียเวลาแก้ปัญหาซ้ำซากเรื่องระบบหลังบ้านมากเกินไป เลยสร้างระบบกลางขึ้นมาใช้เอง

 

แล้วปิ๊งไอเดียว่า "เฮ้ย! เอาอันนี้ไปขายให้คนอื่นเช่าด้วยสิ" จึงกลายเป็นจุดกำเนิดของ  Amazon Web Services (AWS)  ที่เปลี่ยนโลกไอทีไปตลอดกาล

 

แนวคิดนี้ได้รับความนิยมอย่างล้นหลาม จนปัจจุบันบริษัทยักษ์ใหญ่ของโลกแทบทั้งหมดพึ่งพาบริการ Cloud จากสามผู้เล่นหลัก (Hyperscalers) ได้แก่ AWS, Microsoft Azure และ Google Cloud

 

ในทางปฏิบัติ Cloud คือการเอาเซิร์ฟเวอร์นับล้านใน Data Center เครื่องไปกองรวมกันใน “โซน” (Regions) ต่างๆ ซึ่งถ้าโซนไหนที่มีการใช้งานหนาแน่นเกิด “เดี้ยง” ขึ้นมา

 

ผลกระทบเลยไม่ได้กระจายตัว แต่กลายเป็นโดมิโนที่ล้มทับกันเป็นทอดๆ เหมือนเคส AWS ล่มที่เกิดจากบั๊กตัวเดียว แต่ทำเอาบริการอื่นรวนไปทั้งระบบ จนเกิดเป็นสถานการณ์เว็บล่มที่เราพบเจอได้บ่อยในปัจจุบัน

Microsoft Data Center

 

ในตลาดสำคัญอย่างสหราชอาณาจักร AWS และ Microsoft Azure ครองส่วนแบ่งตลาดรวมกันกว่า 70% 

 

ตัวเลขนี้สะท้อนถึงความได้เปรียบของผู้มาก่อน (Early-mover advantage) และอำนาจทางการเงินที่เหนือกว่า

 

แต่การพึ่งพาผู้เล่นเพียงหยิบมือเดียวก็นำมาซึ่งความเสี่ยงเชิงโครงสร้าง เหมือนเราเอาไข่ทั้งหมดไปใส่ในตะกร้าใบเดียว พอตะกร้าหล่น ไข่ก็แตกหมด

 

กลุ่มเจ้าตลาด (Hyperscalers) มักโดนวิจารณ์เรื่องการสร้างเงื่อนไขให้ลูกค้า “ย้ายค่ายยาก” (Vendor Lock-in) เพราะระบบของแต่ละเจ้าไม่เหมือนกัน จะย้ายทีก็เรื่องใหญ่ ค่าใช้จ่ายบานตะไท

 

แถมคนทำงานก็มักจะสอบใบเซอร์ฯ มาเฉพาะค่าย ทำให้ธุรกิจจำยอมต้องใช้เจ้าเดิมต่อไปแม้อยากจะเปลี่ยนใจก็ตาม

 

 

CrowdStrike  ‘จอฟ้ามรณะ’

บทเรียนจาก CrowdStrike  ‘จอฟ้ามรณะ’

 

แม้ผู้ให้บริการ Cloud  รายใหญ่จะขึ้นชื่อเรื่องความเสถียร แต่ความซับซ้อนของระบบไอทีมักมีช่องโหว่ที่เราคาดไม่ถึงเสมอ

 

อย่างกรณี CrowdStrike ที่ไม่ได้เป็นบริษัท Cloud โดยตรง แต่เป็นยักษ์ใหญ่ด้าน Cyber Security ที่ซอฟต์แวร์ของบริษัทฝังอยู่ใน Windows ทั่วโลก 

 

เมื่อเดือนกรกฎาคม 2024 CrowdStrike ดันปล่อยอัปเดตซอฟต์แวร์พลาด ผลคือคอมพิวเตอร์หลายล้านเครื่องทั่วโลกเจอ “จอฟ้ามรณะ” (Blue Screen of Death) พร้อมกันโดยมิได้นัดหมาย

 

เคสนี้ชัดเจนมากว่า ต่อให้ Cloud ไม่ล่ม แต่การที่ระบบเชื่อมโยงกันหมดแบบ Real-time ความผิดพลาดจุดเดียวก็สามารถน็อกคอมพิวเตอร์ทั้งโลกได้ในพริบตา

 

ทางรอดของธุรกิจและคำแนะนำสำหรับชาวเน็ต

 

ในยุคที่ความแน่นอนคือความไม่แน่นอน สิ่งสำคัญที่สุดสำหรับภาคธุรกิจคือ “แผนรับมือวิกฤต” 

 

ผู้บริหารต้องตั้งคำถามล่วงหน้าว่า "ถ้าพรุ่งนี้ระบบล่ม เราจะทำอย่างไร?"

 

การลงทุนเพื่อซื้อระบบสำรอง (Back-up service) ข้าม Region หรือการสร้างระบบสำรองภายในองค์กร (In-house) สำหรับบริการที่สำคัญที่สุด อาจเป็นการลงทุนที่ดูเหมือนสิ้นเปลืองในยามปกติ แต่จะกลายเป็นเกราะคุ้มกันธุรกิจในยามวิกฤต

 

ส่วนสำหรับผู้ใช้งานทั่วไปอย่างเราๆ พูดตรงๆ ว่าทำอะไรไม่ได้มาก  นอกจากนั่งรอให้วิศวกรเขาแก้ปัญหาให้เสร็จ

 

เมื่อไหร่ที่เน็ตล่ม ก็ถือซะว่าเป็นสัญญาณเตือนให้เราเงยหน้าจากจอ วางมือถือ แล้วออกไปสูดอากาศบ้าง

 

พร้อมกับระลึกไว้เสมอว่า เทคโนโลยีที่ดูล้ำสมัยขนาดนี้ จริงๆ แล้วเบื้องหลังมันช่างซับซ้อนและเปราะบางเหลือเกิน... และบางครั้ง มันก็ต้องการเวลาพักฟื้นเช่นกัน

 

ที่มา: Bloomberg

ข่าวล่าสุด

นายกฯอนุทิน - ประธานฉาย บุนนาคร่วมฉลองความสัมพันธ์170ปีอังกฤษ-ไทย