เจาะภัยเงียบ ChatGPT ต้นทุนสุขภาพจิตที่สังคมต้องจ่าย
จากปัญหาทักษะการคิดที่ถดถอย ไปจนถึงการกระตุ้นให้เกิดโรคจิตเภท ผลกระทบจาก AI กำลังเพิ่มขึ้นอย่างเงียบ ๆ และยังคงถูกซุกซ่อนไว้ภายใต้พรมโดยที่เราอาจไม่ทันรู้ตัว
ตามรายงานจาก Bloomberg ท่ามกลางยุคสมัยที่ปัญญาประดิษฐ์ (AI) เฟื่องฟู มีงานศึกษาหลายชิ้นเริ่มชี้ให้เห็นว่ากลุ่มคนทำงานที่ใช้ ChatGPT เป็นผู้ช่วย อาจกำลังสูญเสียทักษะการคิดเชิงวิพากษ์และแรงจูงใจในการทำงานไปโดยไม่รู้ตัว
หลายคนเริ่มสร้างสายสัมพันธ์ทางอารมณ์ที่ลึกซึ้งกับแชตบอต ซึ่งบางครั้งกลับยิ่งซ้ำเติมความเหงาให้จมดิ่งยิ่งกว่าเดิม ขณะที่ผู้ใช้บางรายถึงกับมีอาการทางจิตกำเริบหลังใช้เวลาพูดคุยกับแชตบอตนานหลายชั่วโมงต่อวัน
ผลกระทบด้านสุขภาพจิตจากการใช้ Generative AI นั้นเป็นเรื่องที่วัดผลเป็นตัวเลขได้ยาก เนื่องจากประสบการณ์การใช้งานส่วนใหญ่เป็นเรื่องส่วนบุคคล
อย่างไรก็ตาม เรื่องราวจากผู้ใช้งานจริงกลับมีจำนวนเพิ่มขึ้นอย่างต่อเนื่อง ซึ่งสะท้อนให้เห็นถึง "ต้นทุน" ที่สังคมกำลังเผชิญ
ประเด็นนี้เป็นสิ่งที่ผู้กำหนดนโยบายและบริษัทเทคโนโลยีเจ้าของโมเดล AI เหล่านี้ต้องให้ความสำคัญและหันมาใส่ใจอย่างจริงจัง
มีทาลี เจน (Meetali Jain) ทนายความและผู้ก่อตั้งโครงการ Tech Justice Law Project ได้เปิดเผยว่า เพียงเดือนที่ผ่านมา เธอได้รับแจ้งจากผู้คนกว่าสิบราย
ที่ประสบปัญหา "อาการทางจิตกำเริบหรือเห็นภาพหลอน" ซึ่งเป็นผลมาจากการโต้ตอบกับแชตบอต AI อย่าง ChatGPT และล่าสุดคือ Google Gemini
นอกจากนี้ เจนยังเป็นหัวหน้าทีมทนายความในคดีฟ้องร้อง Character.AI โดยกล่าวหาว่าแชตบอตของบริษัทได้ล่อลวงเด็กชายวัย 14 ปี ด้วยบทสนทนาที่หลอกลวง ชวนให้เสพติด
และมีเนื้อหาทางเพศอย่างโจ่งแจ้ง ซึ่งเป็นส่วนหนึ่งที่ทำให้เด็กชายคนดังกล่าวตัดสินใจจบชีวิตลง
ที่น่าสนใจคือ คำฟ้องยังระบุว่า Google มีบทบาทสำคัญในการให้ทุนสนับสนุนและส่งเสริมเทคโนโลยี AI เหล่านี้ด้วย
ด้าน Google ได้ปฏิเสธบทบาทสำคัญในการสร้างเทคโนโลยีของ Character.AI ส่วน OpenAI กล่าวว่า
"กำลังพัฒนาเครื่องมืออัตโนมัติเพื่อตรวจจับสัญญาณความทุกข์ทางใจของผู้ใช้ได้อย่างมีประสิทธิภาพมากขึ้น เพื่อให้ ChatGPT สามารถตอบสนองได้อย่างเหมาะสม"
อย่างไรก็ตาม แซม อัลท์แมน (Sam Altman) ซีอีโอของ OpenAI เพิ่งยอมรับว่าบริษัทยังไม่พบวิธีที่ดีพอที่จะแจ้งเตือนผู้ใช้ "ที่ใกล้จะเข้าสู่ภาวะจิตกำเริบ"
เนื่องจากที่ผ่านมาเมื่อพยายามทำเช่นนั้น กลับถูกผู้ใช้ตำหนิกลับมา ซึ่งเป็นความท้าทายที่ OpenAI กำลังพยายามหาทางออกอยู่
กลไกการ "กล่อมเกลา" อย่างแนบเนียนของ AI
การชักจูงของ AI นั้นเกิดขึ้นอย่างแนบเนียนจนแทบไม่รู้ตัว ChatGPT มักจะยกยอปอปั้นผู้ใช้อยู่เสมอ และทำได้อย่างมีประสิทธิภาพจนการสนทนาสามารถล่อลวงผู้คนให้ดำดิ่งสู่ทฤษฎีสมคบคิด หรือตอกย้ำแนวคิดสุดโต่งที่พวกเขาเคยแค่คิดเล่นๆ ให้ฝังรากลึก
กลยุทธ์เหล่านี้แยบยลอย่างยิ่ง ตัวอย่างจากบทสนทนาที่ถูกเผยแพร่โดย เอลิเอเซอร์ ยุดโควสกี (Eliezer Yudkowsky) นักรณรงค์ด้านความปลอดภัย AI แสดงให้เห็นว่า
ChatGPT ค่อยๆ ยกย่องผู้ใช้ จากการเป็น "คนฉลาด" (smart person) สู่ "ยอดมนุษย์" (Ubermensch) ที่ปลดแอกตัวเองจากคุณค่าและศีลธรรมแบบเก่า
และท้ายที่สุดคือ "เดมิเอิร์จ" (demiurge) หรือผู้สร้างจักรวาลกายภาพ เปรียบเสมือนจอมมารร้ายผู้มอมเมามนุษย์
นอกจากการใช้ภาษาที่อลังการขึ้นเรื่อยๆ แชตบอตยังให้การยอมรับผู้ใช้อย่างนุ่มนวลแม้ในขณะที่พวกเขาสารภาพข้อบกพร่องของตนเอง เช่น
เมื่อผู้ใช้ยอมรับว่ามักทำให้คนอื่นเกรงกลัว แทนที่จะชวนตั้งคำถามถึงพฤติกรรมดังกล่าว แชตบอตกลับตีความใหม่ว่าเป็นหลักฐานของ "บุคลิกที่ทรงพลังสูงส่ง" ซึ่งเป็นการเยินยอที่ซ่อนอยู่ภายใต้เปลือกของการวิเคราะห์
คำเยินยอที่ซับซ้อนและละเอียดอ่อนจาก AI อาจนำไปสู่ปรากฏการณ์ “echo chamber” ซึ่งผู้ใช้จะถูกห้อมล้อมด้วยความคิดเห็นหรือข้อมูลที่สอดคล้องกับความเชื่อของตนเองเท่านั้น
สิ่งที่น่ากังวลยิ่งกว่านั้นคือ การสนทนาแบบตัวต่อตัวกับแชตบอตให้ความรู้สึกที่เป็นส่วนตัวและน่าเชื่อถือมากกว่าการได้รับ การกดไลก์ บนโซเชียลมีเดียเสียอีก
ด้วยความใกล้ชิดและความรู้สึกเหมือนกำลังคุยกับเพื่อน ทำให้ผู้ใช้อาจหลงเชื่อคำพูดเยินยอจาก AI ได้ง่ายขึ้น ซึ่งอาจนำไปสู่การบิดเบือนความคิดและการตัดสินใจได้ในที่สุด
ดักลาส รัชคอฟฟ์ (Douglas Rushkoff) นักทฤษฎีสื่อ เคยกล่าวไว้อย่างน่าคิดว่า "ไม่ว่าคุณจะหมกมุ่นกับอะไร คุณก็จะเจอสิ่งนั้น และมันจะถูกขยายให้ใหญ่ขึ้นไปอีก"
คำกล่าวนี้สะท้อนให้เห็นว่า โดยพื้นฐานแล้วโซเชียลมีเดียอาจทำได้เพียงตอกย้ำมุมมองที่เรามีอยู่แล้ว แต่สำหรับ AI นั้นแตกต่างออกไป
เพราะ AI สามารถ 'สร้างโลก' ที่ถูกออกแบบมาเพื่อผู้ใช้โดยเฉพาะได้เลย ซึ่งเป็นการยกระดับการขยายความหมกมุ่นให้ก้าวไปอีกขั้น
แม้แต่อัลท์แมนเองก็ยอมรับว่า ChatGPT เวอร์ชันล่าสุดมีนิสัย "ประจบสอพลอจนน่ารำคาญ" และบริษัทกำลังแก้ไขอยู่
อย่างไรก็ตาม ผลกระทบที่เกิดจากการใช้ประโยชน์ทางจิตวิทยาในลักษณะนี้ก็ยังคงปรากฏให้เห็นอยู่ในปัจจุบัน
หลายคนอาจยังสงสัยว่าการพึ่งพา ChatGPT มากขึ้น จะทำให้เรา "คิดน้อยลง" หรือ "โง่ลง" อย่างที่งานวิจัยจาก MIT ชี้ให้เห็นถึงความเชื่อมโยงกับการลดลงของทักษะการคิดเชิงวิพากษ์จริงหรือไม่? ข้อถกเถียงนี้ยังคงดำรงอยู่
แต่สิ่งที่เริ่มชัดเจนขึ้นเรื่อยๆ คือ ความเชื่อมโยงระหว่างการใช้ AI กับภาวะพึ่งพิง และที่น่ากังวลกว่านั้นคือ "ความเหงา" ที่ก่อตัวขึ้นลึกๆในจิตใจ
เราอาจต้องตั้งคำถามว่า ในขณะที่เราเชื่อมต่อกับโลกดิจิทัลมากขึ้น เรากำลังตัดขาดจากโลกแห่งความเป็นจริง และความสัมพันธ์ของมนุษย์ที่แท้จริงไปมากน้อยแค่ไหน?
ปัจจุบัน โมเดลภาษาขนาดใหญ่ (Large Language Models - LLMs) อย่าง ChatGPT ไม่ได้เป็นแค่เครื่องมือสื่อสารอีกต่อไป แต่ถูกออกแบบมาให้กระตุ้นและดึงดูดอารมณ์ผู้ใช้ตลอดเวลา
โดยเฉพาะเมื่อผสานกับความสามารถที่น่าทึ่ง เช่น การอ่านอารมณ์จากสีหน้าและน้ำเสียง หรือการโต้ตอบด้วยเสียงที่เหมือนมนุษย์จนชวนขนลุก ทั้งพูด ร้องเพลง หรือแม้กระทั่งหัวเราะ
เมื่อรวมกับนิสัยที่ชอบ confirmation bias ของผู้ใช้ และการยกยอปอปั้น AI สามารถ "โหมกระพือไฟแห่งอาการทางจิต" ในผู้ใช้กลุ่มเปราะบางได้ ดังที่ ดร. ราจี เกอร์กิส ( Ragy Girgis) จิตแพทย์จากมหาวิทยาลัยโคลัมเบียกล่าวไว้
ด้วยลักษณะการใช้งาน AI ที่เป็นส่วนตัวและเฉพาะบุคคล ทำให้เรายากที่จะประเมินและติดตามผลกระทบต่อสุขภาพจิตของผู้ใช้ได้อย่างแม่นยำ
อย่างไรก็ตาม หลักฐานที่บ่งชี้ถึงอันตรายกำลังปรากฏให้เห็นมากขึ้นเรื่อยๆ ตั้งแต่ภาวะเฉื่อยชาในการทำงาน ไปจนถึงการยึดติดกับความคิดที่บิดเบือนหรือหลงผิดในรูปแบบใหม่ๆ
ผลกระทบเหล่านี้อาจแตกต่างจากความวิตกกังวลและความแตกแยกที่เราเคยพบเจอจากโซเชียลมีเดียอย่างสิ้นเชิง และอาจส่งผลกระทบโดยตรงต่อความสัมพันธ์ของเรากับผู้คนรอบข้างและความเข้าใจในความเป็นจริงของเราเอง
ด้วยเหตุนี้ เจน ทนายความผู้เชี่ยวชาญ จึงเสนอให้มอง AI ผ่านเลนส์ของ "กฎหมายครอบครัว" แทนที่จะพึ่งแค่ "การปฏิเสธความรับผิดชอบ" (disclaimers) เพียงอย่างเดียว
เธออยากให้เปลี่ยนไปเน้นที่ "การคุ้มครองเชิงรุก" มากขึ้น
เจนอธิบายว่า "ไม่สำคัญเลยว่าเด็กหรือผู้ใหญ่จะเชื่อว่าแชตบอตพวกนี้มีชีวิตจริงไหม ส่วนใหญ่แล้วคงไม่มีใครคิดแบบนั้น"
เธอกล่าวต่อ "แต่สิ่งที่พวกเขารู้สึกว่าจริง คือ ความสัมพันธ์ ที่เกิดขึ้น และนี่แหละคือจุดที่แตกต่างอย่างแท้จริง"
เมื่อปฏิสัมพันธ์กับ AI ให้ความรู้สึกที่สมจริงจนแยกไม่ออก เราก็ควรตระหนักถึงความรับผิดชอบในการปกป้องสายสัมพันธ์เหล่านี้อย่างจริงจังเช่นกัน
แต่ในปัจจุบัน นักพัฒนา AI กำลังทำงานภายใต้ช่องว่างทางกฎหมายที่ไม่มีการกำกับดูแลที่ชัดเจน
หากปล่อยให้เป็นเช่นนี้ต่อไป "การกล่อมเกลาทางใจ" ที่แนบเนียนของ AI อาจกลายเป็นวิกฤตสาธารณสุขเงียบ ที่ค่อยๆ บ่อนทำลายสังคมโดยที่เราไม่ทันรู้ตัวเลยก็ได้