posttoday

ทนายสหรัฐถูกสอบ หลังใช้ ChatGPT เขียนคำฟ้องผิดพลาด

31 พฤษภาคม 2566

ทนายความรายหนึ่งในนิวยอร์ก กำลังเผชิญกับปัญหาด้านกฎหมาย และเสี่ยงจะถูกศาลลงโทษ หลังจากพบว่าคำฟ้องคดีของเขาซึ่งร่างขึ้นด้วยความช่วยเหลือจาก ChatGPT เต็มไปด้วยข้อผิดพลาด

เป็นสถานการณ์ที่ผู้เชี่ยวชาญด้านจริยธรรมทางกฎหมายเตือนไว้ตั้งแต่ ChatGPT เปิดตัวในเดือนพฤศจิกายน ซึ่งถือเป็นยุคใหม่ของ AI ที่สามารถสร้างการตอบสนองที่เหมือนมนุษย์โดยอิงจากข้อมูลจำนวนมหาศาล

Steven Schwartz จาก Levidow, Levidow & Oberman จะเผชิญกับการพิจารณาโทษในวันที่ 8 มิถุนายนโดยผู้พิพากษาเขตของสหรัฐฯ P. Kevin Castel หลังจากที่เขายอมรับว่าใช้ ChatGPT เพื่อยื่นฟ้องคดีการบาดเจ็บส่วนบุคคลของลูกความต่อ Avianca Airlines โดยอ้างถึงคำตัดสินของศาลที่ไม่มีอยู่จริงหกข้อ หลังจากทนายความที่เป็นตัวแทนของ Avianca แจ้งศาลถึงคดีที่ไม่มีอยู่จริงที่ Schwartz อ้างถึง  

Schwartz  กล่าวในการยื่นแถลงต่อศาลว่าเขา "เสียใจอย่างยิ่ง" ที่ต้องพึ่งพาเทคโนโลยีนี้ และ "ไม่รู้ถึงความเป็นไปได้ที่เนื้อหาของมันอาจเป็นเท็จ"

แม้หลักจรรยาบรรณวิชาชีพของเนติบัณฑิตสภา หรือ American Bar Association ไม่ได้กล่าวถึงปัญญาประดิษฐ์อย่างชัดเจน แต่ผู้เชี่ยวชาญกล่าวว่ามีการใช้กฎจริยธรรมที่มีอยู่หลายข้อ

“ท้ายที่สุดแล้วคุณต้องรับผิดชอบต่อการเป็นตัวแทนที่คุณทำ” Daniel Martin Katz ศาสตราจารย์แห่ง Chicago-Kent College of Law ผู้สอนความรับผิดชอบทางวิชาชีพและศึกษาปัญญาประดิษฐ์ในกฎหมายกล่าว "มันเป็นใบประกอบวิชาชีพของคุณ"

หน้าที่แห่งความสามารถ

กฎนี้กำหนดให้นักกฎหมาย ต้องเป็นตัวแทนที่มีความสามารถและตามทันเทคโนโลยีปัจจุบัน พวกเขาต้องตรวจสอบให้แน่ใจว่าเทคโนโลยีที่ใช้นั้นให้ข้อมูลที่ถูกต้อง ข้อกังวลหลักเนื่องจากพบเครื่องมือเช่น ChatGPT เพื่อสร้างสิ่งต่างๆ โดยนักกฎหมายต้องไม่พึ่งพาเครื่องมือมากเกินไป เนื่องจากอาจเกิดข้อผิดพลาดได้

Andrew Perlman คณบดีด้านกฎหมายของมหาวิทยาลัย Suffolk ซึ่งเป็นผู้นำด้านเทคโนโลยีทางกฎหมายและจริยธรรมกล่าวว่า "การอาศัย AI กำเนิดสุ่มสี่สุ่มห้าเพื่อให้ข้อความที่คุณใช้ในการให้บริการแก่ลูกความนั้นไม่เป็นไปตามหลักเกณฑ์"

Perlman มองถึงหน้าที่ของกฎความสามารถ ซึ่งสุดท้ายแล้วจำเป็นต้องมีระดับของความเชี่ยวชาญในเทคโนโลยีปัญญาประดิษฐ์ AI สามารถปฏิวัติหลักปฏิบัติทางกฎหมายได้อย่างมาก ซึ่งสักวันหนึ่งการไม่ใช้มันอาจเหมือนกับการไม่ใช้คอมพิวเตอร์เพื่อการวิจัย  

หน้าที่ของการรักษาความลับ

กฎนี้กำหนดให้นักกฎหมาย “ใช้ความพยายามตามสมควรเพื่อป้องกันการเปิดเผยโดยไม่ได้ตั้งใจหรือไม่ได้รับอนุญาต หรือการเข้าถึงโดยไม่ได้รับอนุญาต ข้อมูลที่เกี่ยวข้องกับการเป็นตัวแทนของลูกความ” นักกฎหมายที่ใช้โปรแกรมเช่น ChatGPT หรือ Bing Chat มีความเสี่ยงที่จะให้ข้อมูลลูกความแก่บริษัท AI เพื่อฝึกฝนและปรับปรุงโมเดลของตน ซึ่งอาจละเมิดกฎการรักษาความลับได้

นั่นเป็นเหตุผลหนึ่งว่าทำไมสำนักงานกฎหมายบางแห่งจึงบอกทนายความอย่างชัดเจนว่าอย่าใช้ ChatGPT และโปรแกรมที่คล้ายคลึงกันในเรื่องลูกความ  

โปรแกรมปัญญาประดิษฐ์เฉพาะกฎหมายบางโปรแกรม รวมถึง CoCounsel และ Harvey ของ CaseText จัดการปัญหาการรักษาความลับด้วยการป้องกันไม่ให้ข้อมูลของพวกเขาถูกเข้าถึงจากผู้ให้บริการ AI ภายนอก

ความรับผิดชอบเกี่ยวกับความช่วยเหลือที่ไม่ใช่ทนายความ

ภายใต้กฎนี้ ทนายความต้องดูแลทนายความและผู้ที่ไม่ใช่ทนายความที่ช่วยเหลือพวกเขา เพื่อให้แน่ใจว่าพฤติกรรมของพวกเขาเป็นไปตามกฎจรรยาบรรณวิชาชีพ   ในปี 2012 American Bar Association ชี้แจงว่ากฎนี้ใช้กับความช่วยเหลือที่ไม่ใช่มนุษย์ด้วย ซึ่งหมายความว่าทนายความต้องดูแลการทำงานของโปรแกรม AI และเข้าใจเทคโนโลยีอย่างดีพอเพื่อให้แน่ใจว่าเป็นไปตามมาตรฐานจริยธรรมที่ทนายความต้องยึดถือ

“คุณต้องพยายามอย่างสมเหตุสมผลเพื่อให้แน่ใจว่าเทคโนโลยีที่คุณใช้นั้นสอดคล้องกับความรับผิดชอบทางจริยธรรมของคุณที่มีต่อลูกความ” Perlman กล่าว