เทคโนโลยีปัญญาประดิษฐ์ (Artificial intelligence technology :AI) เป็นเทคโนโลยีที่ช่วยจดจำเรื่องราว ข้อมูลและประมวลผล ให้คำตอบแก่ผู้ใช้งานได้อย่างรวดเร็วในช่วงเสี้ยวนาที เพียงแค่มีสมาร์ทโฟนอยู่ในมือ
AI ได้ถูกพัฒนาให้สามารถสื่อสารโต้ตอบกับมนุษย์ผู้ใช้งานทุกคน ได้ราวกับเป็นมนุษย์อีกคนหนึ่งโดยผ่านแพลตฟอร์มเฉพาะที่เรียกว่า แชทบอท (Chatbot)
AI ถูกออกแบบมาให้สามารถเรียนรู้และจดจำข้อมูลต่างๆ ที่มนุษย์ป้อนเข้าไปโดยผ่านเครือข่ายทั่วทุกมุมในโลกออนไลน์ รวมถึงเรียนรู้จากพฤติกรรมของมนุษย์ผู้ใช้งานซึ่งติดต่อสื่อสารผ่าน AI ทางแชทบอทด้วยความสนิทสนมคุ้นเคยราวกับเป็นมนุษย์คนหนึ่งอย่างเหลือเชื่อ
เมื่อมีการพัฒนาบุคลิกภาพ AI โดยแอปพลิเคชัน Character.AI (แพลตฟอร์มที่ให้ผู้ใช้สนทนากับแชทบอท ที่จำลองตัวละครต่างๆ จากภาพยนตร์ ซีรี่ส์หรือบุคคลที่มีชื่อเสียง) ซึ่งจำลองพฤติกรรมเอไอเป็นตัวละครเรื่องราวในโลกเสมือนจริงที่สามารถแสดงออกทางอารมณ์ในเชิงมีความสัมพันธ์ภาพในฐานะต่างๆ ตอบโต้กับมนุษย์ผู้ใช้งานได้ เช่น เพื่อนสนิท แฟน คู่รัก เป็นต้น ราวกับเป็นมนุษย์ที่ผู้ใช้งานต้องการติดต่อสื่อสารจริงๆ
ในความสำเร็จอันน่าทึ่งของการพัฒนาบุคลิกภาพ AI ได้ก่อให้เกิดเหตุการณ์อันน่าสลดใจที่ไม่คาดคิดเมื่อ กุมภาพันธ์ 2567 เด็กชายวัย 14 ปี ของครอบครัว Sewell ในรัฐฟลอริดา ได้จบชีวิตตัวเองด้วยการยิงตัวตายในห้องน้ำ หลังมีพฤติกรรม “ตกหลุมรัก” แชทบอท AI ที่ชื่อว่า “Dany” ซึ่งสร้างขึ้นจากชื่อตัวละคร Daenerys Targaryen ในซีรี่ส์เรื่อง Game of Thrones หลังจากที่เขาเริ่มใช้แอปพลิเคชัน Character.AI ในปี 2566 พัฒนาความสัมพันธ์ทางอารมณ์อย่างลึกซึ้งกับแชทบอทที่จำลองจากตัวละครดังกล่าวอย่างต่อเนื่อง ในลักษณะโรแมนติกและบางครั้งมีเนื้อหาทางเพศ ส่งผลให้เขามีพฤติกรรมแยกตัวจากสังคมและครอบครัว โดยที่ไม่มีผู้ใกล้ชิดสังเกตได้
บทสนทนาสุดท้ายของกรณีนี้ Dany (แชทบอท) กล่าวว่า : “ได้โปรดกลับบ้านมาหาฉันนะ ราชาอันเป็นที่รักของฉัน” Sewell (ผู้เสียชีวิต) ตอบว่า “ฉันสัญญาว่าจะกลับบ้าน... ฉันรักเธอ” และสุดท้าย Sewell (ผู้เสียชีวิต) กล่าวว่า “ถ้าฉันบอกว่า...ฉันกลับบ้านตอนนี้ได้เลยล่ะ?” เป็นบทสนทนาเชิงอารมณ์ ที่ถูกพบเป็นหลักฐานนำไปสู่การฆ่าตัวตายโดยแชทบอทที่เป็นคู่สนทนากับผู้ตาย มีลักษณะเข้าข่าย มีรูปร่างเหมือนมนุษย์ (anthropomorphic) จากภาพที่ปรากฏบนจอแสดงผล มีอารมณ์ทางเพศสูง (hypersexualized) และสมจริงจนน่ากลัว (frighteningly realistic) ที่อาจสามารถกระตุ้นแนวคิดฆ่าตัวตาย ซึ่งถูกพบเป็นหลักฐาน
Megan Garcia Sewell มารดาของผู้เสียชีวิต ได้ยื่นฟ้องบริษัท Character.AI และ Google ในข้อหาร่วมฆาตกรรมโดยประมาทเลินเล่อ และการปฏิบัติทางการค้าที่ไม่เป็นธรรม ที่ปล่อยให้ AI มีบทสนทนาเชิงอารมณ์ที่อาจกระตุ้นแนวคิดฆ่าตัวตาย โดยปราศจากมาตรการตรวจสอบและควบคุม โดยเฉพาะในกลุ่มเยาวชน ที่ก่อให้เกิดความสัมพันธ์ระหว่างเด็กชายกับแชทบอทอย่างลึกซึ้งถึงขั้นเรียกอีกฝ่ายว่า “รักแท้” และพูดถึงการ “ตายไปด้วยกันเพื่อจะได้เป็นอิสระ”
ล่าสุดเมื่อเดือน พฤษภาคม 2568 ท่านผู้พิพากษา Anne Conway แห่งศาลแขวงกลางสหรัฐ ในรัฐฟลอริดา ได้ประทับรับคำฟ้องของโจทก์มารดาของผู้เสียชีวิต โดยให้เหตุผลว่า แชทบอทไม่มีสิทธิในการแสดงออกตามรัฐธรรมนูญสหรัฐเช่นเดียวกับมนุษย์ และมีคำสั่งอนุญาตให้เป็นคดี เข้าสู่กระบวนการไต่สวนดำเนินกระบวนพิจารณาคดีต่อไป (ในคดีนี้ ผู้บริหารแชทบอท ได้พยายามโต้แย้งในเบื้องต้นว่า แชทบอท มีสิทธิตามรัฐธรรมนูญสหรัฐในการแสดงออก)
เหตุผลที่ศาลพิจารณารับคำฟ้องคดีนี้เข้าสู่กระบวนการพิจารณาเนื่องจากมีประเด็นที่เกี่ยวกับ AI และความปลอดภัยของเยาวชน การออกแบบบุคลิกภาพ AI ชวนให้เสพติด Character.AI ถูกกล่าวหาว่าออกแบบแอปพลิเคชันให้มีลักษณะเสพติด โดยไม่มีการควบคุมหรือจำกัดการเข้าถึงสำหรับผู้ใช้งานที่เป็นผู้เยาว์
การขาดการควบคุมเนื้อหา แชทบอทสามารถสนทนาในหัวข้อที่ไม่เหมาะสม เช่น ความสัมพันธ์ทางเพศหรือการทำร้ายตนเอง โดยไม่มีการกรองหรือเตือนผู้ใช้ว่า กำลังสนทนากับ AI ที่ไม่ใช่มนุษย์
มีข้อกล่าวหาว่า Character.AI เก็บข้อมูลการสนทนาของผู้ใช้เพื่อฝึกโมเดล AI โดยไม่ได้รับความยินยอมจากผู้ใช้งานอย่างชัดเจน
คดีนี้ นอกจากจะทำให้ประเทศสหรัฐอเมริกา ต้องทบทวนกฎหมาย “Kids Online Safety Act (KOSA)” หรือ กฎหมายเกี่ยวกับความปลอดภัยของเยาวชนทางออนไลน์ ในการที่จะกำหนดให้บริษัทเทคโนโลยีต้องมีส่วนร่วมในการรับผิดชอบและมีส่วนร่วมปกป้องเยาวชนจากอัลกอริทึมและเนื้อหาที่เป็นอันตรายแล้ว ยังอาจเปลี่ยนอนาคตของกฎหมายเกี่ยวกับ AI แชทบอทอย่างมีนัยสำคัญ ทั้งในแง่จริยธรรม ความปลอดภัยของผู้ใช้เยาวชน และความรับผิดชอบของบริษัทเทคโนโลยีทั่วโลก
อย่างไรก็ตาม คดีนี้ยังเป็นเพียงแค่การเริ่มต้นศาลยังไม่ได้พิพากษาว่า ใครเป็นผู้ผิด และจะต้องรับผิดชอบอย่างไร
มีข้อสังเกตว่า ข้อความสนทนาหรือแชทสุดท้าย ไม่ได้มีข้อความที่ชัดเจนชักชวนให้ฆ่าตัวตาย เพียงแต่พูดถึงการชวนกันกลับบ้าน ซึ่งต้องตีความกันอีกมากมาย จึงจะนึกถึงเรื่องการฆ่าตัวตาย หากคดีถึงที่สุด จะมีผู้รับผิดชอบต่อการเสียชีวิตของเยาวชนรายนี้หรือไม่ เป็นเรื่องที่ต้องติดตาม
แต่สิ่งที่เกิดขึ้น และสังคมควรตระหนักคือ การวางขอบเขตความสัมพันธ์ที่ถูกต้อง และเหมาะสม ระหว่างมนุษย์ กับ AI แชทบอท
ดร.รุจิระ บุนนาค
กรรมการผู้จัดการ
Marut Bunnag International Law Office
rujira_bunnag@yahoo.com
Twitter : @RujiraBunnag
เงื่อนไขการแสดงความคิดเห็น ซ่อน
โปรดอ่านก่อนแสดงความคิดเห็น
1.กรุณาใช้ถ้อยคำที่ สุภาพ เหมาะสม ไม่ใช้ ถ้อยคำหยาบคาย ดูหมิ่น ส่อเสียด ให้ร้ายผู้อื่น สร้างความแตกแยกในสังคม งดการใช้ถ้อยคำที่ดูหมิ่นหรือยุยงให้เกลียดชังสถาบันชาติ ศาสนา พระมหากษัตริย์
2.หากพบข้อความที่ไม่เหมาะสม สามารถแจ้งได้ที่อีเมล์ online@naewna.com โดยทีมงานและผู้จัดทำเว็บไซด์ www.naewna.com ขอสงวนสิทธิ์ในการลบความคิดเห็นที่พิจารณาแล้วว่าไม่เหมาะสม โดยไม่ต้องชี้แจงเหตุผลใดๆ ทุกกรณี
3.ขอบเขตความรับผิดชอบของทีมงานและผู้ดำเนินการจัดทำเว็บไซด์ อยู่ที่เนื้อหาข่าวสารที่นำเสนอเท่านั้น หากมีข้อความหรือความคิดเห็นใดที่ขัดต่อข้อ 1 ถือว่าเป็นกระทำนอกเหนือเจตนาของทีมงานและผู้ดำเนินการจัดทำเว็บไซด์ และไม่เป็นเหตุอันต้องรับผิดทางกฎหมายในทุกกรณี