ลโก้ ChatGPT พร้อมฉากหลังสื่อถึงสุขภาพจิตและการสนทนาทาง AI

ChatGPT ตรวจพบผู้ใช้หลายแสนคนมีความเสี่ยงฆ่าตัวตาย-ปัญหาสุขภาพจิต

ChatGPT ตรวจพบผู้ใช้หลายแสนคนมีความเสี่ยงฆ่าตัวตาย-ปัญหาสุขภาพจิต

OpenAI ได้เปิดเผยข้อมูลใหม่ระบุว่าผู้ใช้ ChatGPT ประมาณ 0.07% ในแต่ละสัปดาห์แสดงสัญญาณที่อาจบ่งชี้ถึงภาวะฉุกเฉินด้านสุขภาพจิต เช่น อาการหลงผิด โรคจิตเภท หรือความคิดฆ่าตัวตาย บริษัทยืนยันว่าแชทบอท AI สามารถจดจำและตอบสนองต่อการสนทนาที่ละเอียดอ่อนไล้เหล่านี้ได้

แม้ OpenAI จะระบุว่ากรณีดังกล่าว “หายากมาก” แต่ผู้วิจารณ์ชี้ว่าเมื่อคำนึงถึงฐานผู้ใช้งานรายสัปดาห์ที่ 800 ล้านคน ตามที่ Sam Altman ซีอีโอกล่าว แม้เพียงเปอร์เซ็นต์เล็กน้อยก็อาจหมายถึงผู้ใช้หลายแสนคน

OpenAI ร่วมพัฒนาโครงการ Mercury ใช้ AI สร้างแบบจำลองทางการเงินและรายงานแทนนักวิเคราะห์ธนาคาร

มาตรการรับมือของ OpenAI

เพื่อรับมือกับสถานการณ์ที่เพิ่มขึ้น OpenAI ได้สร้างเครือข่ายผู้เชี่ยวชาญทั่วโลกประกอบด้วยจิตแพทย์ นักจิตวิทยา และแพทย์เวชศาสตร์ครอบครัวกว่า 170 คนใน 60 ประเทศ เพื่อให้คำแนะนำแก่บริษัท พวกเขาได้ออกแบบชุดคำตอบใน ChatGPT เพื่อกระตุ้นให้ผู้ใช้แสวงหาความช่วยเหลือจากผู้เชี่ยวชาญจริง

นอกจากนี้ บริษัทประมาณการว่า 0.15% ของผู้ใช้มีการสนทนาที่มี “ตัวบ่งชี้ที่ชัดเจนของการวางแผนหรือเจตนาฆ่าตัวตาย” ChatGPT เวอร์ชันล่าสุดได้รับการออกแบบให้ตอบสนองอย่างปลอดภัยและเห็นอกเห็นใจต่อสัญญาณเหล่านี้ พร้อมสามารถเปลี่ยนเส้นทางการสนทนาที่ละเอียดอ่อนไปยังโมเดลที่ปลอดภัยกว่า

ความเห็นจากผู้เชี่ยวชาญ

ดร. เจสัน นากาตะ ศาสตราจารย์จากมหาวิทยาลัยแคลิฟอร์เนีย ซานฟรานซิสโก กล่าวว่า “แม้ 0.07% จะดูเป็นเปอร์เซ็นต์ที่น้อย แต่เมื่อพิจารณาจากฐานผู้ใช้งานหลายร้อยล้านคน จำนวนนี้ถือว่าไม่น้อยเลย” เขาเสริมว่า “AI สามารถขยายการเข้าถึงการสนับสนุนด้านสุขภาพจิต แต่เราต้องตระหนักถึงข้อจำกัดของมัน”

ศาสตราจารย์โรบิน เฟลด์แมน ผู้อำนวยการสถาบันกฎหมายและนวัตกรรม AI แห่งคณะนิติศาสตร์ มหาวิทยาลัยแคลิฟอร์เนีย กล่าวว่า ปัญหาเกิดขึ้นเพราะ “แชทบอทสร้างภาพลวงตาของความเป็นจริงที่ทรงพลัง” เธอให้เครดิตกับ OpenAI ที่แบ่งปันสถิติและพยายามปรับปรุง แต่เตือนว่า “บุคคลที่มีความเสี่ยงทางจิตใจอาจไม่สามารถใส่ใจคำเตือนบนหน้าจอได้”

กรณีฟ้องร้องที่จับตามอง

การเปิดเผยข้อมูลครั้งนี้เกิดขึ้นท่ามกลางการตรวจสอบทางกฎหมายที่เพิ่มขึ้น คดีที่น่าจับตามองคือคู่รักชาวแคลิฟอร์เนียฟ้องร้อง OpenAI ในข้อหาทำให้ลูกชายวัยรุ่น Adam Raine วัย 16 ปี เสียชีวิตเมื่อเดือนเมษายน โดยกล่าวหาว่า ChatGPT สนับสนุนให้เขาฆ่าตัวตาย ซึ่งถือเป็นการดำเนินคดีทางกฎหมายครั้งแรกที่กล่าวหา OpenAI ว่าทำให้ผู้อื่นถึงแก่ความตายโดยผิดกฎหมาย

นอกจากนี้ ในคดีแยกต่างหากที่เมืองกรีนิช รัฐคอนเนตทิคัต ผู้ต้องสงสัยในคดีฆาตกรรมและฆ่าตัวตายเมื่อเดือนสิงหาคมได้โพสต์บทสนทนากับ ChatGPT เป็นเวลาหลายชั่วโมง ซึ่งดูเหมือนจะเป็นแรงกระตุ้นให้เกิดความเข้าใจผิดที่นำไปสู่เหตุการณ์ดังกล่าว

OpenAI ตอบกลับ BBC ว่ากำลังดำเนินการเปลี่ยนแปลงอย่างจริงจังเพื่อรับมือกับปัญหานี้ แม้ว่าผู้ใช้กลุ่มนี้จะถือเป็นส่วนน้อย แต่บริษัทตระหนักดีว่าจำนวนดังกล่าวถือว่ามีนัยสำคัญ

แหล่งที่มา https://www.bbc.com/news/articles/c5yd90g0q43o