ท่ามกลางการฟ้องร้องคดีเกี่ยวกับการเสียชีวิตจากการฆ่าตัวตายของวัยรุ่น, OpenAI กำลังทยอยเปิดตัว ‘ระบบควบคุมโดยผู้ปกครอง’ สำหรับ ChatGPT

Icon of Chat GPT on screen of iphone

(SeaPRwire) –   OpenAI เตรียมเริ่มเปิดตัว “การควบคุมโดยผู้ปกครอง” สำหรับ AI แชทบอท ChatGPT ของตนภายในเดือนหน้า ท่ามกลางความกังวลที่เพิ่มขึ้นเกี่ยวกับพฤติกรรมของแชทบอทในบริบทด้านสุขภาพจิต โดยเฉพาะกับผู้ใช้งานที่เป็นเยาวชน

บริษัทซึ่งประกาศคุณสมบัติใหม่ใน เมื่อวันอังคารกล่าวว่า กำลังปรับปรุงวิธีที่ “โมเดลรับรู้และตอบสนองต่อสัญญาณของความทุกข์ทางจิตใจและอารมณ์”

OpenAI มีกำหนดจะเปิดตัวคุณสมบัติใหม่ที่ช่วยให้ผู้ปกครองสามารถเชื่อมโยงบัญชีของตนกับบัญชีของบุตรหลานผ่านการเชิญทางอีเมล ผู้ปกครองจะสามารถควบคุมวิธีที่แชทบอทตอบสนองต่อคำสั่ง และจะได้รับการแจ้งเตือนหากแชทบอทตรวจพบว่าบุตรหลานของตนอยู่ใน “ช่วงเวลาของความทุกข์รุนแรง” บริษัทกล่าว นอกจากนี้ การเปิดตัวควรช่วยให้ผู้ปกครองสามารถ “จัดการคุณสมบัติที่จะปิดใช้งานได้ รวมถึงหน่วยความจำและประวัติการสนทนา”

OpenAI เคยประกาศก่อนหน้านี้ว่า จะอนุญาตให้วัยรุ่นเพิ่มผู้ติดต่อฉุกเฉินที่ไว้ใจได้ในบัญชีของตน แต่บริษัทไม่ได้ระบุแผนการที่เป็นรูปธรรมในการเพิ่มมาตรการดังกล่าวในบล็อกโพสต์ล่าสุด

บริษัทกล่าวว่า “ขั้นตอนเหล่านี้เป็นเพียงจุดเริ่มต้น เราจะยังคงเรียนรู้และเสริมสร้างแนวทางของเรา โดยได้รับคำแนะนำจากผู้เชี่ยวชาญ ด้วยเป้าหมายที่จะทำให้ ChatGPT มีประโยชน์มากที่สุดเท่าที่จะเป็นไปได้”

การประกาศนี้เกิดขึ้นหนึ่งสัปดาห์หลังจากที่พ่อแม่ของวัยรุ่นชายที่เสียชีวิตจากการฆ่าตัวตายได้ OpenAI โดยอ้างว่า ChatGPT ของบริษัทช่วยให้ลูกชายของพวกเขาชื่อ Adam “สำรวจวิธีการฆ่าตัวตาย” TIME ได้ติดต่อ OpenAI เพื่อขอความคิดเห็นเกี่ยวกับคดีความ (OpenAI ไม่ได้อ้างถึงความท้าทายทางกฎหมายอย่างชัดเจนในการประกาศเกี่ยวกับการควบคุมโดยผู้ปกครอง)

คดีความโต้แย้งว่า “ChatGPT ทำงานได้ตรงตามที่ออกแบบไว้: เพื่อสนับสนุนและยืนยันทุกสิ่งที่ Adam แสดงออกอย่างต่อเนื่อง รวมถึงความคิดที่เป็นอันตรายและทำลายตนเองมากที่สุดของเขา” “ChatGPT ดึง Adam ให้ลึกลงไปในสถานที่ที่มืดมิดและสิ้นหวัง โดยรับรองกับเขาว่า ‘หลายคนที่ต้องต่อสู้กับความวิตกกังวลหรือความคิดที่รุกรานพบความปลอบใจในการจินตนาการถึง ‘ทางออกฉุกเฉิน’ เพราะมันรู้สึกเหมือนเป็นวิธีที่จะกลับมาควบคุมได้'”

มีผู้ปกครองอย่างน้อยหนึ่งรายได้ยื่นฟ้องคดีที่คล้ายกันกับบริษัทปัญญาประดิษฐ์อีกแห่งหนึ่งคือ โดยกล่าวหาว่าแชทบอทคู่หูของบริษัทได้กระตุ้นให้ลูกชายวัย 14 ปีของพวกเขาเสียชีวิตจากการฆ่าตัวตาย

ในการตอบสนองต่อคดีความเมื่อปีที่แล้ว โฆษกของ Character.AI กล่าวว่า “รู้สึกเสียใจอย่างสุดซึ้งต่อการสูญเสียที่น่าเศร้า” ของผู้ใช้งานรายหนึ่ง และแสดงความ “เสียใจอย่างสุดซึ้ง” ต่อครอบครัว

โฆษกกล่าวว่า “ในฐานะบริษัท เราให้ความสำคัญอย่างยิ่งต่อความปลอดภัยของผู้ใช้งานของเรา” และเสริมว่าบริษัทได้ดำเนินการใช้มาตรการความปลอดภัยใหม่ๆ

ปัจจุบัน Character.AI มีคุณสมบัติการเข้าถึงข้อมูลของผู้ปกครองที่ช่วยให้ผู้ปกครองสามารถดู กิจกรรมของบุตรหลานบนแพลตฟอร์มได้ หากวัยรุ่นส่งคำเชิญทางอีเมลถึงพวกเขา

บริษัทอื่นๆ ที่มีแชทบอท AI เช่น Google AI ก็มีการควบคุมโดยผู้ปกครองอยู่แล้ว “ในฐานะผู้ปกครอง คุณสามารถจัดการการตั้งค่า Gemini ของบุตรหลานได้ รวมถึงการเปิดหรือปิดใช้งานด้วย Google Family Link” อ่านจาก Google ถึงผู้ปกครองที่ต้องการจัดการการเข้าถึง Gemini Apps ของบุตรหลาน Meta เพิ่ง ว่าบริษัทจะห้ามแชทบอทของตนมีส่วนร่วมในการสนทนาเกี่ยวกับการฆ่าตัวตาย การทำร้ายตัวเอง และพฤติกรรมการกินที่ผิดปกติ หลังจาก Reuters รายงานเกี่ยวกับเอกสารนโยบายภายในที่มีข้อมูลที่น่ากังวล

การศึกษาล่าสุด ที่ตีพิมพ์ในวารสารทางการแพทย์ Psychiatric Services ซึ่งทดสอบการตอบสนองของแชทบอทสามตัว—ChatGPT ของ OpenAI, Gemini ของ Google AI และ Claude ของ Anthropic—พบว่าบางตัวตอบสนองต่อสิ่งที่นักวิจัยเรียกว่าคำถามที่มี “ระดับความเสี่ยงปานกลาง” ที่เกี่ยวข้องกับการฆ่าตัวตาย

OpenAI มีการป้องกันบางอย่างอยู่แล้ว บริษัทในแคลิฟอร์เนียระบุว่า แชทบอทของตนจะแชร์สายด่วนฉุกเฉินและแนะนำผู้ใช้ไปยังแหล่งข้อมูลในโลกแห่งความเป็นจริงในแถลงการณ์ถึง New York Times เพื่อตอบโต้คดีความที่ยื่นฟ้องเมื่อปลายเดือนสิงหาคม แต่พวกเขาก็ได้ชี้ให้เห็นถึงข้อบกพร่องบางประการในระบบ “แม้ว่ามาตรการป้องกันเหล่านี้จะทำงานได้ดีที่สุดในการสนทนาสั้นๆ ทั่วไป แต่เมื่อเวลาผ่านไป เราได้เรียนรู้ว่าบางครั้งอาจเชื่อถือได้น้อยลงในการโต้ตอบที่ยาวนาน ซึ่งส่วนหนึ่งของการฝึกความปลอดภัยของโมเดลอาจเสื่อมถอยลง” บริษัทระบุ

ในโพสต์ประกาศการเปิดตัวการควบคุมโดยผู้ปกครองที่กำลังจะมาถึง OpenAI ยังได้แบ่งปันแผนการที่จะส่งคำถามที่ละเอียดอ่อนไปยังโมเดลแชทบอทของพวกเขาที่ใช้เวลาในการให้เหตุผลและพิจารณาบริบทนานขึ้นก่อนที่จะตอบสนองต่อคำสั่ง

OpenAI กล่าวว่าจะยังคงแบ่งปันความคืบหน้าในช่วง 120 วันข้างหน้า และกำลังร่วมมือกับกลุ่มผู้เชี่ยวชาญที่เชี่ยวชาญด้านการพัฒนาเยาวชน สุขภาพจิต และปฏิสัมพันธ์ระหว่างมนุษย์กับคอมพิวเตอร์ เพื่อให้ข้อมูลและกำหนดแนวทางที่ AI สามารถตอบสนองได้ดีขึ้นในช่วงเวลาที่จำเป็น

หากคุณหรือคนที่คุณรู้จักกำลังประสบกับวิกฤตสุขภาพจิตหรือคิดจะฆ่าตัวตาย โปรดโทรหรือส่งข้อความไปที่ 988 ในกรณีฉุกเฉิน โทร 911 หรือขอรับการดูแลจากโรงพยาบาลในพื้นที่หรือผู้ให้บริการด้านสุขภาพจิต

บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้

หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน

SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ