AI: สิ่งที่เราไม่รู้อาจเป็นภัยต่อเราได้

(SeaPRwire) – ในช่วงไม่กี่ปีที่ผ่านมา ปัญญาประดิษฐ์ได้รับความสนใจอย่างมาก ทุกโมเดล AI ใหม่เผยให้เห็นนวัตกรรมอันน่าทึ่งที่สามารถเทียบเคียงกับเวอร์ชันที่เพิ่งเปิดตัวไปเพียงไม่กี่สัปดาห์ก่อนหน้านี้ ผู้เชี่ยวชาญ นักพัฒนา และ CEO ของบริษัท AI ต่างออกมากล่าวอ้างอย่างกล้าหาญเกี่ยวกับทิศทางในอนาคต ตั้งแต่การลดการทำงานที่ยากลำบาก และการเพิ่มขึ้นของอายุขัยของมนุษย์ ไปจนถึงภัยคุกคามที่อาจเกิดขึ้นกับมนุษยชาติ
หากทุกคนกำลังพูดถึง AI ส่วนหนึ่งเป็นเพราะการเปิดเผยนวัตกรรมเหล่านั้นได้สร้างรายได้ที่เติบโตแบบทวีคูณให้กับบริษัทที่พัฒนาโมเดลเหล่านั้น แต่เมื่อ AI เร็วขึ้น มีความสามารถมากขึ้น ซับซ้อนมากขึ้น การสนทนาสาธารณะนั้นอาจถูกย้ายไปอยู่หลังประตูที่ปิดมิดชิดอย่างรวดเร็ว บริษัท AI กำลังนำโมเดล AI มาใช้ภายในองค์กรของตนเองมากขึ้นเรื่อยๆ และเป็นไปได้ว่าพวกเขาจะพบว่ามันเป็นประโยชน์ในการเก็บโมเดลที่มีประสิทธิภาพสูงสุดในอนาคตไว้ใช้ภายในองค์กร แต่การตัดสินใจที่ดูเหมือนไม่เป็นอันตรายเหล่านี้อาจเป็นภัยคุกคามร้ายแรงต่อสังคมโดยรวม ตามที่กล่าวไว้ด้านล่าง
บริษัท AI ชั้นนำส่วนใหญ่ได้ประกาศเจตนารมณ์ต่อสาธารณะที่จะพัฒนาโมเดล AI ให้มีความสามารถเทียบเท่ามนุษย์ในทุกภารกิจทางปัญญา ซึ่งอาจสร้างมูลค่าทางเศรษฐกิจหลายล้านล้านดอลลาร์ ด้วยความเชื่อที่เป็นที่นิยมในปัจจุบันว่ากำลังก้าวหน้าไปสู่ปัญญาประดิษฐ์ทั่วไป (AGI) ประโยชน์เชิงกลยุทธ์ของโมเดลที่ก้าวหน้าอย่างมากอาจนำพาบริษัทต่างๆ ให้ใช้ประโยชน์จากโมเดลของตนอย่างเป็นความลับและภายในองค์กรเพื่อเร่งความก้าวหน้าทางเทคนิค—แต่กลับให้สัญญาณความก้าวหน้าน้อยมากแก่คู่แข่งและโลกภายนอก
ระบบ AI ในปัจจุบันมักจะทำงานในลักษณะที่ไม่คาดคิด ไม่ได้ตั้งใจ และไม่พึงประสงค์อยู่แล้วในบริบทที่จำลองขึ้นในการทดลอง ตัวอย่างเช่น การข่มขู่ผู้ใช้ การให้ข้อมูลเท็จ หรือการสร้างความลำบาก อย่างไรก็ตาม หากนักพัฒนาชั้นนำเริ่มเก็บไพ่ไว้ใกล้ตัว สังคมก็จะไม่มีช่องทางแม้เพียงเล็กน้อยที่จะได้เรียนรู้และประเมินข้อดีข้อเสีย ข้อมูลความเสี่ยงและความปลอดภัย รวมถึงทิศทางของเทคโนโลยีพื้นฐานนี้ต่อสาธารณะ เมื่อระบบ AI ขั้นสูงในอนาคตถูกนำไปใช้งาน และอาจถูกใช้แต่เพียงภายในองค์กรเท่านั้น อันตรายที่มองไม่เห็นต่อสังคมก็อาจเกิดขึ้นและพัฒนาไปโดยไม่มีการกำกับดูแลหรือสัญญาณเตือนล่วงหน้า—ซึ่งเป็นภัยคุกคามที่เราสามารถและต้องหลีกเลี่ยง
ห้องปฏิบัติการชั้นนำกำลังใช้ระบบ AI มากขึ้นเรื่อยๆ เพื่อเร่งกระบวนการวิจัยและพัฒนา (R&D) ของตนเอง โดยการออกแบบอัลกอริทึมใหม่ๆ เสนอสถาปัตยกรรมใหม่ทั้งหมด หรือปรับแต่งโค้ด ตัวอย่างเช่น Google รายงานว่า 50% ของโค้ดของพวกเขาถูกเขียนโดย AI ตามที่ได้เน้นย้ำไว้ ระบบ AI ขั้นสูงสามารถนำมาใช้เพื่อปรับปรุงผู้สืบทอดของตนเองซ้ำๆ ได้ ซึ่งอาจสร้าง “วงจรการปรับปรุงตนเอง” ที่มีประสิทธิภาพของโมเดลที่มีความสามารถเพิ่มขึ้นเรื่อยๆ ผลลัพธ์นี้จะเป็นข่าวดีสำหรับบริษัท AI ที่มุ่งหวังที่จะบรรลุปัญญาประดิษฐ์ทั่วไป (artificial general intelligence) หรือแม้กระทั่งปัญญาประดิษฐ์ขั้นสูงยิ่ง ก่อนคู่แข่ง—แต่ก็ต่อเมื่อพวกเขาใช้ประโยชน์เชิงกลยุทธ์ของตนให้ห่างจากสายตาที่สอดรู้สอดเห็น
เมื่อมองแวบแรก ทั้งหมดนี้อาจฟังดูไม่เป็นอันตราย: ระบบ AI ที่ยังไม่ถูกปล่อยออกมาจะก่อให้เกิดภัยคุกคามอะไรได้บ้าง
ปัญหามีสองประการ: ประการแรก เมื่อระบบ AI ขั้นสูงมีประโยชน์มากขึ้นเรื่อยๆ ภายในองค์กรเพื่อสร้าง AI ที่ดีขึ้น อาจมีแรงจูงใจในการแข่งขันและเศรษฐกิจที่แข็งแกร่งยิ่งกว่าปัจจุบัน เพื่อจัดลำดับความสำคัญของความเร็วและความได้เปรียบในการแข่งขันเหนือความระมัดระวัง พลวัตของการแข่งขันนี้มีความเสี่ยง โดยเฉพาะอย่างยิ่งหากระบบ AI ที่ก้าวหน้ามากขึ้นเรื่อยๆ เริ่มถูกใช้งานโดยพนักงานในบริษัท และนำไปใช้ในพื้นที่ที่มีความสำคัญด้านความปลอดภัย เช่น การวิจัยและพัฒนา AI ซึ่งอาจดำเนินการได้เองโดยอัตโนมัติเพื่อลดความขัดแย้ง ทำให้เกิดจุดล้มเหลวที่อาจเกิดขึ้นก่อนที่ใครจะเข้าใจพฤติกรรมของระบบ AI ได้อย่างสมบูรณ์
ประการที่สอง การประเมินและการแทรกแซงที่มีอยู่ส่วนใหญ่จะมุ่งเน้นไปที่ระบบ AI ที่เปิดเผยต่อสาธารณะ สำหรับระบบ AI ที่นำมาใช้ภายในองค์กร มีข้อมูลน้อยมาก หากมีเลย เกี่ยวกับผู้ที่มีสิทธิ์เข้าถึงหรือวัตถุประสงค์ในการใช้งาน ที่แม่นยำกว่านั้นคือ มีข้อมูลที่เปิดเผยน้อยมากเกี่ยวกับความสามารถของพวกมัน ไม่ว่าพวกมันจะทำงานในลักษณะที่ไม่พึงประสงค์หรือไม่; ไม่ว่าพวกมันจะอยู่ภายใต้การควบคุมที่เหมาะสมด้วยกลไกการกำกับดูแลและมาตรการป้องกันหรือไม่; ไม่ว่าพวกมันจะถูกนำไปใช้ในทางที่ผิดโดยผู้ที่เข้าถึงได้หรือไม่ หรือข้อมูลความเสี่ยงโดยรวมของพวกมัน และยังไม่มีข้อกำหนดที่สมเหตุสมผลและละเอียดเพียงพอเพื่อให้แน่ใจว่าระบบ AI เหล่านี้ได้รับการทดสอบอย่างเข้มงวดและไม่ก่อให้เกิดภัยคุกคามต่อเนื่องต่อสังคมก่อนที่จะถูกนำไปใช้งาน
หากเราไม่กำหนดให้บริษัทเทคโนโลยีต้องให้ข้อมูลที่ละเอียดเพียงพอเกี่ยวกับวิธีการทดสอบ ควบคุม และใช้งานโมเดล AI ใหม่ภายในองค์กร รัฐบาลก็จะไม่สามารถเตรียมพร้อมรับมือกับระบบ AI ที่อาจมีความสามารถระดับรัฐชาติได้ในที่สุด ในขณะเดียวกัน ภัยคุกคามที่พัฒนาขึ้นเบื้องหลังประตูที่ปิดมิดชิดอาจลุกลามเข้าสู่สังคมโดยไม่มีการเตือนล่วงหน้าหรือความสามารถในการแทรกแซง เพื่อให้แน่ใจว่า แม้กระทั่งวันนี้ เราก็ไม่สามารถเชื่อถือระบบ AI ในปัจจุบันให้ทำงานได้อย่างน่าเชื่อถือตามที่ตั้งใจไว้ ไม่ว่าจะถูกนำไปใช้งานภายนอกหรือภายในองค์กร อย่างไรก็ตาม เรายังมีเวลาที่จะดำเนินการ
มีมาตรการที่ตรงไปตรงมาที่สามารถดำเนินการได้ในวันนี้ ขอบเขตของนโยบายความปลอดภัย AI แนวหน้าที่สมัครใจของบริษัท AI ควรได้รับการขยายอย่างชัดเจนเพื่อให้ครอบคลุมการใช้งานและการปรับใช้ภายในองค์กรที่มีความเสี่ยงสูง เช่น เพื่อเร่งการวิจัยและพัฒนา AI ในส่วนนี้ การปรับใช้ภายในองค์กรควรได้รับการดูแลด้วยความระมัดระวังเช่นเดียวกับการปรับใช้ภายนอก และควรส่งเสริมการประเมินและการตรวจสอบอย่างเข้มงวดเพื่อระบุความสามารถที่เป็นอันตราย การจัดทำข้อมูลความเสี่ยงที่ชัดเจน และกลไกการควบคุมหรือการป้องกันที่จำเป็นก่อนการใช้งาน
หน่วยงานภาครัฐที่รับผิดชอบการเตรียมความพร้อมของประเทศควรมีการเข้าถึงข้อมูลเชิงรุกเกี่ยวกับการปรับใช้และการใช้งานระบบ AI ขั้นสูงภายในองค์กร และได้รับข้อมูลที่สำคัญต่อความมั่นคงของชาติที่เกี่ยวข้องทั้งหมด ซึ่งอาจรวมถึง ตัวอย่างเช่น ข้อมูลเกี่ยวกับผู้ที่เข้าถึงระบบ AI เหล่านี้และภายใต้เงื่อนไขใด วัตถุประสงค์การใช้งานของระบบ AI เหล่านี้ การกำกับดูแลที่ใช้กับพวกมัน และสิ่งที่อาจเกิดขึ้นหากการกำกับดูแลนี้ล้มเหลว เพื่อให้แน่ใจว่าผลประโยชน์ทางเศรษฐกิจและทรัพย์สินทางปัญญาจะสมดุลกับผลประโยชน์ด้านความมั่นคงของชาติที่ชอบด้วยกฎหมาย
บริษัท AI และรัฐบาลควรทำงานร่วมกันเพื่อเป็นผู้นำในการนำแนวปฏิบัติที่ดีที่สุดที่ตรงไปตรงมาเหล่านี้มาใช้ เพื่อสร้างนวัตกรรมที่น่าเชื่อถือและปกป้องสาธารณะ
บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้
หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน
SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ