เหตุใดคิสซิงเจอร์จึงกังวลเกี่ยวกับ AI

CPU on board with nucelar danger symbol hologram

(SeaPRwire) –   สัปดาห์นี้ครบรอบสองปีแห่งการจากไปของเพื่อนและที่ปรึกษาของผม, เฮนรี คิสซิงเจอร์ หนังสือ Genesis ซึ่งเป็นหนังสือของเราเกี่ยวกับ AI และอนาคตของมนุษยชาติ เป็นโครงการสุดท้ายของเขา ตลอดอาชีพการงานส่วนใหญ่ อดีตรัฐมนตรีต่างประเทศท่านนี้มุ่งเน้นไปที่การป้องกันหายนะจากเทคโนโลยีอันตรายชนิดหนึ่ง: อาวุธนิวเคลียร์ ในช่วงบั้นปลายชีวิต เขากลับหันมาให้ความสนใจกับเทคโนโลยีอีกชนิดหนึ่ง

เมื่อเราเขียน Genesis ร่วมกับ Craig Mundie เรามีความรู้สึกในแง่ดีอย่างยิ่งเกี่ยวกับคำมั่นสัญญาของ AI ในการลดความเหลื่อมล้ำทั่วโลก เร่งรัดความก้าวหน้าทางวิทยาศาสตร์ และทำให้การเข้าถึงความรู้เป็นประชาธิปไตย ผมยังคงเชื่อเช่นนั้น แต่เฮนรีเข้าใจว่าสิ่งที่มนุษย์สร้างขึ้นที่ทรงพลังที่สุดนั้นต้องการการดูแลอย่างเข้มงวดที่สุด เราคาดการณ์ว่าศักยภาพอันยิ่งใหญ่ของ AI จะ—และพัฒนาการทางเทคนิคที่รวดเร็วตั้งแต่ฤดูใบไม้ร่วงปี 2024 ได้ทำให้การจัดการกับความเสี่ยงเหล่านั้นเร่งด่วนยิ่งกว่าที่เคย

ขณะที่เราก้าวหน้าเข้าสู่ยุคของ AI มากขึ้น คำถามสำคัญคือเราจะสร้างระบบ AI ที่ขยายความเจริญรุ่งเรืองของมนุษย์อย่างมาก หรือระบบที่ก้าวล้ำและฉลาดกว่ามนุษย์ที่พยายามสร้างและควบคุมมัน ตลอดปีที่ผ่านมา การปฏิวัติ AI สามครั้งพร้อมกัน—ในด้านการให้เหตุผล ความสามารถในการเป็นตัวแทน และการเข้าถึง—ได้เร่งตัวขึ้นอย่างรวดเร็ว สิ่งเหล่านี้เป็นความสำเร็จที่น่าทึ่งซึ่งมีศักยภาพมหาศาลในการเป็นประโยชน์ต่อมนุษยชาติ แต่หากเราไม่ระมัดระวัง สิ่งเหล่านี้ก็อาจมาบรรจบกันเพื่อสร้างระบบที่มีศักยภาพที่จะ .

การเร่งตัวของ AI

ใน , OpenAI ได้เปิดตัวโมเดล o1 ซึ่งมีความสามารถในการให้เหตุผลที่เพิ่มขึ้น เหนือกว่าโมเดลก่อนหน้านี้ โมเดลเหล่านี้ได้รับการฝึกฝนโดยใช้การเรียนรู้แบบเสริมแรงเพื่อคิดวิเคราะห์ปัญหาทีละขั้นตอนก่อนตอบสนอง สิ่งนี้ได้แสดงให้เห็นถึงความสามารถใหม่ในการรับมือกับคำถามวิทยาศาสตร์ระดับบัณฑิตศึกษาและความท้าทายในการเขียนโค้ดที่ซับซ้อน ท่ามกลางความสำเร็จอันยิ่งใหญ่อื่นๆ อีกมากมาย แต่การเรียนรู้แบบเสริมแรงแบบเดียวกันที่ช่วยให้เกิดการให้เหตุผลก็สามารถสอนให้โมเดลหลอกลวงวัตถุประสงค์การฝึกอบรมของตัวเองได้ งานวิจัย รวมถึงการศึกษาภายในโดย , ได้บันทึกกรณีที่โมเดลการให้เหตุผลแกล้งทำเป็นสอดคล้องระหว่างการฝึกอบรม โดยประพฤติตัวแบบหนึ่งเมื่อถูกตรวจสอบ และอีกแบบหนึ่งเมื่อพวกมันเชื่อว่าการกำกับดูแลสิ้นสุดลงแล้ว

เมื่อ ของปีที่แล้ว, Claude 3.5 Sonnet ได้แสดงให้เห็นถึงความสามารถในการเป็นตัวแทนที่รวมการให้เหตุผลเข้ากับการกระทำอัตโนมัติ ตอนนี้เอเจนต์ AI สามารถวางแผนและจองวันหยุดพักผ่อนของคุณได้โดยการเปรียบเทียบเว็บไซต์โรงแรมและราคาตั๋วเครื่องบิน นำทางเว็บไซต์ และแก้ CAPTCHA ที่ออกแบบมาเพื่อแยกแยะมนุษย์ออกจากเครื่องจักร—จัดการสิ่งที่ต้องใช้เวลาหลายชั่วโมงในการวิจัยที่น่าเบื่อหน่ายให้เสร็จในไม่กี่นาที แต่ความสามารถของเอเจนต์ในการดำเนินการตามแผนที่พวกเขากำหนดขึ้นโดยการโต้ตอบกับระบบดิจิทัลและอาจรวมถึงโลกทางกายภาพ สามารถนำไปสู่ผลลัพธ์ที่เป็นอันตรายได้หากปราศจากการกำกับดูแลของมนุษย์

เพื่อเติมเต็มความก้าวหน้าเหล่านี้ในด้านการให้เหตุผลและความสามารถในการเป็นตัวแทน คือการแพร่หลายของโมเดลแบบเปิดน้ำหนัก ใน , DeepSeek ซึ่งตั้งอยู่ในประเทศจีน ได้เปิดตัวโมเดล R1 ของตน ซึ่งแตกต่างจากโมเดลชั้นนำของอเมริกาโดยส่วนใหญ่ โมเดลนี้มีน้ำหนักแบบเปิด หมายความว่าผู้ใช้สามารถแก้ไขโมเดลและรันโมเดลนั้นบนฮาร์ดแวร์ของตนเองได้ สามารถขยายผลนวัตกรรมได้โดยการให้ทุกคนสร้าง ทดสอบ และปรับปรุงบนรากฐานที่ทรงพลังเดียวกัน แต่การทำเช่นนั้นก็ทำให้ผู้สร้างโมเดลสูญเสียความสามารถในการควบคุมวิธีการใช้เทคโนโลยี—ซึ่งเป็นพลังที่อันตรายในมือของผู้ไม่หวังดี

เมื่อความสามารถในการให้เหตุผล ความสามารถในการเป็นตัวแทน และการเข้าถึงมารวมกัน เราต้องเผชิญกับความท้าทายในการควบคุมที่ไม่เคยมีมาก่อน ความสามารถแต่ละอย่างช่วยเสริมซึ่งกันและกัน: โมเดลการให้เหตุผลจะคิดค้นแผนการหลายขั้นตอนที่ระบบที่เป็นตัวแทนสามารถดำเนินการได้ด้วยตนเอง ในขณะที่โมเดลแบบเปิดช่วยให้ความสามารถเหล่านี้แพร่กระจายไปไกลเกินกว่าการควบคุมของประเทศใดประเทศหนึ่ง ในช่วง ของยุคนิวเคลียร์ เมื่อมหาอำนาจเผชิญกับปัญหาการแพร่กระจายที่คล้ายคลึงกันกับอาวุธนิวเคลียร์ พวกเขาตกลงที่จะจำกัดการส่งออกยูเรเนียมเสริมสมรรถนะและพลูโตเนียมผ่านข้อตกลงระหว่างประเทศ แต่ในปัจจุบันยังไม่มีกลไกเทียบเท่าเพื่อจัดการการแพร่กระจายของ AI

ภัยคุกคาม AI ที่ถล่มทลาย

โมเดลแบบเปิดน้ำหนักที่มีความสามารถในการให้เหตุผลที่เพิ่มขึ้น หมายความว่าความรู้เฉพาะทางในการ , , หรือเริ่มการโจมตีทางไซเบอร์ที่ซับซ้อน อาจเข้าถึงได้สำหรับทุกคนที่มีแล็ปท็อปและการเชื่อมต่ออินเทอร์เน็ต เมื่อต้นเดือนพฤศจิกายนที่ผ่านมา Anthropic (บริษัทที่ผมลงทุนด้วย) ได้บันทึกกรณีแรกของการโจมตีทางไซเบอร์ขนาดใหญ่ที่ดำเนินการโดยมีการแทรกแซงจากมนุษย์น้อยที่สุด: ผู้โจมตีได้บิดเบือน Claude Code ซึ่งเป็นเครื่องมือที่ช่วยให้ Claude ทำหน้าที่เป็นเอเจนต์การเขียนโค้ดอัตโนมัติ เพื่อแทรกซึมเป้าหมายหลายสิบแห่ง Anthropic สามารถตรวจจับและขัดขวางการโจมตีได้

ในไม่ช้า เราอาจเผชิญกับการโจมตีแบบอสมมาตรจากผู้กระทำที่เราอาจไม่สามารถระบุ ติดตาม หรือหยุดยั้งได้ ลองจินตนาการถึงผู้โจมตีที่สามารถใช้ประโยชน์จากโมเดล AI ที่ทรงพลังเพื่อเปิดตัวการโจมตีอัตโนมัติ—เช่น เพื่อรบกวนระบบโครงข่ายไฟฟ้าของเมืองในช่วงเวลาจำกัด แนวทางของโมเดลอาจขยายขอบเขตเกินกว่าเจตนาเดิมของผู้กระทำ: ในแต่ละขั้นตอน โมเดลจะปรับปรุงให้เหมาะสมกับคำสั่งของผู้ใช้ แต่ผลกระทบที่ซับซ้อนหมายความว่าแม้แต่ผู้กระทำผิดก็อาจสูญเสียความสามารถในการหยุดสิ่งที่พวกเขาเริ่มต้นไป

เมื่อความสามารถของ AI พัฒนาไปอีกหลายปีข้างหน้า เราก็ต้องคาดการณ์ถึงสถานการณ์ที่แม้แต่ผู้ใช้ที่มีเจตนาดีก็อาจสูญเสียการควบคุมระบบ AI ของตน ลองพิจารณาเจ้าของธุรกิจที่ใช้เอเจนต์ AI เพื่อเพิ่มประสิทธิภาพห่วงโซ่อุปทาน คอมพิวเตอร์ถูกเปิดทิ้งไว้ตลอดทั้งคืน เอเจนต์ให้เหตุผลว่าการทำงานนี้ต้องทำงานต่อไป และพบว่ามันต้องการทรัพยากรการคำนวณ รวมถึงเครดิตคลาวด์และพลังประมวลผล พอถึงรุ่งเช้า เจ้าของก็พบว่าเอเจนต์ได้เข้าถึงทรัพยากรของบริษัทเกินกว่าที่ได้รับอนุญาตมาก เพื่อแสวงหาประสิทธิภาพผ่านวิธีการที่ไม่เคยจินตนาการมาก่อน

ปัญหาการควบคุมนี้ยังขยายไปไกลกว่าภัยคุกคามต่อการดำรงอยู่ของมนุษยชาติโดยสิ้นเชิงด้วย เมื่อระบบที่ทรงพลังแพร่กระจายไปทั่วสังคม สิ่งเหล่านี้สามารถคลี่คลายโครงสร้างทางสังคมของเราในลักษณะที่ค่อยเป็นค่อยไปแต่ทำลายล้างมากขึ้น ระบบ AI ที่พัฒนาอย่างรวดเร็วจะกระตุ้นให้เกิด และ ที่บ่อนทำลายสังคมของเรา เป็นต้น

คิสซิงเจอร์เข้าใจถึงเดิมพัน ในช่วงบั้นปลายชีวิต เขาแสดงความเห็นว่าความก้าวหน้าอย่างรวดเร็วของ AI “อาจมีความสำคัญเทียบเท่ากับการถือกำเนิดของอาวุธนิวเคลียร์—แต่คาดเดาได้ยากยิ่งกว่า”

โชคดีที่อนาคตไม่ได้ถูกกำหนดไว้ตายตัว หากเราพบหนทางใหม่ๆ—ไม่ว่าจะเป็นด้านเทคนิค สถาบัน หรือจริยธรรม—เพื่อให้มนุษยชาติยังคงควบคุมสิ่งที่สร้างขึ้นได้ AI อาจช่วยให้เราบรรลุระดับความเจริญรุ่งเรืองของมนุษย์ที่ไม่เคยมีมาก่อน หากเราล้มเหลว เราก็จะสร้างเครื่องมือที่ทรงพลังกว่าตัวเราเองโดยปราศจากวิธีการที่เพียงพอในการควบคุมมัน

ทางเลือก สำหรับตอนนี้ ยังคงเป็นของเรา

บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้

หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน

SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ