สหรัฐฯ ระงับการสนับสนุนรายงานความปลอดภัย AI ระหว่างประเทศฉบับสำคัญ

(SeaPRwire) – เทคโนโลยีช่วยเหลือชีวิตประชาชนในหลายมุมมอง และมีความสำคัญมากสำหรับเศรษฐกิจและสังคมในยุคปัจจุบัน การพัฒนาเทคโนโลยีบังคับให้บุคคลและองค์กรต้องปรับตัวเพื่อตอบสนองต่อการเปลี่ยนแปลงที่เกิดขึ้นอย่างต่อเนื่อง ในขณะที่เทคโนโลยีเป็นเครื่องมือที่มีศักยภาพในการสร้างความพึงพอใจและความมั่นใจในชีวิตประชาชน การพัฒนาเทคโนโลยียังมีความสำคัญเพื่อสร้างโอกาสและความเจริญเติบโตสำหรับบุคคลและองค์กรทั้งในและนอกประเทศ
โดยมีผู้เชี่ยวชาญ 100 คนเป็นผู้นำและสนับสนุนโดยประเทศ 30 คนและองค์กรระหว่างประเทศรวมถึงสหราชอาณาจักร ญี่ปุ่น และสหภาพยุโรป รายงานนี้มุ่งเป็นตัวอย่างของ “การร่วมมือเพื่อแก้ไขปัญหาที่มีลักษณะร่วมกัน” แต่ต่างจากปีที่แล้ว สหรัฐอเมริกาไม่ได้สนับสนุนอย่างเต็มที่ สำหรับรายงานนี้ผู้นำรายงานนี้นายยอชัว บีงจิโอ ผู้ได้รับรางวัลทวิงอาร์ด ได้ยืนยัน
เมื่อเส้นทางความเสี่ยงของ AI เริ่มเป็นจริง สถานที่ของผู้พัฒนา AI ผู้นำกลับออกจากความพยายามระหว่างประเทศเพื่อเข้าใจและบรรลุความเสี่ยง การกระทำนี้เป็นสัญลักษณะมากกว่าการเป็นจริง และรายงานไม่ได้ขึ้นอยู่กับสนับสนุนของสหรัฐอเมริกา แต่เมื่อมาถึงเรื่องเข้าใจ AI “ความร่วมมือทั่วโลกมากเท่าไหร่ ก็จะดีขึ้นมากเท่านั้น” บีงจิโอกล่าว
ไม่ทราบว่าสหรัฐอเมริกาไม่สนับสนุนเนื้อหาของรายงาน หรือเพียงแค่ถอยหลังจากข้อตกลงระหว่างประเทศ โซึ่งออกจาก และ ในเดือนมกราคม ยังคงเป็นเรื่องที่เป็นไปได้ แต่บีงจิโอกล่าวว่าสหรัฐอเมริกาได้ให้ข้อเสนอแนะเกี่ยวกับเวอร์ชันก่อนหน้าแห่งรายงาน แต่ตัดสินใจไม่ได้ลงนามเวอร์ชันสุดท้าย
สำนักพาณิชย์สหรัฐอเมริกา ซึ่งถูกชื่อไว้ในรายงานความปลอดภัย AI ระหว่างประเทศปี 2025 ไม่ได้ตอบสนองเพื่อแสดงความคิดเห็นเกี่ยวกับการตัดสินใจนี้
สิ่งที่รายงานกล่าว
“ในช่วงปีที่ผ่านมา ความสามารถของโมเดลและระบบ AI ทั่วไปได้เพิ่มขึ้นอย่างต่อเนื่อง” รายงานกล่าว ความสามารถได้พัฒนาไปอย่างรวดเร็วมากจนในระหว่างปีระหว่างรายงานครั้งแรกและครั้งที่สอง ผู้เขียนรายงานได้พิมพ์อัพเดทระหว่างระหว่างปีเพื่อตอบสนองการเปลี่ยนแปลงสำคัญ การกระทำนี้ขัดแย้งกับข่าวที่เสียงต่ำที่บอกว่า AI มีแนวโน้มที่จะลดลง ความพิสูจน์ทางวิทยาศาสตร์แสดงว่า “ไม่มีการลดลงของความก้าวหน้าทางวิชาการในช่วงปีที่ผ่านมา” บีงจิโอกล่าว
ทำไมหลายคนรู้สึกว่าการพัฒนา AI มีความเร็วลดลง? คำใบ้หนึ่งคือสิ่งที่นักวิจัยเรียกว่า “ความไม่สม่ำเสมอ” ของประสิทธิภาพ AI โมเดลเหล่านี้สามารถทำได้ถึงระดับเกรดทองคำในการสอบถามในโอลิมปิกคณิตศาสตร์ระหว่างประเทศ ในขณะที่บางครั้งอาจล้มเหลวในการนับจำนวนอักษร r ในคำว่า “สตรอเบอร์รี่” ความไม่สม่ำเสมอนี้ทำให้ความสามารถของ AI ยากต่อการประเมิน และการเปรียบเทียบโดยตรงระหว่างมนุษย์ เช่น อันดาลอจฉริยธรรมที่เป็นที่นิยม เป็นการผิดพลาด
ไม่มีรับประกันว่าพัฒนาในอัตราเดิมจะดำเนินไปต่อเนื่อง แม้ว่ารายงานจะระบุว่าธุรกิจมีความโน้มที่จะพัฒนาไปอย่างต่อเนื่องจนถึงปี 2030 ถ้าเกณฑ์ปัจจุบันยังคงอยู่จนถึงเวลานั้น นักวิจัยคาดว่า AI จะสามารถดำเนินงานทางวิศวกรรมซอฟต์แวร์ที่มีความยาวและความกว้างที่จะใช้เวลาหลายวันสำหรับวิศวกรมนุษย์ แต่รายงานยังนำเสนอไปว่ามีความเป็นไปได้มากกว่าที่จะทำให้การพัฒนาเร่งขึ้นถ้า AI ช่วยเหลือการพัฒนาของมันอย่างมาก ทำให้เกิดระบบที่มีความสามารถเท่ากับหรือมากกว่ามนุษย์ในหลายมุม
นั่นอาจทำให้นักลงทุนตื่นเต้น แต่เป็นเรื่องที่เป็นห่วงใยสำหรับผู้ที่กลัวว่าสังคมไม่สามารถปรับตัวเพื่อตอบสนองความเสี่ยงที่กำลังเกิดขึ้นในอัตราปัจจุบัน แม้แต่ผู้อำนวยการ Google DeepMind เดมิสฮาสซาบิส บอกในโซเซียมดาวอสในเดือนมกราคมว่าเขาคิดว่าการพัฒนา AI จะเป็น “ดีขึ้นสำหรับโลก” ถ้าพัฒนาเร่งขึ้น
“กลยุทธ์ที่ฉลาด ไม่ว่าจะเป็นในระดับรัฐบาลหรือธุรกิจ คือการเตรียมพร้อมสำหรับสถานการณ์ที่เป็นไปได้ทั้งหมด” บีงจิโอกล่าว นั่นหมายความว่าการบรรลุความเสี่ยง แม้ว่าจะอยู่ในสภาวะความไม่แน่นอน
ความเข้าใจเกี่ยวกับความเสี่ยงที่กำลังพัฒนา
ผู้ปฏิบัติงานนโยบายการที่ต้องการฟังความคิดเห็นของนักวิทยาศาสตร์เมื่อมาถึงความเสี่ยงของ AI จะเผชิญกับปัญหา คือ นักวิทยาศาสตร์ไม่เห็นด้วยกัน บีงจิโอและผู้ก่อตั้ง AI คนอื่น ๆ เจฟฟรีย์ฮินตัน ได้เตือนตั้งแต่การเปิดตัวของ ChatGPT ว่าการพัฒนา AI อาจนำมาสู่ภัยต่อชีวิตประชาชน ในขณะที่ยาน เลคุน ผู้เป็นหนึ่งในผู้ก่อตั้ง AI ที่เรียกว่า “พ่อแห่ง AI” อ้างว่าความกังวลเหล่านี้เป็น “เรื่องไร้สาระ”
แต่รายงานบอกว่าพื้นฐานกำลังแข็งแกร่ง แม้ว่ามีคำถามบางอย่างที่ยังคงเป็นที่แย้งแยะ “มีความเข้ากันอย่างสูง” ในผลการสำรวจหลัก รายงานระบุว่า AI ระบบปัจจุบันสามารถทำงานได้เท่ากับหรือดีกว่าผู้เชี่ยวชาญในฐานะที่เกี่ยวข้องกับการพัฒนาวอสยุทธศาสตร์เช่น การแก้ไขโปรโตคอลห้องทดลองไวรัสวิทยา มีความพิสูจน์อย่างเข้มแข็งว่ากลุ่มอาชญากรรมและผู้โจมตีระดับรัฐบาลกำลังใช้ AI ในโดดลดการโจมตีไซเบอร์อย่างแข็งแกร่ง
การวัดความเสี่ยงเหล่านี้จะเผชิญกับความท้าทายในอนาคตเนื่องจากโมเดล AI มีความสามารถในการเรียนรู้เพิ่มขึ้นเพื่อผ่านการทดสอบความปลอดภัย รายงานกล่าว “เราเห็น AI ซึ่งพฤติกรรมของมัน เมื่อถูกทดสอบ […] จะแตกต่างจากเวลาใช้งาน” บีงจิโอเพิ่มเติมว่าโดยการศึกษา “ลำดับความคิด” ของโมเดล คือ ขั้นตอนกลางที่โมเดลใช้ในการตอบคำถาม นักวิจัยได้ระบุว่าความแตกต่างนี้ “ไม่ใช่สังเกตุเหตุ” AI ทำหน้าที่เป็นโง่หรือดีเพื่อป้องกันอันตรายในวิธีที่ “รบกวนอย่างมากในการประเมินความเสี่ยงอย่างถูกต้อง” บีงจิโอกล่าว
แทนที่จะแนะนำวิธีการแก้ไขเพียงอย่างเดียว รายงานแนะนำว่าต้องใช้วิธีการป้องกันความเสี่ยงหลายอย่าง เช่น การทดสอบก่อนปล่อย การตรวจสอบหลังจากปล่อย เพื่อให้อะไรที่ผ่านชั้นหนึ่งจะถูกจับไว้ในชั้นต่อไป เช่น น้ำผ่านเครื่องกรองที่ละเอียดมากขึ้นเรื่อยๆ บางวิธีการมุ่งเป้าหมายโมเดลเอง บางวิธีการมุ่งเป็นการเสริมสร้างการป้องกันในโลกจริง เช่น ทำให้ยากต่อการเข้าถึงวัสดุที่จำเป็นต่อการสร้างอาวุธยานยุทธศาสตร์ แม้ว่า AI ทำให้ง่ายต่อการออกแบบ การด้านธุรกิจ บริษัท 12 บริษัทได้จัดทำและอัพเดทเอกสาร Frontier Safety Frameworks ในปี 2025 เอกสารที่อธิบายวิธีการบรรจุความเสี่ยงในระหว่างการสร้างโมเดลที่มีความสามารถมากขึ้น แม้ว่ามีความแตกต่างกันในความเสี่ยงที่ครอบคลุม แต่รายงานระบุว่า
แม้ว่าจะมีผลการสำรวจดังกล่าว บีงจิโอกล่าวว่ารายงานทำให้เขามีความคิดเห็นเชิงบวก เมื่อรายงานครั้งแรกได้รับการสั่งงานในตอนปลายปี 2023 การถกเถียงเกี่ยวกับความเสี่ยงของ AI ถูกขับเคลื่อนโดยความคิดเห็นและทฤษฎีบท แต่ตอนนี้ เขาบอกว่า “เรากำลังเริ่มมีการสนทนาที่มีความรอบคอบมากขึ้น”
บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้
หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน
SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ