นโยบาย AI ต้าน ‘Woke’ ของทรัมป์ ทำให้ชีวิตผู้ป่วยตกอยู่ในความเสี่ยง

(SeaPRwire) – เมื่อวันที่ 23 กรกฎาคม ประธานาธิบดี Donald Trump ได้ลงนามในกฎหมายที่มีชื่อว่า “Preventing Woke AI in the Federal Government Act” ซึ่งเป็นการตอบโต้ในสงครามวัฒนธรรมทางการเมืองที่ดำเนินอยู่ และเป็นความพยายามที่จะลดทอนคำศัพท์อย่าง ความหลากหลาย, ความเท่าเทียม, การมีส่วนร่วม (diversity, equity, inclusion – DEI) และยกเลิกการทำงานของผู้ที่แก้ไขปัญหาการเหยียดเชื้อชาติในระบบปัญญาประดิษฐ์ของรัฐบาลกลาง
แต่สำหรับพวกเราที่อยู่ในวงการแพทย์ โดยเฉพาะผู้ที่สนับสนุนความเท่าเทียมทางสุขภาพ นี่ไม่ใช่แค่ท่าทีทางการเมือง คำสั่งนี้คุกคามชีวิต เป็นการทำลายการทำงานหลายปีเพื่อระบุและแก้ไขอคติเชิงโครงสร้างที่ทำร้ายชุมชนชายขอบมานาน โดยเฉพาะชาวอเมริกันผิวดำ
AI กำลังเปลี่ยนแปลงทุกสิ่ง มันถูกใช้เพื่อคัดกรองผู้ป่วยในห้องฉุกเฉิน จัดลำดับความสำคัญของการดูแลติดตามผล และคาดการณ์ความเสี่ยงของโรค แต่อัลกอริทึมเหล่านี้ไม่ได้เกิดขึ้นจากพื้นที่ที่เป็นกลาง พวกเขาได้รับการฝึกฝนจากข้อมูลในโลกแห่งความเป็นจริง ข้อมูลที่ไม่มีความเป็นกลาง
การปกป้องความถูกต้องทางการแพทย์
หนึ่งในตัวอย่างที่โดดเด่นที่สุดมาจากการศึกษาในปี 2019 ที่ตีพิมพ์ใน Science โดยนักวิจัยจาก UC Berkeley และ University of Chicago พวกเขาตรวจสอบอัลกอริทึมการดูแลสุขภาพเชิงพาณิชย์ที่ใช้กันอย่างแพร่หลาย ซึ่งออกแบบมาเพื่อติดธงผู้ป่วยสำหรับการจัดการดูแลที่มีความเสี่ยงสูง เมื่อมองเผินๆ มันดูเหมือนเป็นกลางและขับเคลื่อนด้วยข้อมูล แต่นักวิจัยค้นพบว่าอัลกอริทึมไม่ได้ประเมินความต้องการทางคลินิกเลย แต่กลับใช้ตัวแทนโดยปริยาย: จำนวนเงินที่เคยใช้ในการดูแลผู้ป่วย
เนื่องจากผู้ป่วยผิวดำมักได้รับการดูแลน้อยกว่า แม้ว่าจะแสดงอาการเดียวกัน ตัวแทนการใช้จ่ายนั้นทำให้อัลกอริทึมประเมินความต้องการของพวกเขาต่ำกว่าความเป็นจริงอย่างมาก ในขณะที่ผู้ป่วยผิวดำเกือบ 46.5% ควรถูกตั้งค่าสถานะสำหรับการดูแลเพิ่มเติม แต่อัลกอริทึมระบุเพียง 17.7% นั่นไม่ใช่เชิงอรรถทางสถิติ นั่นคือระบบที่ได้รับการสอนให้มองข้ามไป
นี่ไม่ใช่กรณีที่เกิดขึ้นโดดเดี่ยว พิจารณาอัลกอริทึมที่ปรับตามเชื้อชาติอีกสองรายการที่ยังคงใช้อยู่ในปัจจุบัน:
การทำงานของไต ซึ่งคำนวณโดยใช้สมการ Glomerular Filtration Rate (GFR) มี “ปัจจัยแก้ไข” สำหรับผู้ป่วยผิวดำมานาน โดยอิงจากสมมติฐานที่ไม่เป็นวิทยาศาสตร์เกี่ยวกับมวลกล้ามเนื้อ นักวิจัยพบซ้ำๆ ว่าการปรับนี้ทำให้คะแนนไตสูงขึ้น ซึ่งหมายความว่าผู้ป่วยผิวดำจำนวนมากถูกตัดสินว่าไม่มีสิทธิ์ได้รับการปลูกถ่าย หรือได้รับการดูแลเฉพาะทางล่าช้า
และการทดสอบการทำงานของปอด (Pulmonary Function Tests – PFTs) ที่ใช้ในการวินิจฉัยโรคหอบหืดและโรคปอด มักใช้การแก้ไขตามเชื้อชาติซึ่งถือว่าคนผิวดำมีความจุของปอดต่ำกว่าโดยธรรมชาติ ซึ่งจะลดเกณฑ์การตรวจจับและนำไปสู่การวินิจฉัยที่ต่ำกว่าความเป็นจริง
สิ่งเหล่านี้ไม่ใช่แค่สิ่งประดิษฐ์ทางประวัติศาสตร์ แต่เป็นตัวอย่างของวิธีการที่การเหยียดเชื้อชาติสามารถฝังอยู่ในโค้ดได้อย่างไร อย่างเงียบๆ อย่างแพร่หลาย และอย่างร้ายกาจ
ในช่วงไม่กี่ปีที่ผ่านมา แพทย์และนักวิจัยเช่นฉันได้ผลักดันกลับ โรงพยาบาลหลายแห่งกำลังลบการแก้ไขตามเชื้อชาติออกจากสมการทางการแพทย์ เครื่องมือ AI ที่เน้นความเสมอภาคกำลังถูกพัฒนาขึ้นเพื่อตรวจจับและบรรเทาความเหลื่อมล้ำ ไม่ใช่เพิกเฉยต่อพวกเขา งานนี้ไม่ได้เกี่ยวกับการ “ตื่นรู้” แต่เกี่ยวกับการมีความถูกต้อง ปรับปรุงผลลัพธ์ และช่วยชีวิต
อันตรายจากสงครามวัฒนธรรมต่อต้านความตื่นรู้ของ Trump
คำสั่งของผู้บริหาร Trump ขู่ว่าจะปิดการทำงานที่สำคัญที่ได้ทำไปเพื่อให้การทางการแพทย์อัลกอริทึมมีความแม่นยำมากขึ้น
โดยการห้ามไม่ให้หน่วยงานของรัฐบาลกลางพิจารณาการเหยียดเชื้อชาติหรือความเท่าเทียมกันในการพัฒนา AI คำสั่งนี้มีผลบังคับใช้ในการห้ามความพยายามที่จำเป็นในการแก้ไขปัญหาเหล่านี้ มันปิดปากนักวิทยาศาสตร์ข้อมูลที่พยายามสร้างและส่งเสริมระบบที่เป็นธรรมยิ่งขึ้น มันบอกเราว่าการตั้งชื่อความไม่เท่าเทียมนั้นแย่กว่าการทำให้มันคงอยู่ต่อไป
ผู้สนับสนุนคำสั่งอ้างว่ามันส่งเสริม “ความเป็นกลาง” แต่ความเป็นกลาง ในระบบที่สร้างขึ้นบนความไม่เท่าเทียม ไม่ใช่ความยุติธรรม มันคือการเสริมสร้างอคติที่มันแสร้งทำเป็นมองข้าม
อันตรายไม่ใช่เรื่องสมมติ ผู้ป่วยผิวดำมีโอกาสน้อยกว่าที่จะได้รับข้อเสนอ , มีแนวโน้มที่จะ และมีแนวโน้มที่จะ จากสภาวะที่ป้องกันได้ AI ที่ออกแบบอย่างมีจริยธรรมสามารถช่วยเปิดเผยความเหลื่อมล้ำเหล่านี้ได้เร็วกว่า แต่ถ้าเราได้รับอนุญาตให้สร้างมันในลักษณะนั้น
และอคติใน AI ไม่ได้ทำร้ายแค่ชุมชนคนผิวดำ เทคโนโลยี มี อัตราความผิดพลาดในการระบุตัวผู้หญิงและคนผิวสีสูงกว่าผู้ชายผิวขาว ในกรณีหนึ่ง อัลกอริทึมที่ใช้ในการจ้างงานลดระดับเรซูเม่ของผู้หญิงอย่างเป็นระบบ ในอีกกรณีหนึ่ง เครื่องมือดูแลสุขภาพประเมินความเสี่ยงของโรคหัวใจในผู้หญิงต่ำเกินไป เพราะข้อมูลในอดีตวินิจฉัยพวกเขาน้อยเกินไป นี่คือวิธีการที่ความไม่เท่าเทียมกันจำลองแบบ อินพุตที่มีอคติกลายเป็นการตัดสินใจอัตโนมัติโดยไม่มีการตรวจสอบหรือบริบท
การลบ DEI ออกจาก AI ไม่ได้เกี่ยวกับความเป็นกลาง มันเกี่ยวกับการเลือกความทรงจำ มันเป็นความพยายามที่จะลบล้างภาษาที่เราต้องการเพื่อวินิจฉัยปัญหา ไม่ต้องพูดถึงการแก้ไขมัน หากเราบังคับให้ AI เพิกเฉยต่อประวัติศาสตร์ มันจะเขียนมันใหม่ ไม่ใช่แค่ข้อเท็จจริง แต่เป็นผู้คนที่ข้อเท็จจริงเหล่านั้นเป็นตัวแทน
คำสั่งของผู้บริหาร Trump ทำให้ AI เป็นเครื่องมือทางการเมือง และสำหรับชาวอเมริกันหลายล้านคนที่ระบบกฎหมาย การแพทย์ และเทคโนโลยีของเรามองไม่เห็นอยู่แล้ว ต้นทุนจะถูกวัดเป็นชีวิต
บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้
หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน
SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ
“`