ผู้ป่วยกลุ่มน้อยมักถูกทิ้งโดย Health AI


ในขณะที่โฆษณาเกินจริงได้ลดลงอย่างหลีกเลี่ยงไม่ได้ในช่วงไม่กี่ปีที่ผ่านมาเนื่องจากความท้าทายที่มีอยู่ในภาคส่วนการดูแลสุขภาพได้เติบโตขึ้น แต่ความต้องการที่จะเห็นข้อมูลและ AI ที่ใช้ในการเปลี่ยนวิธีที่เราได้รับการดูแลสุขภาพยังคงมีอยู่สูง

การวิจัยจากมหาวิทยาลัยมิชิแกนเตือนเราว่าวิธีการดังกล่าวมีความแข็งแกร่งพอๆ กับข้อมูลที่อยู่เบื้องหลังเท่านั้น และนั่นอาจทำให้ผู้ป่วยส่วนน้อยหยุดนิ่งและนำไปสู่ความไม่เท่าเทียมทางสุขภาพที่เพิ่มมากขึ้น เนื่องจากข้อมูลที่ใช้ในการฝึกอบรมระบบ AI ไม่ได้เป็นตัวแทนของประชากรที่หลากหลายหรือสะท้อนถึงการดูแลที่ไม่เท่าเทียมกันอยู่แล้ว

ดูแลไม่เท่ากัน

ความไม่เท่าเทียมกันด้านสุขภาพยังคงเป็นประเด็นเร่งด่วน ซึ่งทีมนักวิจัยของเคมบริดจ์เพิ่งเรียกร้องให้รัฐบาลสหราชอาณาจักรอย่ายอมแพ้ต่อความปรารถนาที่จะลดความเหลื่อมล้ำทางสุขภาพทั่วประเทศ ซึ่งปรากฏให้เห็นอย่างชัดเจนในช่วงการระบาดของโควิด

ตัวอย่างเช่น งานวิจัยจาก Imperial College London พบว่าผู้ด้อยโอกาสและคนชายขอบต้องเผชิญกับความไม่เท่าเทียมทางสุขภาพที่แย่กว่าปกติ ซึ่งเป็นผลมาจากการเลือกโรงพยาบาลเพื่อรับมือกับการแพร่ระบาด ข้อจำกัดในบริการที่ไม่เร่งด่วนเพื่อเพิ่มทรัพยากรสำหรับโควิด-19 กำลังมีผลกระทบอย่างมากในด้านต่างๆ เช่น สุขภาพทางเพศ นรีเวชวิทยา และกุมารเวชศาสตร์

ยิ่งไปกว่านั้น จำนวนการเข้ารับบริการแผนกฉุกเฉินที่ลดลงซึ่งลดลงถึง 44% ในช่วงเดือนมีนาคม 2020 ส่งผลกระทบต่อกลุ่มคนที่เปราะบางอย่างไม่เป็นสัดส่วน ซึ่งมักใช้แผนกเหล่านี้ในการดูแลตามปกติเนื่องจากประสบปัญหาในการเข้าถึงเวชปฏิบัติทั่วไปและบริการชุมชน

อคติฝังตัว

การวิจัยของมิชิแกนแสดงให้เห็นว่าอคติที่แฝงมากับประชากรส่วนน้อยสามารถทำให้เรื่องแย่ลงได้อย่างไร พวกเขาพบว่าอคติที่มีอยู่แล้วในสังคมสามารถรับประกันได้ว่ากลุ่มชนกลุ่มน้อยจะไม่เป็นตัวแทนที่ดีในโครงการที่ช่วยฝึกอบรมระบบที่ใช้ AI สิ่งนี้สะท้อนให้เห็นในการศึกษาก่อนหน้านี้ ซึ่งแสดงให้เห็นว่ามีอัตราความยินยอมที่แตกต่างกันมากใน Michigan Genomics Initiative สำหรับสมาชิกของชนกลุ่มน้อยต่างๆ

ความลำเอียงนี้สามารถเกิดขึ้นได้ในมิติที่เป็นวัฏจักร โดยการคัดเลือกมักจะไม่เพียงพอที่จะเริ่มต้น ซึ่งส่งผลให้การมีส่วนร่วมลดลงและการรับรู้ว่าผู้ป่วยจากกลุ่มชนกลุ่มน้อยไม่สนใจในการวิจัย ดังนั้นวงจรจึงดำเนินต่อไป เสริมความแข็งแกร่งด้วยการย้ำแต่ละครั้ง รูปแบบนี้สามารถสังเกตได้ใน AI ทางการแพทย์

เพื่อให้ระบบ AI ได้รับการฝึกอบรมเกี่ยวกับข้อมูลที่สะท้อนถึงอคติที่ฝังรากลึกมานานหลายทศวรรษในรูปแบบการดูแลที่ผู้คนได้รับควบคู่ไปกับข้อมูลที่เป็นตัวแทนที่ไม่ดีดังที่กล่าวถึงก่อนหน้านี้ หมายความว่าระบบ AI กำลังเรียนรู้จากข้อมูลที่บิดเบี้ยวและมีอคติอย่างมาก จากนั้นระบบจะใช้รูปแบบที่มีอคติเหล่านี้เพื่อคาดการณ์และแนะนำ ดังนั้นการคาดการณ์และคำแนะนำที่เหมือนกันเหล่านั้นจึงมีแนวโน้มที่จะเบ้และเอนเอียงเช่นกัน สิ่งนี้ประกอบเพิ่มเติมด้วยการตอบสนองเชิงลบต่อคำแนะนำเหล่านั้นจากผู้ป่วย และดังนั้นวัฏจักรนี้จึงดำเนินต่อไป

นักวิจัยหวังว่าพวกเขาจะได้รับความเข้าใจที่ดีขึ้นว่าความไม่เท่าเทียมกันด้านสุขภาพและการกีดกันสามารถกลายเป็นการเสริมกำลังตนเอง โดยเฉพาะอย่างยิ่งเมื่อเราเริ่มทำงานกับข้อมูลการวิจัยและระบบ AI ที่เกี่ยวข้องกับการดูแลสุขภาพ แม้ว่าจะมีเครื่องมือและแนวทางต่างๆ มากมายในการพยายามแก้ไขชุดข้อมูลที่เอนเอียง แต่สิ่งเหล่านี้ไม่มีการรับประกันอย่างแน่นอน และเจ้าหน้าที่จำเป็นต้องคำนึงถึงศักยภาพของผลลัพธ์ที่มีอคติอยู่เสมอ

สิ่งสำคัญสำหรับเจ้าหน้าที่ก็คือต้องเข้าใจว่าวัฏจักรนี้เสริมกำลังตนเองอย่างไร เนื่องจากระบบ AI มักจะเรียนรู้จากข้อมูลที่สร้างขึ้นต่อไป ดังนั้นหากพวกเขายังคงสร้างผลลัพธ์ที่มีอคติ ระบบก็จะป้อนกลับเข้าสู่การเรียนรู้อย่างต่อเนื่องของระบบ อันที่จริง นักวิจัยในมิชิแกนแนะนำว่า แม้ว่าแพทย์เองจะไม่เอนเอียง หากพวกเขากำลังทำงานกับเทคโนโลยีที่ได้รับการฝึกอบรมโดยใช้ข้อมูลที่มีอคติ พวกเขาค่อนข้างจะตัดสินใจด้วยอคติ

เพื่อที่จะแก้ไขปัญหานี้ นักวิจัยเชื่อว่าสิ่งสำคัญคือเจ้าหน้าที่ต้องเข้าใจอย่างถ่องแท้ถึงพลวัตการเสริมแรงที่ซับซ้อนในที่ทำงาน หากพวกเขามุ่งความสนใจไปที่ส่วนใดส่วนหนึ่งของระบบหรือความลำเอียงอย่างใดอย่างหนึ่งเพียงอย่างเดียว ก็ไม่น่าจะได้ผล

การลบอคติ

การศึกษาล่าสุดของ Yale แสดงให้เห็นการมองโลกในแง่ดีในระดับหนึ่งว่าอาจพบวิธีแก้ปัญหา แนวทางนี้ทำให้มั่นใจได้ว่าข้อมูลที่ละเอียดอ่อนจะถูกรวมไว้เมื่อฝึกอัลกอริทึม แต่จะถูกปกปิดเมื่อใช้งานจริง พวกเขาเชื่อว่าวิธีการรักษาความถูกต้องของระบบในขณะที่ลดการเลือกปฏิบัติในระบบ

วิธีการทำงานในสองขั้นตอน ข้อมูลแรกใช้ข้อมูลการฝึกอบรมเพื่อช่วยให้อัลกอริทึมเรียนรู้ว่าแอตทริบิวต์เฉพาะเชื่อมโยงกับผลลัพธ์แต่ละรายการอย่างไร อัลกอริทึมจะได้รับข้อมูลเกี่ยวกับกรณีใหม่ ๆ และพยายามคาดการณ์ว่าจะเกิดอะไรขึ้นโดยอิงจากความคล้ายคลึงกันกับกรณีก่อนหน้านี้

นักวิจัยอธิบายว่าการลบข้อมูลที่ละเอียดอ่อนออกจากข้อมูลการฝึกอบรมอาจส่งผลให้เกิดการเลือกปฏิบัติที่แฝงอยู่ พวกเขาต้องคิดหาวิธีอื่นเพื่อลดอคติในระบบ วิธีหนึ่งที่พวกเขาพิจารณาคือการเพิ่มคะแนนของผู้คนจากกลุ่มผู้ด้อยโอกาส แต่สิ่งนี้ส่งผลให้คนสองคนที่เหมือนกันนอกเหนือจากเชื้อชาติหรือเพศของพวกเขาได้รับคะแนนที่แตกต่างกัน ซึ่งมักจะสร้างผลสะท้อนกลับ

วิธีการสุดท้ายที่ตัดสินใจเรียกว่า “ฝึกแล้วสวมหน้ากาก” มันเกี่ยวข้องกับระบบที่ได้รับข้อมูลทั้งหมดเกี่ยวกับคดีที่ผ่านมาในระหว่างขั้นตอนการฝึกอบรม รวมถึงข้อมูลที่ละเอียดอ่อนใดๆ วิธีการนี้หมายความว่าอัลกอริทึมไม่ได้ให้ความสำคัญอย่างไม่ถูกต้องกับปัจจัยที่ไม่เกี่ยวข้อง และยังสามารถใช้เป็นพร็อกซีสำหรับคุณลักษณะที่มีความละเอียดอ่อนมากขึ้นได้

จากนั้นจึงซ่อนคุณลักษณะที่ละเอียดอ่อนในขั้นตอนที่สอง เพื่อให้กรณีใหม่ทั้งหมดได้รับค่าเดียวกันสำหรับคุณลักษณะเหล่านี้ สิ่งนี้จะบังคับให้ระบบมองข้ามทั้งเชื้อชาติตัวเองและผู้รับมอบฉันทะสำหรับการแข่งขันเมื่อเปรียบเทียบบุคคล

ระบบสามารถให้ผลลัพธ์ที่แม่นยำเท่ากับอัลกอริทึมที่ไม่มีข้อจำกัด หรือผลลัพธ์ที่ไม่ได้รับการปรับเปลี่ยนเพื่อลดความไม่ยุติธรรม นักวิจัยยังเชื่อว่าวิธีการนี้ช่วยลดสิ่งที่พวกเขาเรียกว่า “ความไม่ยุติธรรมสองเท่า” ซึ่งคนจากกลุ่มชนกลุ่มน้อยทำงานได้ดีกว่าคนจากกลุ่มส่วนใหญ่ในตัวชี้วัดบางอย่าง

การหาความไม่เท่าเทียมกันทางสุขภาพ

แน่นอน แม้ว่า AI ด้านสุขภาพจะมีปัญหามากมายที่ต้องแก้ไขในแง่ของการแก้ไขความไม่เท่าเทียมกันด้านสุขภาพ แต่ก็สามารถใช้เพื่อทำความเข้าใจว่าช่องว่างอยู่ตรงไหน นี่คือบทสรุปของการวิจัยจากมหาวิทยาลัยวอชิงตัน ซึ่งสำรวจว่าข้อมูลสามารถช่วยระบุช่องว่างในการให้บริการด้านสุขภาพในพื้นที่ชนบทได้ดีขึ้นได้อย่างไร

พวกเขาตรวจสอบสถานการณ์ข้อมูลสุขภาพใน 4 รัฐทางตะวันตกเฉียงเหนือของสหรัฐอเมริกา โดยมีเป้าหมายสูงสุดในการช่วยให้ชุมชนใช้ข้อมูลได้ดีขึ้นเพื่อจัดการกับความไม่เท่าเทียมกันด้านสุขภาพ

“ชุมชนชนบทในวอชิงตัน โอเรกอน ไอดาโฮ และอลาสกาเผชิญกับความยากจนสูง และเป็นที่อยู่อาศัยของประชากรจำนวนมากที่เป็นชนพื้นเมืองอะแลสกา ชนพื้นเมืองอเมริกัน ลาติน และผู้อยู่อาศัยอื่นๆ ซึ่งมักถูกกีดกันและได้รับผลกระทบจากความไม่เท่าเทียมทางสุขภาพ” นักวิจัยกล่าว



ข่าวต้นฉบับ