การวิจัยโดยแอมเนสตี้ อินเตอร์เนชั่นแนล (Amnesty International) เปิดโปงระบบอัลกอริทึมของหน่วยงานสวัสดิการเดนมาร์กที่สร้างความอยุติธรรมและเลือกปฏิบัติต่อกลุ่มเปราะบาง
เดนมาร์กเป็นที่รู้จักในฐานะประเทศที่มีระบบสวัสดิการที่น่าเชื่อถือและเอื้อเฟื้อ โดยรัฐบาลใช้งบประมาณถึง 26% ของ GDP สำหรับสวัสดิการสังคม แต่การผลักดันให้เกิดการดิจิทัลไลเซชั่น โดยเฉพาะการนำอัลกอริทึมและปัญญาประดิษฐ์มาใช้เพื่อระบุการทุจริตด้านสวัสดิการ กลับกำลังสร้างปัญหาการเลือกปฏิบัติและกดขี่คนชายขอบ ผลการสืบสวนล่าสุดโดยแอมเนสตี้ อินเตอร์เนชั่นแนล (Amnesty International) เปิดโปงว่าระบบที่ถูกออกแบบเพื่อ "ปกป้อง" กลับกลายเป็นเครื่องมือในการเฝ้าระวังและสร้างความหวาดกลัวให้ผู้รับสวัสดิการ
ผลการสืบสวนพบปัญหาร้ายแรง
ห้องปฏิบัติการด้านความรับผิดชอบทางอัลกอริทึม (Algorithmic Accountability Lab - AAL) ของแอมเนสตี้ได้ทำการสืบสวนอย่างละเอียดเป็นเวลากว่า 2 ปี เกี่ยวกับการทำงานของหน่วยงานสวัสดิการเดนมาร์ก "อือเบตาลิง ดันมาร์ก" (Udbetaling Danmark - UDK) และพบว่ามีการใช้ระบบอัลกอริทึมที่ทำให้เกิดการเลือกปฏิบัติอย่างเป็นระบบ
รายงานชื่อ "ความอยุติธรรมที่ถูกเข้ารหัส: การเฝ้าระวังและการเลือกปฏิบัติในรัฐสวัสดิการอัตโนมัติของเดนมาร์ก" (Coded Injustice: Surveillance and Discrimination in Denmark's Automated Welfare State) เผยให้เห็นการใช้เทคโนโลยีปัญญาประดิษฐ์และระบบการเรียนรู้ของเครื่อง (machine learning) เพื่อตรวจจับการทุจริตด้านสวัสดิการสังคม
อัลกอริทึมที่เป็นปัญหา
หนึ่งในอัลกอริทึมที่ถูกตรวจสอบคือ "Really Single" ที่พยายามคาดการณ์สถานภาพความสัมพันธ์ของผู้รับสวัสดิการ โดยพิจารณาจากลักษณะการอยู่อาศัยที่ผิดปกติหรือไม่เป็นไปตามแบบแผน แต่กฎหมายไม่ได้กำหนดนิยามของคำเหล่านี้ไว้อย่างชัดเจน ส่งผลให้อัลกอริทึมมีแนวโน้มจะเล็งเป้าไปที่ผู้รับประโยชน์ที่มีรูปแบบการดำเนินชีวิตแตกต่างจากบรรทัดฐานทั่วไปของสังคมเดนมาร์ก เช่น
- ครอบครัวที่มีบุตรมากกว่า 2 คน
- ครอบครัวหลายรุ่นที่อาศัยอยู่ร่วมกัน (พบบ่อยในชุมชนผู้อพยพ)
- ผู้สูงอายุที่อาศัยอยู่กับผู้อื่น
นอกจากนี้ ยังมีอัลกอริทึม "Model Abroad" ที่สร้างคะแนน "ความเกี่ยวข้องกับต่างประเทศ" โดยประเมินความเชื่อมโยงของบุคคลกับประเทศนอกเขตเศรษฐกิจยุโรป (EEA) ซึ่งเป็นการเลือกปฏิบัติโดยตรงต่อผู้คนจากเชื้อชาติและถิ่นกำเนิดที่แตกต่าง
ผลกระทบต่อผู้ถูกตรวจสอบ
ผู้ให้สัมภาษณ์ โดยเฉพาะผู้พิการ เน้นย้ำว่าการถูกเฝ้าระวังอย่างต่อเนื่องเพื่อพิสูจน์ว่าพวกเขาสมควรได้รับสวัสดิการเป็นประสบการณ์ที่สร้างความเครียดอย่างมากและส่งผลต่อสุขภาพจิต ประธานคณะกรรมการนโยบายสังคมและตลาดแรงงานของมูลนิธิผู้พิการเดนมาร์ก (Dansk Handicap Foundation) เน้นว่าผู้พิการที่ถูกตรวจสอบอย่างต่อเนื่องมักรู้สึกซึมเศร้าและกล่าวว่าการถูกตรวจสอบตลอดเวลากำลัง "กัดกิน" พวกเขา
ผู้ให้สัมภาษณ์รายหนึ่งบรรยายความหวาดกลัวของการถูกสอบสวนว่า "เหมือนนั่งอยู่ปลายปืน เราหวาดกลัวตลอดเวลา ราวกับว่าปืนกำลังชี้มาที่เราตลอดเวลา"
การเก็บและใช้ข้อมูลที่ละเมิดความเป็นส่วนตัว
แบบจำลองอัลกอริทึมเหล่านี้ขับเคลื่อนด้วยการรวบรวมและบูรณาการข้อมูลส่วนบุคคลจำนวนมากจากฐานข้อมูลสาธารณะ ข้อมูลนี้อาจรวมถึงรายละเอียดที่สามารถใช้เป็นตัวแทนบ่งชี้เชื้อชาติ ชาติพันธุ์ สุขภาพ ความพิการ หรือรสนิยมทางเพศของบุคคล นอกจากนี้ ยังมีการใช้ข้อมูลจากโซเชียลมีเดียในการสืบสวนการทุจริตเกี่ยวกับสวัสดิการสังคม ซึ่งละเมิดความเป็นส่วนตัวของบุคคลอย่างมาก
ความท้าทายในการสืบสวน
ระหว่างการสืบสวน แอมเนสตี้ได้ยื่นคำขอข้อมูลตามสิทธิเสรีภาพในการรับรู้ข้อมูลข่าวสาร (FOI) แต่พบอุปสรรคสำคัญเมื่อ UDK ปฏิเสธการให้เข้าถึงโค้ดและข้อมูลที่ใช้ในอัลกอริทึมตรวจจับการทุจริต โดยอ้างว่าข้อมูลที่ร้องขอมีความอ่อนไหวมากเกินไป และการเปิดเผยข้อมูลเกี่ยวกับแบบจำลองอัลกอริทึมจะทำให้ผู้ฉ้อโกงรู้มากเกินไปเกี่ยวกับวิธีที่ UDK ควบคุมการแจกจ่ายผลประโยชน์
นอกจากนี้ การระบุตัวบุคคลที่เต็มใจแบ่งปันประสบการณ์เกี่ยวกับการสืบสวนการทุจริตของ UDK ก็เป็นเรื่องยาก เนื่องจากความกลัวการตอบโต้จากเจ้าหน้าที่
การสืบสวนสะท้อนให้เห็นถึงความจำเป็นในการตรวจสอบระบบสวัสดิการที่ใช้เทคโนโลยีปัญญาประดิษฐ์ เพื่อป้องกันการละเมิดสิทธิมนุษยชนของกลุ่มคนชายขอบที่อาจถูกเลือกปฏิบัติโดยอัลกอริทึมที่ไม่เป็นธรรม
www.facebook.com/tcijthai
ป้ายคำ