15 ก.ค. 2020 เวลา 14:02
Joy Buolamwini การต่อสู้ของคนผิวสี
เมื่อ Artificial Intelligence ไม่ intelligence
เรื่องราวของการลุกขึ้นมาสู้ของ Joy Builamwini นักวิจัยด้านปัญญาประดิษฐ์ (artificial intelligence) เมื่อเธอพบว่าหน้าของเธอไม่สามารถถูกวิเคราะห์ได้อย่างแม่นยำ มันเป็นไปได้อย่างไร?? ตามไปไล่เรียงเรื่องราวของ Joy Builamwini กัน
cr: Fortune
• ประสบการณ์ตรงของ Joy Builamwini สู้การสร้างความเปลี่ยนแปลง
ตอนมัธยม (บ้านเค้าเรียน coding กันแล้วอ่ะ) โปรเจ็คของเธอที่ใช้โปรแกรมจดจำหน้าตาสำเร็จรูป ไม่สามารถวิเคราะห์หน้าของเธอได้ จึงต้องไปขอยืมหน้าเพื่อนผิวขาวมาใช้ในโปรเจ็คแทน
เมื่อผ่านมาได้ เข้ามาเรียนที่ MIT ไม่แคลเวยังเจอปัญหาแบบเดิมๆ ทำให้เธอรู้ว่า นี้เป็นจุดอ่อนที่อาจจะกระทบสิทธิคนอีกมากมาย เพียงเพราะพวกเค้าไม่ได้เป็นประชากรกลุ้มหลัก หรือกลุ่ม elite
Joy จึงก่อตั้งองค์กรไม่แสวงหากำไรที่ชื่อ “Algorithmic Justice League (AJL)” เพื่อที่จะสร้างการรับรู้ถึงปัญหาดังกล่าว และทำงานวิจัยเพื่อให้เกิดการสร้างความเท่าเทียมของการใช้ AI (คุ้นๆเหมือนที่ไหนก็มีปัญหาเรื่องความไม่เท่าเทียมของ AI นะ)
• เมื่อ AI ยังฉลาดไม่พอ!!
หลายๆครั้งเรามักจะได้ยินความก้าวหน้าทางด้านการเเพทย์ ระบบอัตโนมัติต่างๆ โดยใช้ AI เป็นส่วนประกอบ แต่ AI นั้นก็ทำงานโดยต้องถูกสอนด้วยข้อมูลจำนวนมาก ซึ่งน่าสนใจจากการทดสอบ facial analysis ของบริษัทใหญ่ๆอย่าง IBM. Microsoft and Face+++ ร่วมกับ Timnit Gebru
มีผลการทดสอบที่น่าสนใจเช่น facial analysis ของทุกค่าย จะทำงานบนใบหน้าของผู้ชายได้ดีกว่าผู้หญิง (และจะสอบตกหนักมาก ถ้าต้องวิเคราะห์หน้าของผู้หญิงแอฟริกา ผิวสี)
ในอเมริกาเองยังไม่มีการกำหนดมาตราฐานของโปรแกรมวิเคราะห์ใบหน้าอย่างในตอนนี้ แต่การศึกษาของ NIST ตรวจสอบโปรแกรมต่างๆ ด้วยฐานข้อมูลใบหน้ากว่า 18 ล้านตัวอย่าง
ก็พบข้อมูลที่สอดคล้องกันว่าใบหน้าของคนเอเชียและแอฟริกาโดเฉพาะผู้หญิงมีโอกาสถูกวิเคราะห์ผิดพลาดมากกว่าผู้ชายผิวขาว 100 เท่า
1
ในขณะที่โปรแกรมที่พัฒนาจากเอเชียแม้ยังมีความผิดพลาดแต่น้อยกว่าโปรแกรมค่ายอเมริกาอย่างมีนัยยะ
cr: gender shade by Joy Builamwini
• ผลกระทบในวงกว้างของความไม่สมบูรณ์เพียงเล็กน้อย
สิ่งที่ Joy Buolamwini ต้องเรียกร้องให้มีการตรวจสอบก็เพราะในอเมริกาเองมีหลายหน่วยงานที่มีการนำโปรแกรมวิเคราะห์ใบหน้ามาใช่ ทั้ง FBI หรือตำรวจ
ซึ่งมีข้อมูลเปิดเผยว่าใน South Wales มีการวิเคราะห์ใบหน้าคนผิดถึง 2,400 เคส ซึ่งส่งผลกระทบต่อผู้บริสุทธิ์ในการใช้ชีวิตแน่นอน
ซึ่งหลังจากเกิดปัญหาของการกระทำเกิดกว่าเหตุของตำรวจจนมีผู้เสียชีวิต ทาง IBM, Microsoft และ Amazon ได้ทำการยุติการสนับสนุนโปรแกรมให้แก่ทางตำรวจเพื่อเป็นการตอบโต้เหตุการณ์นี้เช่นกัน (แม้จะยังไม่ได้แก่ปัญหาที่ต้นเหตุคือความสมบูรณ์ของโปรแกรม แต่เรียกว่าเป็นการลดโอกาสที่โปรแกรมจะไปซ้ำเติมปัญหาเนื่องจากทำงานพลาดมากกว่า)
ในกระแสของการรณรงค์ “Black Life Matter” ที่เกิดขึ้นในเมืองต่างของอเมริกาและยุโรป คงเป็นเรื่องที่ผู้ทำงานในสายเทคโนโลยีช่วยกันลงมือสร้างความเท่าเทียมให้เกิดขึ้น เพื่อให้การนำโปรแกรมอย่างเช่นการวิเคราะห์ใบหน้า มาใช้เพื่อประโยชน์สูงสุดโดยไม่มีขีดจำกัดทางเพศ เชื้อชาติและสีผิว
Algorithmic Justice League, AJL.Com
Federal study confirms racial bias of many facial-recognition systems, casts doubt on their expanding use, The Washington Post, 20 Dec 2019
When the Robot Doesn’t See Dark Skin, The NewYork Time, 21 June 2018Forbes.com, 12th June 2020
IBM, Microsoft And Amazon Not Letting Police Use Their Facial Recognition Technology,
โฆษณา