4 มิ.ย. 2020 เวลา 05:36 • วิทยาศาสตร์ & เทคโนโลยี
อคติ เหยียดเพศ เหยียดผิวของ AI
ล้อไปกับบรรยากาศการเหยียด ความเหลื่อมล้ำ และความอยุติธรรมที่เป็นบรรยากาศหลักในสังคมโลกช่วงนี้ ตั้งแต่ครูที่เป็น LGBT ไม่ได้รับการบรรจุราชการ การเมืองไทยเรื่องชนชั้นและความเหลื่อมล้ำ ความไม่ยุติธรรมของนาฬิกาเพื่อนและฟาร์มไก่ หนังParasiteของผู้กำกับบองจุนโฮที่พูดถึงความเหลื่อมล้ำอย่างเจ็บแสบ โดยผู้กำกับคนนี้เล่นเรื่องชนชั้นมาตลอด อย่างหนังรถไฟ Snowpiercer ที่ตอนนี้นำมาทำเป็นซีรี่ฉายอยู่ในเน็ตฟลิกซ์
มาถึงเรื่องโควิดที่ตอกย้ำเรื่องชนชั้น เช่น คนรวยรักโลก ชื่นชมโควิด และมาล่าสุดคือเรื่องคนดำในอเมริกาที่ทำให้เกิดการประท้วงใหญ่
ความเหลื่อมล้ำและความอยุติธรรมนั้นหลายครั้งมาจากอคติที่ถูกฝังโปรแกรมไว้ในสมองของเราจากสื่อและวัฒนธรรมที่หยั่งรากลึก
อย่างเรื่องการเหยียดเพศ ที่อาจจะมีคนถามว่ามีด้วยหรอในสังคมเรา ลองนึกภาพผู้หญิงเป็นนักการเมือง เป็นผู้บริหารระดับสูง หรือนักบิน เราสามารถนับนิ้วได้เลยและมักตกใจที่ได้ยินว่าเป็นผู้หญิง
เรามักมองว่าผู้หญิงต้องมีหน้าที่เลี้ยงลูก ทำงานบ้าน ทำอาหาร ดูแลสามี ผู้ชายต้องไปทำงานนอกบ้าน ซึ่งปัจจุบันแนวคิดเหล่านี้กำลังจางหายไปและถูกเรียกร้องมากขึ้นโดยกลุ่มความเท่าเทียมทางเพศ
มาวันนี้ AI ได้เข้ามามีบทบาทต่อการตัดสินใจ การสร้างสรรค์หรือตอบคำถาม
AI นั้นเรียนรู้กฎเกณฑ์ต่างๆจากข้อมูลที่มนุษย์สร้างขึ้นและสะสมไว้มาตั้งแต่อดีต
แน่นอนว่าข้อมูลที่เรามีนั้นเต็มไปด้วยอคติที่อาจจะยอมรับได้ในอดีต แต่รับไม่ได้ในปัจจุบัน ถ้าเราได้ AI เหล่านี้มาตอบคำถามโดยที่คำตอบเหล่านั้นเต็มไปด้วยการเหยียดเพศ การเหยียดผิว เราคงรับมันไม่ได้
ยกตัวอย่างการแปลงคำศัพท์ให้กลายเป็นชุดตัวเลขเพื่อนำไปใช้เข้าสมการคณิตศาสตร์เพื่อให้เครื่องได้เรียนรู้ (Word embedding) โดยตัวเลขเหล่านั้นสะท้อนความสัมพันธ์กับคำศัพท์อื่นๆ โดยความสัมพันธ์เหล่านี้มาจากข้อมูลข้อความจากบทความ อินเตอร์เน็ต หนังสือที่เรายัดให้ AI ได้เรียน
ตัวเลขเหล่านั้นบรรจุความหมายและลักษณะต่างๆของคำเอาไว้โดยไม่ได้ตั้งใจ เกิดจากการใช้ภาษาของมนุษย์ เช่น คำว่าพระราชา ก็มีลักษณะของเพศชาย สมมติให้เป็นค่าบวก เพศหญิงเป็นค่าลบ นอกจากนี้ยังมีลักษณะของอำนาจ การเมือง ราชวัง เป็นต้น
ความต่างของชุดตัวเลข ชาย - หญิง นั้นใกล้เคียงกับ พระราชา - พระราชินี ชุดตัวเลขเหล่านี้สามารถใช้อุปมาอุปไมยได้
ชุดตัวเลขเราสามารถมองเป็นมิติได้ เช่น ตัวเลขสามตัว เป็นกว้าง ยาว และสูง
ประเด็นคือว่าเมื่อเรามาดูที่ความเป็นเพศ สมมติให้มีเส้นตรงลากผ่านข้ามสนาม ฝั่งซ้ายเป็นชาย ฝั่งขวาเป็นหญิง เราคิดว่าคำว่า สาว หนุ่ม หมอ ศิลปิน พนักงานต้อนรับ หนวด ลิปสติก ควรอยู่ฝั่งไหนของสนาม
ลองสวมบทผู้เรียกร้องสิทธิเท่าเทียมทางเพศ
สาว -> หญิง
หนุ่ม -> ชาย
หมอ -> กลาง
ศิลปิน -> กลาง
พนักงานต้อนรับ -> กลาง
หนวด -> ชาย
ลิปสติก -> หญิง
แต่ปรากฎว่าในความเป็นจริง AI ของเรากลับเรียนรู้ว่า หมอเอียงไปทางผู้ชาย ส่วนพนักงานต้อนรับเอียงไปทางผู้หญิง ถ้าเรานำไปใช้งาน โปรแกรมของเราดันโชว์ว่าหมอต้องเป็นผู้ชายนี่อาจจะโดนด่าได้ หรือเป็นโปรแกรมที่สนใจแต่ชาติพันธุ์เดียว พอคนชาติพันธุ์อื่นมาใช้กลับใช้ไม่ได้ นักคณิตศาสตร์จึงต้องทำการลดอคติเหล่านั้นลง
วิธีการคือฉายตัวเลขเหล่านั้นไปตรงกลางเส้นที่ลากผ่านกลางความเป็นเพศ ถ้าจำตอนเรียนตรีโกณมิติได้การฉายนี้คือ คำ×cos(มุม)
หลังจากฉายแล้ว คำที่ระบุเพศอย่างหนุ่ม-สาว ชาย-หญิง จะต้องมีระยะห่างจากเส้นกึ่งกลางเท่ากันอีกด้วย มีอคติใน AI อะไรอีกบ้าง ไปดูกัน
interaction bias เราให้คนวาดรูปคน ผมสามเส้น ใส่กางเกง ทำให้เครื่องลืมผู้หญิงไป
latent bias เราสอนให้เครื่องรู้จักว่านักฟิสิกส์เป็นอย่างไร โดยข้อมูลที่เราให้ก็มี ไอสไตน์ นิวตัน แม็ก พลังก์ ทำให้เครื่องเข้าใจว่านักฟิสิกส์เป็นผู้ชาย โดยลืมใส่มารี คูรี และ โรสซาลิน แฟรงก์คลิน (ผู้คนพบ DNA)
selection bias สมมติต้องการสร้าง AI รับรู้หน้าคน เราให้รูปภาพครบถ้วนหรือยัง คนดำ คนขาว คนศาสนาต่างๆที่มีเครื่องแต่งกายต่างกันไป
AI ที่มีอคติบอกความสามารถจ่ายคืนหนี้ เราสอน AI ทั้งเชื้อชาติ ศาสนา สีผิว ความพิการ เมื่อเป็นเช่นนั้นแล้ว AI ที่มีจุดประสงค์มารังสรรโลกให้สวยงาม ลดความอคติในใจมนุษย์ที่ได้ใช้ AI เหล่านี้ลง ส่งเสริมความเป็นมนุษย์ที่มีจิตใจที่ดี มองคนเท่าเทียมกัน ไม่ใช่กลับได้ AI ที่ตอกย้ำอคติของมนุษย์ อคติที่จะนำไปสู่ความเหลื่อมล้ำและการกดขี่
การกำจัดอคติของเครื่องอาจใช้แค่เพียงสมการเดียว แต่การขจัดอคติ การมองเห็นคนที่ภายนอก การตีตรา การเลือกปฏิบัติ การเหยียดและการกดขี่ นั้นยากที่จะลบออกจากใจของเรา
โปรดจำไว้ว่าเราเป็นมนุษย์ สิ่งที่เรามีมากกว่าสิ่งมีชีวิตอื่นคือความสามารถในการเลือก เลือกที่จะคิด พูด ทำสิ่งที่ดีและเรามีความพยายามที่จะทำสิ่งเหล่านั้น

ดูเพิ่มเติมในซีรีส์

โฆษณา