13 ต.ค. 2021 เวลา 06:40 • วิทยาศาสตร์ & เทคโนโลยี
เซย์เนป ทูเฟกชี (Zeynep Tufekci) : ยิ่ง AI ฉลาดเท่าไหร่ เราต้องมีความเป็นมนุษย์มากขึ้นเท่านั้น
เซย์เนป ทูเฟกชี เป็นนักสังคมวิทยาเทคโนโลยี (Techno-sociologist) งานของเธอจะมุ่งเน้นไปที่การถามคำถามใหญ่ ๆ ที่ส่งผลกระทบทางสังคมของเทคโนโลยีใหม่และสังคมของมนุษย์ เช่น ปัญญาประดิษฐ์และบิ๊กดาต้า
มีประเด็นหนึ่งที่เธอพูดถึงไว้ในปี 2016 เรื่อง “Machine Intelligence makes human morals more Important” ยิ่งเครื่องจักรฉลาดเท่าไหร่ มนุษย์ก็ยิ่งจำเป็นต้องมีจริยธรรมมากขึ้นเท่านั้น
ทูเฟกชีเป็นโปรแกรมเมอร์ ชอบวิชาคณิตศาสตร์และวิทยาศาสตร์มาก ๆ มาตั้งแต่ยังเป็นเด็ก พอโตขึ้น ก็มีโอกาสได้เรียนรู้เกี่ยวกับวิชาจริยธรรมทางวิทยาศาสตร์ การเรียนรู้ถึงเรื่องระเบิดนิวเคลียร์ทำให้เธอรู้สึกปั่นป่วนในหัวใจ เธอเลยตัดสินใจเลือกที่จะทำงานอาชีพเชิงเทคนิค ที่จะไม่ต้องมีปัญหาจริยธรรม ซึ่งในขณะนั้นเธอเลือกจึงเลือก “คอมพิวเตอร์”
ในช่วงวัยรุ่น เคยมีผู้ใหญ่คนหนึ่งมาถามว่าเครื่องคอมพิวเตอร์นั้นสามารถจับโกหกได้หรือเปล่า เพราะตอนนั้นเขาแอบมีความสัมพันธ์ลับกับพนักงานบางคน เธอเล่าติดตลกในตอนนั้นว่าโกหกเขาไปว่าไอ้กล่องสี่เหลี่ยมนั้นจับโกหกได้ เธอขำแทบจะอดขำไม่ได้ตอนที่เห็นสีหน้าของชายคนนั้น
แต่เทคโนโลยีในปัจจุบันมันทำให้เธอขำไม่ออก อย่างที่เราทราบกันดีว่าตอนนี้ระบบคอมพิวเตอร์สามารถตรวจจับอารมณ์หรือกระทั่งคำโกหกได้ โดยการประมวลผลจากการแสดงออกบนใบหน้ามนุษย์ได้แล้วด้วย
ชัดเจนว่าในปัจจุบันเครื่องจักรมีความฉลาด เรากำลังใช้มันเพื่อประกอบการตัดสินใจในเรื่องต่าง ๆ หลายครั้งเรายึดถือว่าผลจากการตัดสินใจที่ออกมาจากการกระบวนการที่ซับซ้อนของคอมพิวเตอร์มีโอกาสในการล้มเหลวน้อย ทูเฟกชี ชี้ให้เห็นว่ามันไม่ใช่แบบนั้นซะทีเดียว เธอพยายามจะอธิบายว่าเครื่องจักรอัจฉริยะก็สามารถผิดพลาดได้ และหลายครั้งมันก็ไม่เข้าใจรูปแบบความผิดพลาดของมนุษย์
“เราไม่สามารถจะเรียกร้องความรับผิดชอบต่อเครื่องจักได้ เพราะฉะนั้นแล้วต้องยึดหลึกในคุณค่าของความเป็นมนุษย์และจริยธรรมให้แน่วแน่”
ทูเฟกชีเล่าว่าตอนนี้เรากำลังสร้างแพลตฟอร์มที่กำหนดทิศทางของคนเป็นพันล้านใช้งาน เครื่องจักร AI เหล่านี้คำนวณและตัดสินใจเรื่องสารพัดเรื่อง
เช่น "บริษัทควรจ้างใครดี" "ควรแสดงอัพเดตของเฟรนด์คนไหนดี" "นักโทษคนไหนมีแนวโน้มทำผิดซ้ำอีก" "ควรแนะนำข่าวหรือหนังเรื่องอะไรให้คนดูดี" “ผู้ป่วยคนนี้ควรรับการรักษายังไง” สิ่งเหล่านี้ล้วนกำหนดด้วย AI ทั้งสิ้น
แม้เราจะใช้คอมพิวเตอร์มาสักพักแล้ว แต่นี่คือจุดพลิกผันทางประวัติศาสตร์ เพราะเราไม่ได้ใช้คอมพิวเตอร์เพื่ออำนวยความสะดวกสบายหรือรักษาความปลอดภัย เช่น การสร้างเครื่องบิน หรือ ตรวจสอบโครงสร้างสะพาน อย่างเคย เรากำลังสร้างมันเพื่อใช้สำหรับ “การตัดสินใจแทนมนุษย์”
ซอฟท์แวร์ในปัจจุบันก้าวหน้าไปมาก แต่ก็ตรวจสอบยากแถมมีกระบวนการที่ซับซ้อนมากขึ้นด้วย ตรวจจับใบหน้า แกะลายนิ้วมือ แปลภาษา ค้นหาเนื้องอกในร่างกาย เล่นหมากรุกและโกะชนะมนุษย์ได้ ความล้ำหน้าเหล่านี้เกิดจากกระบวนการ "แมชชีนเลิร์นนิ่ง" (Machine Learning - ML) ซึ่งต่างจากการเขียนโปรแกรมทั่วไป เพราะนี่ไม่ใช่เพียงการป้อนคำสั่งคอมพิวเตอร์ แต่มันคือการที่ระบบจะเรียนรู้และประมวลข้อมูล แมชชีนเลิร์นนิ่งจะไม่สร้างคำตอบแบบพื้น ๆ แต่มันจะสร้างคำตอบที่อิงความน่าจะเป็น เพื่อให้ "คำตอบนี้น่าจะเป็นสิ่งที่คุณมองหาอยู่"
หากมองในด้านบวกนี้ นี่เป็นสิ่งที่ทรงพลังมาก ๆ แต่ในด้านลบก็คือ เราไม่เข้าใจที่มาที่ไปเลยว่า อะไรคือสิ่งที่ระบบนี้เรียนรู้ เราไม่อาจจะเข้าใจหรือควบคุมมันได้จริง ๆ และเมื่อระบบ AI ตีความผิดพลาด จะเกิดปัญหาอย่างไร หรือถ้ามันตีความถูก เราก็ไม่รู้ด้วยซ้ำว่าเจ้าสิ่งนี้มันคำนวณอะไรอยู่กันแน่
ทูเฟกชีสมมติขึ้นมาว่าหากมีอัลกอริทึมสำหรับจ้างพนักงาน โดยให้ระบบมีหน้าที่ในการเลือกจ้างพนักงาน โดยใช้วิธี ML ระบบจะถูกฝึกผ่านการป้อนข้อมูล พนักงานที่เคยจ้างในอดีต และถูกสั่งให้ค้นหาและจ้าง คนที่มีคุณสมบัติเหมือนพนักงานระดับเยี่ยมที่มีอยู่ เซย์เลปเล่าว่านวัตกรรมนี้เป็นที่สนใจของผู้จัดการและผู้บริหารด้านทรัพยากรมนุษย์ พวกเขาคิดว่า ระบบนี้จะทำให้การจ้างงาน เป็นระบบมากขึ้น มีอคติน้อยลง ทำให้ผู้หญิงและคนกลุ่มน้อย มีโอกาสได้จ้างดีขึ้น เมื่อเทียบกับการใช้คนจ้างที่อาจมีอคติ
แน่นอนว่า การจ้างงานโดย ไม่คำนึงถึงเพศ และเชื้อชาติ ถูกใจใครหลาย ๆ คนแน่นอน รวมถึงทูเฟกชีแต่เธอก็กล่าวต่อว่า ถ้าเราใช้ระบบนี้ จะมีเรื่องยุ่งยากเพิ่มขึ้น เพราะในปัจจุบันระบบคอมพิวเตอร์ สามารถคาดเดาเรื่องของมนุษย์ได้สารพัด จากร่องรอยทางดิจิตอล (Digital Footprints) ของคุณ ถึงแม้คุณจะไม่เปิดเผย ข้อมูลเหล่านั้นเลยก็ตาม เครื่องจักรเหล่านี้จะประเมินได้ทั้งรสนิยมทางเพศของคุณ บุคลิกนิสัย แนวโน้มทางการเมือง พวกมันสามารถทำนายเรื่องเหล่านี้ได้ด้วยความแม่นยำสูง ซึ่งแม้นี่จะไม่ใช่เรื่องที่คุณเปิดเผย แต่พวกก็จะการคาดเดา
เธอเล่าต่อว่า ที่งานประชุมของผู้จัดการทรัพยากรมนุษย์ เธอถามพวกเขาว่า
“ถ้าสมมติว่าระบบคัดกรอง ดันไปคัดกรองคนที่มี ‘แนวโน้ม’ เป็นโรคซึมเศร้าในอนาคตสูงออกไป ไม่ใช่ว่าซึมเศร้าตอนนี้นะ แค่อาจจะซึมเศร้าในอนาคต หรือคัดผู้หญิงที่มีแนวโน้มสูงว่าจะตั้งครรภ์ ในอีกปีสองปี แต่ไม่ได้ตั้งครรภ์ตอนนี้ออกไปล่ะ จะเป็นอย่างไร”
ซึ่งเรื่องเหล่านี้ เราไม่สามารถดูออกได้โดยใช้แค่เพศจำแนก เพราะว่านี่เป็นคือสิ่งที่เครื่องจักรได้เรียนรู้ไม่ใช่การโปรแกรมแบบปกติ จึงไม่มีตัวแปรที่ระบุว่า "ความเสี่ยงซึมเศร้าสูง" "ความเสี่ยงตั้งครรภ์สูง" "ระดับความก้าวร้าวสูง" คุณไม่อาจรู้ได้เลยว่า ระบบเลือกอะไรมา ไม่รู้ด้วยซ้ำว่าจะเริ่มหาจากตรงไหนดี มันเหมือนกล่องดำ มันสามารถทำนายได้ แต่เราไม่อาจเข้าใจมันได้
ระบบอาจมีอคติต่อเพศและเชื้อชาติน้อยกว่าผู้จัดการที่เป็นมนุษย์ในบางด้าน และอาจคุ้มค่าทางการเงินด้วยก็จริง แต่ก็อาจเป็นต้นเหตุ ง่าย ๆ ที่นำไปสู่การกีดกัน คนที่มีแนวโน้มซึมเศร้า ออกจากตลาดแรงงานโดยเราไม่รู้ตัว เพราะเราให้การตัดสินใจอยู่ในมือของเครื่องกลที่เราเอง ก็ไม่เข้าใจอย่างถ่องแท้
อีกปัญหาหนึ่งคือ ระบบเหล่านี้ใช้ข้อมูลที่เกิดจากพฤติกรรมของมนุษย์ ฉะนั้นแล้วมันอาจรับเอาอคติมาขยายให้รุนแรงขึ้น แล้วก็แสดงผลกลับมาให้เราดู
นักวิจัยพบว่าบนกูเกิ้ล โฆษณางานที่มีรายได้สูงให้ผู้หญิงเห็นน้อยกว่าผู้ชาย และถ้าเสิร์ชหาชื่อคนแอฟริกัน-อเมริกัน ก็มีแนวโน้มที่มันจะแสดงโฆษณาที่เกี่ยวข้อง กับประวัติอาชญากรรมมาแสดง แม้ว่าคนนั้น จะไม่มีประวัติเลยก็ตาม อคติซ่อนเร้น และอัลกอริทึมกล่องดำแบบนี้ทำให้บางครั้งเราก็ไม่อาจรู้ได้เลยว่ามันจะสร้างผลกระทบ ถึงขั้นเปลี่ยนชีวิตคนได้
ในวิสคอนซิน ผู้ต้องหาคนหนึ่ง ถูกตัดสินจำคุกหกปี ข้อหาหลบหนีตำรวจ เรื่องนี้เกิดขึ้นจากการตัดสินใจของอัลกอริทึม บริษัทเจ้าของปฎิเสธที่จะให้ศาลไต่สวนอัลกอริทึมของตนเอง แต่ โพรพับลิก้า (ProPublica) หน่วยงานสืบสวนไม่แสวงผลกำไร ได้ไปทำการตรวจสอบอัลกอริทึมนั้น โดยใช้ข้อมูลสาธารณะเท่าที่หาได้ และพบว่า ผลลัพธ์ที่ได้มีอคติอยู่ ทั้งยังทำนายผลได้อย่างย่ำแย่ มันให้ผลลัพธ์ที่ผิดพลาดทำนองว่า ผู้ต้องหาผิวดำมีแนวโน้มเป็นอาชญากรในอนาคต สูงเป็นสองเท่าของผู้ต้องหาผิวขาวเพราะฉะนั้นแล้วเราจึงจำเป็นต้องตรวจสอบกล่องดำ (Black Box) และไม่ปล่อยให้มันมีอำนาจโดย ไม่มีการถ่วงดุล
การตรวจสอบเป็นเรื่องที่ดีและสำคัญ แต่ก็ไม่ได้แก้ปัญหาได้ทุกเรื่อง ยกตัวอย่างอีกเรื่องเช่นการจัดอันดับฟีดของเฟซบุ๊ค ที่มันเลือกว่าจะแสดงอะไรให้เราเห็น โดยดูจากเพื่อนและเพจที่เราติดตาม เฟซบุ๊คไม่มีคำตอบว่ามันเรียงจากอะไรกันแน่ ฟีดเพียงแค่แสดงสิ่งที่อาจทำให้ผู้ใช้มีปฏิสัมพันธ์ต่อ Content เช่น ไลก์ แชร์ คอมเมนต์
ทูเฟกชี ยกตัวอย่างอีกเหตุการณ์ในปี 2014 ที่มีการประท้วงที่ เฟอร์กูสัน รัฐมิสซูรี่ หลังจากเหตุการณ์ที่ตำรวจผิวขาว ฆ่าวัยรุ่นแอฟริกันอเมริกันตาย ข่าวการประท้วงผุดเต็มฟีดบนหน้าทวิตเตอร์ ที่ไม่มีอัลกอริทึมคัดกรอง แต่เรื่องนี้กลับเงียบ แทบหาไม่เจอเลยบนเฟซบุ๊ค ด้วยเหตุผลง่าย ๆ คือข่าวเฟอร์กูสัน ไม่เป็นมิตรกับอัลกอริทึม เพราะมัน "ไม่มีคนไลก์" เมื่อไม่มีไลค์ หรือคอมเมนต์ อัลกอริทึมก็มีแนวโน้ม จะโชว์ให้คนดูน้อยลงไปอีก เราเลยไม่เห็นข่าวนี้เลย แต่ในสัปดาห์นั้น สิ่งที่อัลกอริทึมของเฟซบุ๊คให้ความสำคัญ คือ การท้าราดน้ำแข็งสู้โรค ALS เพราะมีคนสนใจเป็นจำนวนมาก เซย์เนปกล่าวว่า เมื่อเครื่องจักรตัดสินใจเรื่องแบบนี้ให้ การสนทนาประเด็นยาก ๆ แต่สำคัญมาก ๆ แบบนี้ อาจถูกกำจัดออก หากเรามีเฟซบุ๊คเป็นสื่อเพียงช่องทางเดียว
เธอยกตัวอย่างไปถึง “วัตสัน” ระบบปัญญาประดิษฐ์ของ IBM ที่เอาชนะคู่ต่อสู้ที่เป็นมนุษย์ได้ แต่ก็พ่ายแพ้ต่อมนุษย์ในการตอบคำถาม "สนามบินที่ใหญ่ที่สุด ที่ตั้งชื่อตามวีรบุรุษสงครามโลกครั้งที่ 2 และเป็นสมรภูมิใหญ่เป็นที่สอง ในสงครามโลกครั้งที่ 2 คืออะไร" โดยคำตอบที่ถูกต้องคือ ชิคาโก้ และมนุษย์สองคนตอบถูก แต่วัตสัน ตอบว่า "โตรอนโต้" ทั้งที่คำถามเป็นหมวดเมืองในสหรัฐฯ สิ่งนี้มันแสดงให้เห็นว่าระบบที่เก่งกาจ ยังรู้จักพลาดพลั้ง ในเรื่องที่มนุษย์ทั่วไป หรือกระทั้งเด็กไม่มีทางพลาด
สมองประดิษฐ์ก็อาจทำงานผิดพลาดได้ ด้วยการคำนวณพฤติการณ์ในรูปแบบที่เราคาดไม่ถึง และไม่ได้เตรียมรับมือ เช่น เมื่อเดือนพฤษภาคม 2010 ตลาดหุ้นวอลล์สตรีท เกิดล่มกระทันหัน เนื่องจากลูปป้อนกลับในอัลกอริทึมของวอลล์สตรีท ทำให้เงินในตลาดหายไปกว่าหนึ่งล้านล้านดอลลาร์ใน 36 นาที
เป็นเรื่องชวนให้คิดว่า ถ้าเกิดว่า "ข้อบกพร่อง" นี้เปลี่ยนเป็นอาวุธอันตรายแบบอัตโนมัติแทน มันจะสร้างความเสียหายได้ขนาดไหนกัน
มนุษย์ล้วนมีอคติกันทั้งนั้นและพวกเราผิดพลาดได้ แต่เราหลบเลี่ยงคำถามยาก ๆ แล้วถ่ายโอนความรับผิดชอบของเราเองนี้ไปให้คอมพิวเตอร์ไม่ได้ ปัญญาประดิษฐ์ ไม่ได้ทำให้เรา เป็นอิสระจากปัญหาเชิงจริยธรรม
ในตอนท้ายเธอยกข้อมูลของ นักวิทยาศาสตร์ข้อมูล เฟรด เบเนนสัน ในเรื่อง แม็ธวอชชิ่ง (math-washing) เธอเล่าว่าเราต้องทำตรงกันข้าม เราต้องส่งเสริมการสืบสวน ตรวจตรา ตั้งข้อสงสัยในอัลกอริทึม เราต้องมั่นใจได้ว่าอัลกอริทึมที่ใช้สามารถตรวจสอบย้อนกลับได้ และมีความโปร่งใสอย่างเป็นรูปธรรม
เราต้องยอมรับว่า การเอาคณิตศาสตร์และคอมพิวเตอร์ มาใช้แก้ปัญหาของมนุษย์ที่กำกวม และแฝงความเชื่อทางสังคม ไม่ได้ทำให้เกิดความเที่ยงตรง เราควรใช้คอมพิวเตอร์ เราใช้ได้ และควรใช้ด้วยให้เราตัดสินใจได้ดีขึ้น แต่เราต้องไม่ลืมความรับผิดชอบทางศีลธรรมในการตัดสินใจนั้น แล้วใช้อัลกอริทึมภายในขอบเขต ไม่ใช่เพื่อปลดเปลื้อง หรือถ่ายโอน ความรับผิดชอบของเรา ที่มีต่อผู้อื่น ในฐานะมนุษย์ด้วยกัน
“เรามีสมองประดิษฐ์ไว้ใช้ นั่นยิ่งหมายความว่า เรายิ่งต้องยึดมั่นในค่านิยมของมนุษย์และจริยธรรมของความเป็นมนุษย์ด้วย”
ไม่พลาดเรื่องราวดี ๆ แบบนี้ สามารถเข้ามาอ่านเพิ่มเติมได้ที่ในกลุ่ม The Curious Club ได้ครับผม : https://www.facebook.com/groups/4312852958793335/
โฆษณา