23 ธ.ค. 2018 เวลา 12:33 • วิทยาศาสตร์ & เทคโนโลยี
ระบบการมองเห็นของ AI แบบใหม่กำลังเลียนแบบวิธีการมองเห็น
ของมนุษย์!
ระบบการมองเห็นของคอมพิวเตอร์ ที่ถูกพัฒนาขึ้นที่ UCLA สามารถระบุวัตถุที่อิงจากการมองเห็นเพียงบางส่วนเช่นโดยใช้ตัวอย่างภาพถ่ายของรถจักรยานยนต์
เครดิต: UCLA Samueli
บทความนี้ยาวมาก อยากให้อ่านให้จบกันนะครับ :)
นักวิจัยจาก UCLA Samueli School of Engineering และ Stanford ได้สาธิตระบบคอมพิวเตอร์ที่สามารถค้นหาและระบุวัตถุในโลกแห่งความเป็นจริง ที่มัน "เห็น" โดยใช้วิธีการเรียนรู้ด้วยสายตาแบบเดียวกับที่มนุษย์ใช้
ระบบนี้เป็นเทคโนโลยีขั้นสูงที่เรียกว่า "computer vision"
ซึ่งจะทำให้คอมพิวเตอร์สามารถอ่านและระบุภาพได้
มันเป็นขั้นตอนสำคัญสู่ระบบปัญญาประดิษฐ์ทั่วไป - คอมพิวเตอร์ที่เรียนรู้ด้วยตนเองมีความชาญฉลาดตัดสินใจบนพื้นฐานของการให้เหตุผลและโต้ตอบกับมนุษย์ในแบบที่เหมือนมนุษย์มากขึ้น
แม้ว่าปัจจุบันระบบการมองเห็นด้วยคอมพิวเตอร์ AI จะมีประสิทธิภาพและความสามารถมากขึ้น แต่ก็มีความเฉพาะเจาะจงในงานที่ทำซึ่งหมายถึงความสามารถในการระบุสิ่งที่พวกเขาเห็นว่าถูกต้องจริงๆ โดยการฝึก Ai ให้แยกแยะภาพหลายๆภาพ ซ้ำๆไปเรื่อยๆ
ซึ่งจะระบุได้เพียงบางส่วนของมัน - และระบบสามารถถูกหลอกได้โดยการให้ดูวัตถุในวิ่งที่มันไม่คุ้นเคย
วิศวกรมีเป้าหมายที่จะสร้างระบบคอมพิวเตอร์ที่มีความสามารถเช่นเดียวกับที่มนุษย์
เปรียบสะเหมือน ที่คนเราที่มองแล้วรู้ว่าเป็นสุนัขแม้ว่าสัตว์นั้นจะซ่อนตัวอยู่หลังเก้าอี้และมองเห็นแค่อุ้งเท้าและหางเท่านั้น
แน่นอนว่ามนุษย์สามารถหยั่งรู้ได้ง่ายว่าหัวสุนัขและส่วนอื่น ๆ ของร่างกายอยู่ที่ใด แต่ความสามารถนั้นยังคงเป็นไปได้ยากสำหรับระบบปัญญาประดิษฐ์ส่วนใหญ่ ระบบการมองเห็นของคอมพิวเตอร์ในปัจจุบันไม่ได้ออกแบบมาเพื่อเรียนรู้ด้วยตนเอง
พวกเขาจะต้องได้รับการฝึกซ้ำๆเกี่ยวกับสิ่งที่ต้องเรียนรู้โดยการตรวจสอบภาพนับพันกับวัตถุที่พวกเขาต้องระบุ ว่านั่นคือภาพอะไร
และคอมพิวเตอร์แน่นอนไม่สามารถอธิบายเหตุผลด้วยตัวเองว่าวัตถุในภาพถ่ายแสดงถึงอะไร
วิธีการใหม่ของวิศวกรที่อธิบายไว้ในรายงานการประชุมของ National Academy of Sciences แสดงให้เห็นถึงข้อบกพร่องเหล่านี้
วิธีการสร้างระบบ AI ของวิศวกรคนนี้มีสามขั้นตอนกว้าง ๆ
ขั้นแรกระบบแบ่งภาพเป็นชิ้นเล็ก ๆ ซึ่งนักวิจัยเรียกว่า "viewlets"
ประการที่สองคอมพิวเตอร์ต้องเรียนรู้ viewlets เหล่านี้ว่าเข้าด้วยกันอย่างไรเพื่อสร้างวัตถุหรือภาพที่เป็นปัญหาให้เรียงภาพให้เป็นภาพปกติ
และในที่สุดมันก็จะดูที่วัตถุอื่น ๆ ที่อยู่ในบริเวณโดยรอบโดยที่โดยที่มันจะคำนวนว่าสิ่งของมันควรจะอยู่ตรงไหนและสิ่งที่เกี่ยวข้องกับคำอธิบายที่เราบอกมันไปเกี่ยวกับสิ่งที่มันต้องทำ
เพื่อช่วยให้ระบบใหม่ "เรียนรู้" เหมือนมนุษย์มากขึ้นวิศวกรจึงตัดสินใจที่จะนำมันไปใช้ในแบบจำลองบนอินเทอร์เน็ตโดยใชภาพของสภาพแวดล้อมที่มนุษย์อาศัยอยู่
Vwani Roychowdhury ศาสตราจารย์ด้านวิศวกรรมไฟฟ้าและคอมพิวเตอร์ของ UCLA กล่าวว่า
"โชคดีที่อินเทอร์เน็ตมีสองสิ่งที่ช่วยให้ระบบการมองเห็นคอมพิวเตอร์ ที่ได้รับแรงบันดาลใจจากสมองและเรียนรู้แบบเดียวกับที่มนุษย์ทำ"
Vwani Roychowdhury "หนึ่งคือมีภาพและวิดีโอที่แสดงถึงวัตถุประเภทเดียวกันเยอะอย่างที่สองคือวัตถุเหล่านี้มีการแสดงจากหลายมุมมองเช่น ภาพที่โดนบังและอยู่ในสภาพแวดล้อมที่แตกต่างกัน "
เพื่อพัฒนากรอบการทำงานนักวิจัยได้ดึงข้อมูลเชิงลึกจากจิตวิทยาความรู้ความเข้าใจและประสาทวิทยาศาสตร์
“แรกเริ่มทารกเรียนรู้ว่ามีอะไรเกิดขึ้นเพราะทารกเห็นตัวอย่างมากมายในบริบทต่าง ๆ”Roychowdhury กล่าว
"การเรียนรู้เชิงบริบทนั้นเป็นคุณสมบัติที่สำคัญของสมองของเราและช่วยให้เราสร้างแบบจำลองที่แข็งแกร่งของวัตถุที่เป็นส่วนหนึ่งของโลกที่ทุกอย่างเชื่อมโยงกับการใช้งาน"
นักวิจัยทดสอบระบบด้วยภาพประมาณ 9,000 ภาพโดยแต่ละภาพแสดงบุคคลและวัตถุต่างๆ
แพลตฟอร์มนี้สามารถสร้างแบบจำลองที่มีภาพคนและวัตถุโดยที่ไม่ต้องมีแนวทางและบอกเกี่ยวกับสิ่งที่กำลังทำและไม่มีภาพที่มีข้อความบอกว่าภาพนี้คืออะไร
วิศวกรทำการทดสอบที่คล้ายคลึงกันโดยใช้ภาพของรถจักรยานยนต์รถยนต์และเครื่องบิน
และระบบของพวกเขาทำงานได้ดีขึ้นหรืออย่างน้อยก็เช่นเดียวกับระบบการมองเห็นด้วยคอมพิวเตอร์แบบดั้งเดิมที่ได้รับการพัฒนาด้วยการฝึกฝนมานานหลายปี
-ที่มา Materials provided by UCLA Samueli School of Engineering. Note: Content may be edited for style and length.
-อ้างอิง Lichao Chen, Sudhir Singh, Thomas Kailath, Vwani Roychowdhury. Brain-inspired automated visual object discovery and detection. Proceedings of the National Academy of Sciences, 2018; 201802103 DOI: 10.1073/pnas.1802103115
/โดย M I AX
โฆษณา