22 มี.ค. เวลา 07:00 • วิทยาศาสตร์ & เทคโนโลยี
AI ตรวจจับความรู้สึกจากเสียงพูดภาษาไทย
เอไออาจเข้าใจคำพูดของเรามาสักพักแล้ว แต่การที่เอไอตรวจจับอารมณ์ของเราผ่านคำพูดได้ด้วยนั้นเป็นพัฒนาการใหม่ล่าสุดที่ล้ำขึ้นไปอีกขั้น และประเทศไทยก็เป็นหนึ่งในประเทศที่พัฒนาเทคโนโลยีดังกล่าวได้สำเร็จ
AIS ผู้ให้บริการด้านโทรคมนาคมรายใหญ่ของไทยได้จับมือกับสถาบันวิจัยปัญญาประดิษฐ์ประเทศไทย (AIResearch) ภาควิชาวิศวกรรมคอมพิวเตอร์ คณะวิศวกรรมศาสตร์ และ ภาควิชาศิลปการละคร คณะอักษรศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย ร่วมกันพัฒนาเทคโนโลยี THAI SER ซึ่งเกิดจากการนำชุดข้อมูลการจำแนกอารมณ์จากเสียงพูดภาษาไทย (Speech Emotion Recognition หรือ SER) ไปประมวลผลกับกระบวนการเรียนรู้แบบดีพเลิร์นนิงของเอไอ ทำให้เอไอสามารถเข้าใจอารมณ์ของผู้พูดผ่านเสียงพูดภาษาไทยได้สำเร็จ
ชุดข้อมูลที่พัฒนาขึ้นในครั้งนี้ถือเป็นชุดข้อมูลที่มีขนาดใหญ๋เป็นอันดับ 3 ของโลก โดยอันดับ 1 และ 2 นั้นล้วนเป็นภาษาอังกฤษทั้งหมด โดย ณ ปัจจุบันนี้เทคโนโลยี THAI SER สามารถจำแนกอารมณ์ได้ 5 อารมณ์ได้แก่ โกรธ เศร้า มีความสุข หงุดหงิด และอารมณ์ปกติ โดนพัฒนาจากเสียงของนักแสดง 200 คน (ชาย 87 และหญิง 113) จำนวน 36 ชม. (23,797 ประโยค) มีอัตราความแม่นยำอยู่ที่ 70 เปอร์เซ็นต์ อัตราความพร้อมในการใช้งาน 80 เปอร์เซ็นต์ ส่วนเปอร์เซ็นต์ที่เหลือนั้นรอการพัฒนาให้มีความแม่นยำมากขึ้น และสามารถใช้ได้ในการทำงานจริงในองค์กร
เทคโนโลยีนี้สามารถนำไปประยุกต์ใช้และต่อยอดได้หลายรูปแบบ เช่นประยุกต์ในงานดูแลลูกค้าผ่านคอลเซ็นเตอร์ โดยวิเคราะห์อารมณ์ลูกค้าผ่านเสียงพูดเพื่อให้พนักงานตอบสนองและให้บริการอย่างเหมาะสม จัดลำดับในการให้บริการลูกค้า และช่วยให้บรรลุเป้าหมายในการขายผลิตภัณฑ์หรือบริการต่าง ๆ ได้ง่ายขึ้น
การพัฒนาเทคโนโลยีในครั้งนี้มาจากฝีมือนักวิจัยคนไทยทั้งหมด ซึ่งแสดงให้เห็นถึงศักยภาพในวงการวิทยาศาสตร์และเทคโนโลยีของคนไทย และช่วยเพิ่มขีดความสามารถในการแข่งขันให้นักวิจัยไทยในเวทีโลกได้ หากใครสนใจสามารถเข้าไปดาวน์โหลดชุดข้อมูลของ THAI SER ได้โดยไม่เสียค่าใช้จ่ายที่ https://airesearch.in.th/
บทความโดย: ทีม Sertis