24 มิ.ย. 2019 เวลา 14:31 • วิทยาศาสตร์ & เทคโนโลยี
มาต่อครับ
ผมจะยกตัวอย่างโดยใช้เซนเซอร์หลักในเรื่อง คือเจ้า imx586 ของ sony
ซึ่งมีความละเอียด 48 ล้านพิกเซล
ขนาดพิกเซลที่ 0.8 ไมครอน
ทั้งสองตัวใช้เซนเซอร์ sony imx586 แต่คุณภาพของภาพถ่ายแปรตามส่วนประกอบอื่นด้วยครับ
ข้อดีของ Quad Bayer filters คืออะไร
อย่างแรกเลยคือเราสามารถควบคุมพิกเซลย่อยได้อย่างอิสระ โดยตอนนี้ 1 ช่องสี มีพิกเซลย่อย 4 ตัวที่ทำงานแยกกันได้เอง
และทำให้ Noise น้อยลงได้ (‘น้อยสึ’ อ่านเร็วๆ)
ซึ่งก็คือจุดๆ ดังภาพ ซึ่งเราไม่ชอบ
ขวาสุด noise เยอะ ภาพจะเป็นจุดๆ
อันนี้ดูภาพดีๆ เซนเซอร์แบบปกติเนี่ย เวลาถ่ายรูป ถ้าสีแดงทางบนซ้ายมันเกิด Noise กล้องก็จะทำการ Demosaicing ที่ทำยากกว่าปกติ
ถ้ามันสุดความสามารถแล้วยังแก้ noise ไม่ได้ เราก็จะเสียมันไปเลย และ noise ก็จะไปโผล่บนรูปของท่านอย่างเต็มเม็ดเต็มหน่วย
แต่พอมีเจ้าควอดเบเยอร์เข้ามา สีแดงทางบนซ้ายจะสามารถแบ่งตัวกลายเป็นสี่ตัวย่อยได้ และแต่ละตัวย่อยก็ทำงานแยกกันเก็บค่าสีแดงทั้งสี่ตัว
ทีนี้พอมีตัวนึงเก็บ noise ได้ ซึ่งเราไม่ชอบ เราจึงเฉดหัวมันทิ้ง และเอาสามตัวที่เหลือมาใช้แทน ซึ่งจะทำให้ความคมชัดโดยรวมไม่เสียไป ดังในรูปของ sony ที่เค้าโม้ไว้
รูปจาก sony ที่ผ่านการคัดสรรจนได้ภาพที่ดีที่สุด เพื่อเอามาโม้ให้เราฟัง
และถ้าเราถ่ายในโหมด 12 ล้านปกติ ระบบก็จะทำการเฉลี่ยค่าพิกเซลทั้งสี่ตัวออกมาเป็นค่าสี 1 ค่า และนำไปทำเป็นรูปภาพต่อนั่นเอง (จาก 48ล้าน เหลือ 12ล้าน)
ถ้าเกิดมีคำที่ไม่คุ้นโผล่ขึ้นมา แสดงว่า ไม่ได้อ่านโพสเก่า ไปอ่านเดี๋ยวนี้นะ! เดี๋ยวตีเลย
และยังมีข้อดีอีกอย่างคือ
การทำ HDR แบบครั้งเดียว
การทำภาพ HDR นั้น โดยปกติจะถ่าย 2 รอบ รอบนึงถ่าย over
รอบนึงถ่าย under
และนำภาพมารวมกัน ก็จะได้ภาพที่สว่างขึ้น และเก็บรายละเอียดได้ดีขึ้น
ดูตามภาพนะครับ ซึ่งการถ่ายสองรอบมันกินเวลา ทั้งเวลาถ่าย และ เวลาประมวลผล ทำให้ช้าลง
เจ้าควอดเบเยอร์นี้เลยแก้โดยการถ่ายมันพร้อมกันซะเลย
โดยแบ่งเซนเซอร์ ตัว L ตามภาพ ถ่ายแบบover และใช้เซนเซอร์ตัว S ถ่ายแบบunder และนำภาพจากตัว L และ S มารวมกัน ได้ภาพ HDR จากการถ่ายครั้งเดียวนั่นเองครับ
และยังมีเรื่องของการจับภาพวัตถุเคลื่อนไหวเร็วๆ
ต่อให้กล้องถ่ายเร็วแค่ไหนก็จะไม่ได้ตำแหน่งเดิม
เมื่อนำภาพมารวมเพื่อทำ HDR ก็จะเกิดการซ้อนภาพดังด้านซ้าย
ส่วนด้านขวาใช้เทคนิค
ควอดเบเยอร์ถ่าย เพราะเป็นการถ่ายพร้อมกัน รูปตัว p ทั้งสองจึงซ้อนทับกันพอดี ไม่มีปัญหากับวัตถุเคลื่อนไหว
แต่ว่าข้อเสียก็ยังมีเช่นกัน
เมื่อเราย่อขนาดพิกเซลให้เล็กลง โอกาสที่จะเกิด noise ก็มากขึ้นตาม
และด้วยขนาดพิกเซลที่เล็กลง ทำให้พิกเซลแต่ละสีอยู่ห่างกันมากกว่าเดิม จึงทำให้การ Demosaicing ทำได้ยากขึ้น
ด้วยเหตุผลนี้ จึงรับประกันไม่ได้ว่า ตอนคุณถ่ายในโหมด 48 ล้าน ภาพที่ได้จะดีกว่าโหมด 12 ล้าน เสมอไป
ถึงแม้ภาพโฆษณาจาก sony จะแสดงให้เห็นถึงรายละเอียดที่ดีขึ้นจากโหมด 48 ล้าน แต่ใครจะไปรู้ว่า sony เค้าถ่ายไปกี่รูปแล้ว และรูปที่ถ่ายไม่ดี เค้าคงไม่เอามาโฆษณาครับ
ลองเทียบดูครับ
ผมจะไม่บอกว่าฝั่งไหน 48 ล้าน ฝั่งไหน 12 ล้าน ลองดูกันเอง555
ภาพบนจาก P20 Pro ภาพล่างจาก Galaxy A80
สรุปง่ายๆ
โหมด 48 ล้าน ไม่ใช่ภาพ 48 ล้านแบบจริงๆ แต่เป็นการอัดด้วยซอฟแวร์มาอย่างหนักหน่วง ก่อนที่จะออกมาถึงตาท่าน ซึ่งบางครั้งก็ทำได้ดีกว่าโหมด 12 ล้าน บางครั้งก็แย่กว่า แต่ผมแนะนำว่า ถ่ายแบบโหมด 12 ล้านก็พอครับ ไฟล์ภาพเล็กกว่า ประหยัดเนื้อที่ คุณภาพก็ไม่ได้ห่างกันมาก
เพิ่มเติม
Pixel 3 ใช้เซนเซอร์ sony imx363 นะครับ
เก่ากว่าแต่ยังเก๋านะ อิอิ
ส่วนคำถามที่ว่าทำไม redmi note 7 ถึงมีเจ้าเซนเซอร์ขนาด 48 ล้านได้
ภาพจาก gsmarena.com
ก็เพราะว่า เจ้าเซนเซอร์แบบนี้ไม่ใช่ 48 ล้าน แท้ๆครับ แต่คุณภาพก็ดีจริงๆ เลยได้รับความนิยม พอเพิ่มกำลังผลิต ต้นทุนก็ลด เลยไม่ได้แพงมากครับ
ขอบคุณที่อ่านจนจบคร้าบบบบบ
อ้างอิง

ดูเพิ่มเติมในซีรีส์

โฆษณา