Face ID ของ Apple ที่เราสงสัยกันว่าเราเปลี่ยนลุคหรือเมคอัพแล้ว มันยังจะเวิร์คอยู่หรือไม่
นี่เป็นอีกตัวอย่างหนึ่งในการใช้ Machine Learning เพราะว่า Apple จะใช้วิธียิงจุดอินฟราเรดออกไป และใช้การตรวจสอบรูปของหน้า และแม้ว่าหน้าตาจะเปลี่ยนไปเล็กน้อย เปลี่ยนทรงผม ใส่แว่น Face ID ก็ยังคงสามารถตรวจสอบได้ และถึงจะใช้หน้ากากก็ไม่รอด Face ID เพราะว่า Apple ใช้ Machine Learning เรียนรู้รูปแบบหน้าที่แตกต่างกันมาเยอะมาก และสร้างโมเดลให้คอมพิวเตอร์เรียนรู้
ดังนั้นเมื่อเราเอาการเรียนรู้ของเครื่องที่เราได้ ไปใช้งานโดยการป้อนภาพที่ไม่ได้อยู่ใน Training Data เครื่องก็จะตอบคำถามได้ เพราะดูจากความสัมพันธ์ของคุณลักษณะของสัตว์สองชนิดนี้
ถึงแม้จะมีกระแสต่อต้านการใช้งาน AI โดยเฉพาะในแวดวงของวิชาการและงานศิลปะ แต่ดูเหมือนว่ามันจะเป็นเทคโนโลยีที่ไม่อาจเลี่ยงได้ในปี 2023 สิ่งที่เราทุกคนควรทำไม่ใช่การหวาดกลัวเพียงอย่างเดียว แต่เราควรที่จะศึกษาเพื่อเตรียมพร้อมในการปรับตัวเมื่อ AI Disruption Age มาถึง
🔻Generative AI คืออะไร ทำไมถึงโดดเด่นกว่า AI ทั่วไป มุมมองความเป็นไปได้ในอนาคต
เบื้องหลังความสามารถอันน่าทึ่งของ Generative AI ยุคใหม่ โดยเฉพาะที่เกี่ยวข้องกับภาษา มีเทคโนโลยีที่เป็นรากฐานสำคัญอยู่ นั่นคือ สถาปัตยกรรม Transformer ซึ่งถูกนำเสนอครั้งแรกโดย Google ในปี 2017 ผ่านงานวิจัยชื่อ "Attention Is All You Need"
📍Large Language Models (LLM): ผลลัพธ์อันทรงพลังจาก Transformer
สถาปัตยกรรม Transformer นี้เองที่ได้ปูทางไปสู่การพัฒนา "แบบจำลองภาษาขนาดใหญ่" หรือ Large Language Models (LLMs) ซึ่งก็คือโมเดล AI ที่ได้รับการฝึกฝนด้วยข้อมูลข้อความจำนวนมหาศาลจากอินเทอร์เน็ตและคลังความรู้ต่างๆ ทำให้มันมีความสามารถในการเข้าใจ สร้างสรรค์ และตอบโต้ด้วยภาษาที่ใกล้เคียงกับมนุษย์ได้อย่างน่าทึ่ง
ยกตัวอย่างที่เห็นได้ชัดอย่าง DALL-E AI Text-to-image ที่สามารถสร้างรูปภาพจากคำสั่ง (prompt) โดยที่รูปนั้นเป็นผลงานชิ้นใหม่ มีเอกลักษณ์เฉพาะเป็นของตัวเอง หรือ ChatGPT AI Chatbot ที่ตอบคำถามเราอย่างเป็นธรรมชาติและลื่นไหล ก็คือตัวอย่างหนึ่งของ LLM ที่ถูกสร้างขึ้นบนพื้นฐานของสถาปัตยกรรม Transformer นั่นเอง