21 พ.ค. เวลา 05:12 • หุ้น & เศรษฐกิจ

หรือว่า Alphabet เพิ่ง Disrupt ตัวเอง และเพื่อนๆ Mag6 ในงาน Google I/O 2025 | Podcast Available 🎙️

ถ้าใครจำกันได้ ช่วงต้นเดือนแอดเคยบอกว่า Gemini 2.5 Pro โมเดลใหม่ของ Alphabet ดูเหมือนว่าเก่งที่สุดในตอนนี้ และดันปล่อยออกมาให้ใช้ก่อนงาน Google I/O ไม่กี่สัปดาห์ แสดงว่า Alphabet จะต้องมีอะไรที่เด็ดกว่ารอปล่อยอยู่นั่นเองค่ะ
ซึ่งสุดท้ายก็เป็นตามคาด และดูเหมือนอีกว่า Alphbet อาจกำลังจะเปลี่ยนโลกอินเทอร์เน็ตและวิธีที่เราใช้เทคโนโลยีไปเลยอีกด้วยค่ะ แถมเรียกว่าชิงตัดหน้า Apple ไปเรียบร้อยอีกต่างหาก รวมถึงยังได้ท้าชิงตำแหน่งเจ้า AI กับ OpenAI และ Meta อีกเช่นกัน ซึ่งทั้งคู่ก็ยังไม่ปล่อย GPT5 หรือ LLAMA ตัวใหม่ออกมาซักที (รอ GPT5 อยู่นะ 😆)
แถมรอบนี้ Alphabet ได้เอา Gemini มาโชว์ให้โลกเห็นแบบชัดๆ แล้วว่า AI ที่นอกเหนือจากแค่ Chatbot ทำอะไรได้อีกบ้าง ซึ่งแอดบอกเลยว่า คนตกงานเพียบแน่นอนในอีกไม่กี่ปีข้างหน้าค่ะ เดี๋ยวเล่าให้ฟังทีละอย่าง ส่วนเรื่องของ technical และราคา ตามอ่านที่เพจอื่นๆ ก่อนได้เลยค่ะ โพสต์นี้จะเล่าในแนว real world application มากกว่าค่ะ
🎙️Podcast
✅ ทำความรู้จัก Gemini, Search AI, และสารพัดเครื่องมือ AI สุดล้ำ
ในงาน Google I/O ทาง Alphabet ได้เปิดตัวผลิตภัณฑ์ใหม่ดังนี้ค่ะ
👉🏻 Gemini 2.5: สมองกล AI ที่ฉลาดขึ้นจนเกือบจะคิดเองได้เหมือนคน และฉลาดสุดในบรรดา AI ตอนนี้
👉🏻 Search AI Mode: บอกลาหน้าค้นหาแบบเดิมๆ ที่มีแต่ลิงก์ แล้วเจอคำตอบจาก AI ตรงๆ เลย ที่บอกเลยว่ากล้า Disrupt Search Business ของตนเอง
👉🏻 Imagen 4, Veo 3, และ Flow: เครื่องมือ AI ที่จะเปลี่ยนให้เราทุกคนสร้างภาพสวยๆ วิดีโอปังๆ ได้เหมือนมีสตูดิโอส่วนตัว งานนี้กระเทือนวงการภาพและวิดิโอรวมถึง CGI เต็มๆ
👉🏻 XR (Extended Reality): เทคโนโลยีที่จะเชื่อมโลกจริงกับ AI ให้ใกล้กันยิ่งกว่าเดิม แบบที่ Apple ต้องอิจฉาตาร้อน
เริ่มที่ไฮไลท์เด็ดสุดๆ อย่าง Gemini 2.5 กันก่อนค่ะ นี่คือ AI รุ่นล่าสุดจากทีม Google DeepMind ที่เขาว่ากันว่าอีกนิดเดียวก็จะเก่งระดับ AGI (Artificial General Intelligence) หรือ AI ที่มีความฉลาดรอบด้านเหมือนมนุษย์แล้วล่ะค่ะ
Gemini รุ่นใหม่นี้จะไม่ได้แค่ตอบคำถามเหมือน ChatGPT หรือ AI ทั่วไปนะคะ แต่มัน "คิด" และมี "world-modeling" คือเข้าใจโลกได้ซับซ้อนขึ้น (คะแนนสูงกว่า o3 ของ OpenAI) โดยทางด้านคุณ Demis Hassabis ซีอีโอของ Google DeepMind บอกว่า กว่า AI จะไปถึงขั้น AGI ได้ ต้องฝึกความสามารถพื้นฐานบางอย่าง ซึ่งเราเริ่มเห็นแววใน Gemini แล้วค่ะ
โดยGemini 2.5 มีออกมา 2 รุ่นย่อยคือ
* Gemini 2.5 Pro: รุ่นท็อป ความสามารถจัดเต็ม
* Gemini 2.5 Flash: รุ่นเล็ก เน้นความไว
ทั้งสองรุ่นจะมีความเก่งขึ้นเยอะเลยค่ะ โดยเฉพาะเรื่องการใช้ เหตุผล (reasoning), การ เขียนโค้ด (code generation), และการประมวลผลข้อมูลยาวๆ หรือ long-context ได้ดีขึ้นประมาณ 20–30% เมื่อเทียบกับรุ่นก่อนหน้า
ที่พีคกว่านั้นคือฟีเจอร์ใหม่ “Deep Think” (เฉพาะในรุ่น Pro) อันนี้เป็นโหมดทดลองที่ให้ AI คิดแบบลึกซึ้ง คือมันจะแตกปัญหาออกเป็นส่วนเล็กๆ แล้วคิดหาคำตอบหลายๆ แบบก่อนจะตอบจริง เหมือนวิธีคิดของคนเราเลยนั่นเองค่ะ
ฟีเจอร์นี้ทำให้ Gemini 2.5 Pro ทำคะแนนนำในการทดสอบยากๆ เช่น เขียนโค้ดระดับเทพ หรือแก้โจทย์คณิตศาสตร์ขั้นสูง จนนักพัฒนาหลายคนยกให้เป็น AI ตัวท็อปสำหรับงานเขียนโปรแกรมและวิเคราะห์ข้อมูลไปแล้ว ความสามารถในการ "คิด" ของ Gemini นี่แหละค่ะ ที่เป็นสัญญาณว่า AI กำลังจะฉลาดทัดเทียมมนุษย์เข้าไปทุกที
🔎 Search AI Mode – ค้นหาแบบใหม่ ไม่ต้องไล่คลิกลิงก์
Google ที่เราใช้ค้นหาข้อมูลกันทุกวัน กำลังจะเปลี่ยนไป! ด้วยโหมดค้นหาอัจฉริยะที่เรียกว่า “AI Mode” หรือ Search Generative Experience (SGE) ค่ะ
ที่อเมริกาตอนนี้ ถ้าใครใช้ Google Search แล้วพิมพ์คำถามที่ซับซ้อนๆ จะไม่เห็นลิสต์ลิงก์สีน้ำเงิน 10 อันดับแบบเดิมๆ อีกต่อไปแล้วนะคะ แต่ระบบจะ แสดงกล่องข้อความที่ AI สรุปคำตอบมาให้แบบยาวๆ อยู่บนสุดของหน้าเลยค่ะ กล่องนี้ Google เรียกว่า “AI Overviews” ไม่ใช่แค่สรุปคำตอบนะคะ แต่ยังมีปุ่มให้เรากด ถามต่อยอด (follow-up) เพื่อคุยกับ AI ต่อได้เรื่อยๆ เหมือนมีผู้ช่วยส่วนตัวมานั่งคุยด้วยเลย
สาเหตุที่ Google ทำแบบนี้ก็เพื่อสู้กับพวกแชตบอตค้นหาอย่าง Bing Chat หรือ ChatGPT ที่เริ่มมาแย่งคนใช้ Google Seach นั่นเองค่ะ โดยเขาได้ทดสอบ AI Overviews มาตั้งแต่ปี 2024 ถึงแม้ว่าช่วงแรกๆ จะมีตอบมั่วๆ บ้าง แต่ก็ปรับปรุงมาเรื่อยๆ
จนปี 2025 นี้ ก็มั่นใจและได้ เปิดให้คนทั่วไปในอเมริกา สลับไปใช้ AI Mode ได้เต็มตัวแล้ว โดยโหมดนี้จะเหมาะมากๆ สำหรับคำถามที่ซับซ้อน มีหลายแง่มุม ที่การค้นหาแบบเดิมๆ อาจจะตอบได้ไม่ดี เช่น คำถามเปรียบเทียบ หรือคำแนะนำที่ไม่มีคำตอบตายตัว
แถม AI Mode ยังเริ่มทำตัวเป็น ผู้ช่วยช้อปปิ้ง ได้ด้วยนะคะ (ทำตัวเป็น AI Agent) สามารถโชว์สินค้าพร้อมคำแนะนำ หรือแม้กระทั่งโชว์ภาพเสื้อผ้าบนตัวเรา (ผ่านฟีเจอร์ลองเสื้อแบบ AR) ช่วยให้ตัดสินใจซื้อง่ายขึ้นในหน้าแชตเลย
⚠️ การที่ Google “ยอมตัดลิงก์” ออกไปจากหน้าแรกแบบนี้ ก็กระทบธุรกิจโฆษณาเดิมๆ ที่ทำเงินให้ปีละกว่า สามแสนล้านดอลลาร์ จากการคลิกลิงก์โฆษณา (CPC) แน่นอน แต่ Alphabet ก็เลือกที่จะ Disrupt ตัวเองก่อนเลย โดยเขาได้คิดโมเดลโฆษณายุค AI ใหม่มาเป็น “sponsored answers” หรือการ ใส่โฆษณาเข้าไปในคำตอบของ AI เลย แทนที่จะเป็นลิงก์โฆษณาแยกๆ เหมือนเมื่อก่อน
2
เช่น ถ้าเราถามวิธีดูแลเสื้อผ้า AI อาจจะแนะนำยาวๆ แล้วมีส่วนพิเศษขึ้นว่า ‘Sponsored’ บอกว่าลองใช้สเปรย์ดูแลผ้ายี่ห้อนี้สิ เป็นต้นค่ะ
ตอนนี้เขากำลังทดลองโฆษณารูปแบบใหม่นี้ในอเมริกา และกำลังพัฒนาตัวชี้วัดความสำเร็จใหม่ หรือ KPI ใหม่คือ “conversion inside flow” พูดง่ายๆ คือ แทนที่จะวัดว่าคนคลิกลิงก์ออกไปเว็บอื่นเยอะไหม (CTR) เขาจะวัดว่า คนทำสิ่งที่ต้องการสำเร็จในหน้า AI เลยหรือเปล่า (เช่น สั่งซื้อของ หรือกรอกฟอร์ม) ซึ่งมันก็ดีกับเราด้วยนะคะ เพราะประสบการณ์มันจะลื่นไหล ไม่ต้องคลิกไปคลิกมาหลายเว็บ
👉🏻 ต้องบอกว่ากลยุทธ์ Disrupt ตัวเองก่อนถูกคนอื่น Disrupt คือ กลยุทธ์ที่ Big Tech ชอบใช้เป็นประจำอยู่แล้ว ทำให้ยังครองอำนาจมาได้ยาวนานถึงทุกวันนี้ค่ะ
🤳 Imagen 4, Veo 3 และ Flow – สตูดิโอสร้างสรรค์ในมือคุณ
นอกจากเรื่องค้นหาแล้ว Alphabet ยังเปิดตัวชุดเครื่องมือ AI ที่จะ ย่อสตูดิโอผลิตสื่อใหญ่ๆ มาไว้ในมือเรา เหมือนมี "สตูดิโอส่วนตัวในกระเป๋า" เลยค่ะ! ครื่องมือหลักๆ ก็มีเช่น
🌄 Imagen 4: AI สร้างภาพเวอร์ชันล่าสุดจาก Google ที่ทำรูปออกมาได้ละเอียดสมจริงขึ้นมากๆ ทั้งพื้นผิว (texture) และที่สำคัญคือ สร้างตัวอักษรหรือข้อความในภาพ ได้เป๊ะขึ้นเยอะ (ก้าวมาแข่งกับ OpenAI แล้ว) ทำให้เราแค่พิมพ์ไอเดียเข้าไป แป๊บเดียวก็ได้ภาพสวยๆ คุณภาพสูงเหมือนศิลปินวาดเลย (แอดใช้ทำหน้าปกกับ info ในเพจตลอด เลิกใช้พวก stock image ไปนานมากๆ แล้ว)
🎥 Veo 3: AI สร้างวิดีโอจากข้อความที่เก่งขึ้นไปอีกขั้น Google บอกว่า Veo 3 เข้าใจเรื่อง ฟิสิกส์ของสิ่งของและการเคลื่อนไหว ได้ดีขึ้น ทำให้วิดีโอแอนิเมชันที่สร้างออกมาดูเนียนและสมจริงมากๆ แถมยังสร้างวิดีโอชัดระดับ Full HD 1080p ที่ 60 เฟรมต่อวินาที ได้ แค่เราพิมพ์บทหรือคำอธิบายฉากสั้นๆ ก็เสกวิดีโอคุณภาพดี ความยาวหลายวินาทีออกมาได้เลย (ตอนนี้ฟีเจอร์นี้ให้ใช้เฉพาะสมาชิก Google AI Ultra แบบจำกัดก่อนนะคะ)
แถมเด็ดสุดเหนือชาวบ้านคือ คราวนี้มาพร้อมเสียงประกอบ sound effect หรือบทสนทนาได้ด้วย บอกลาบริการพวก sound effect หรือ Background Music ได้เยอะเลย
🎬 Flow: แอปพลิเคชันใหม่ที่ทำหน้าที่เหมือนผู้กำกับและคนตัดต่อค่ะ มันจะเชื่อม Imagen, Veo และเครื่องมืออื่นๆ เข้าด้วยกัน ทำให้ กระบวนการตั้งแต่คิดไอเดียไปจนถึงได้คลิปวิดีโอสำเร็จรูป ทำได้ในคลิกเดียว
โดยเราเริ่มจากร่างโครงเรื่อง จากนั้นให้ Flow ช่วยสร้างตัวละคร ฉาก หรือของประกอบฉากด้วย Imagen 4 แล้วก็ใช้ Veo 3 สร้างแอนิเมชันตามที่เราอยากได้ สุดท้าย Flow ก็จะรวมทุกอย่างเข้าด้วยกันเป็นหนังสั้นตามบทที่เราพิมพ์บอกไปทีละฉากๆ
และถ้าไม่มีภาพต้นแบบ เราก็แค่พิมพ์บอกว่าอยากได้อะไร Flow ก็จะใช้ AI สร้างภาพให้เองในแอปเลย จากนั้นเราก็เล่าเรื่องแต่ละฉากเป็นข้อความว่าอยากให้เกิดอะไรขึ้น ระบบก็จะสร้างวิดีโอให้ตามนั้นเลยค่ะ
พอมี Imagen 4, Veo 3 และ Flow ทำงานด้วยกัน การสร้างสื่อดิจิทัลก็ง่ายและเร็วขึ้นแบบก้าวกระโดด งานที่เมื่อก่อนต้องใช้ทีมกราฟิกมืออาชีพทำกันหลายวัน ตอนนี้อาจจะเสร็จในไม่กี่ชั่วโมงหรือไม่กี่นาที เพราะมี AI ช่วยคิดช่วยทำเกือบทุกอย่าง เทคโนโลยีนี้ไม่เพียงแต่จะช่วยให้ครีเอเตอร์มือโปรทำงานไวขึ้น แต่ยังเปิดโอกาสให้คนทั่วไปอย่างเราๆ สร้างคอนเทนต์คุณภาพสูงได้เอง ลดช่องว่างระหว่าง "คนสร้าง" กับ "คนดู" ไปเยอะเลยค่ะ
และที่แน่ๆ คือ งานในกลุ่มนี้อาจจะหายไปเยอะในไม่กี่ปีข้างหน้า และจะเหลือพื้นที่ให้เฉพาะหัวกะทิจริงๆ เท่านั้น
👓 XR และ AI ในโลกความจริง – เมื่อดิจิทัลกับชีวิตจริงใกล้กันกว่าเดิม
อีกเรื่องที่น่าสนใจไม่แพ้กันคือการที่ Alphabet พยายามจะเอาโลกเสมือนมาผสมกับโลกจริงผ่านเทคโนโลยี XR (Extended Reality) ค่ะ โดย Google กลับมาลงทุนพัฒนาแว่นตาอัจฉริยะและหูฟัง XR อีกครั้ง หลังจากที่ Google Glass ในอดีตไม่ค่อยปังเท่าไหร่ คราวนี้ Google เปิดตัว Android XR ซึ่งเป็นระบบปฏิบัติการสำหรับอุปกรณ์สวมหัว (headsets) รุ่นใหม่โดยเฉพาะ
พร้อมกันนี้ยังจับมือกับพาร์ทเนอร์หลายเจ้า เช่น Samsung ที่กำลังร่วมกันพัฒนา XR headset (ชุดแว่นพร้อมหูฟังที่หน้าตายังกับฝาแฝดของ Apple Vision Pro 🤣) เตรียมเปิดตัวภายในปีนี้ และยังร่วมกับแบรนด์แว่นตาดังอย่าง Warby Parker และ Gentle Monster ออกแบบแว่นตาอัจฉริยะที่หน้าตาเหมือนแว่นสายตาทั่วไป แต่ข้างในมีเทคโนโลยี XR ซ่อนอยู่ ก่อนจะครอบด้วย Head Up Display
ดูทรงแล้ว Google อยากให้แว่น XR เป็นที่ยอมรับในชีวิตประจำวันมากขึ้น ผ่านดีไซน์สวยๆ ที่ใส่ได้จริง ซึ่งเรียกว่าเป็นการตัดหน้า Apple และ Meta ไปก่อนแล้วในแง่ของ AR Glasses ค่ะ
‼️ ที่สำคัญที่สุดคือ AI อัจฉริยะอย่าง Gemini ก็จะถูกนำมาใช้กับอุปกรณ์ XR พวกนี้ด้วยค่ะ เพื่อให้ประสบการณ์ใช้งานมันว้าวกว่าเดิม
อย่างที่ Google โชว์ในงาน I/O คือ แว่นตา XR ที่แปลภาษาได้แบบเรียลไทม์ เวลาคนสองคนคุยกันคนละภาษา จะมีซับไตเติลแปลขึ้นบนเลนส์แว่นให้เราเห็นทันที
ไม่ใช่แค่นั้นนะคะ แว่นต้นแบบยังเชื่อมกับ Gemini ทำให้เรา ถามคำถามเกี่ยวกับสิ่งที่เห็นรอบตัว แล้ว AI ก็ตอบผ่านแว่นได้เลย เช่น เดินเที่ยวอยู่แล้วถามแว่นว่า "ตึกข้างหน้านี่คืออะไร?" Gemini ก็จะประมวลผลภาพจากกล้องแว่น แล้วตอบว่าเป็นตึกอะไร มีประวัติยังไงให้ทันที เหมือนมีไกด์ส่วนตัวติดตาเราตลอดเวลาเลยค่ะ
นี่แหละค่ะคือการเอา AI ออกจากหน้าจอ มาสู่อุปกรณ์รอบตัวเราจริงๆ ทำให้ประสบการณ์ใช้อินเทอร์เน็ตและข้อมูลมัน "หลอมรวมกับโลกจริง" อย่างแนบเนียน และเป็นการโชว์บริษัทเทคฯ อื่นๆ ว่าการนำ AI มาใช้จริงจังนอกจาก Chatbot ควรทำแบบไหนค่ะ
✅ เทคโนโลยี AI ที่อยู่เบื้องหลังความสามารถทั้งหมดนี้คือ Project Astra และ Project Mariner
ถ้าจะให้แอดเจาะลึกลงไปอีกนิดถึงเทคโนโลยีเบื้องหลังความสามารถใหม่ทั้งหมดนี้ก็คงต้องพูดถึง Project Astra และ Project Mariner ค่ะ
หัวใจสำคัญของ Project Astra คือการเป็น AI แบบ Multimodal ที่ล้ำมากๆ ค่ะ คือมันไม่ได้แค่รับข้อมูลทีละอย่างเหมือน AI ทั่วไป แต่สามารถ 'มองเห็น' ผ่านกล้อง และ 'ได้ยิน' เสียงรอบข้างไปพร้อมๆ กันแบบเรียลไทม์ เหมือนคนเราเลยค่ะ
ซึ่งจุดนี้ทำให้มันเข้าใจสถานการณ์และบริบทตรงหน้าได้อย่างรวดเร็วและแม่นยำ ที่สำคัญคือระบบประมวลผลของมันถูกออกแบบมาให้มีความหน่วงต่ำ (low latency) มากๆ ทำให้ข้อมูลภาพและเสียงจะถูกส่งไปให้ AI วิเคราะห์และตอบสนองกลับมาแทบจะทันที ไม่ต้องรอนาน ซึ่งทำให้การโต้ตอบของมันจะลื่นไหลเป็นธรรมชาติมากๆ ค่ะ
นอกจากนี้มันยังสามารถจดจำสิ่งที่เห็นก่อนหน้า เชื่อมโยงข้อมูลต่างๆ แล้วช่วยเราวิเคราะห์หรือตอบคำถามเกี่ยวกับสิ่งที่อยู่ตรงหน้าได้ทันควัน อย่างการช่วยซ่อมจักรยานโดยดูจากสิ่งที่เราส่องกล้องไป หรือการอธิบายสภาพแวดล้อมให้ผู้พิการทางการมองเห็นได้เลยอีกเช่นกันค่ะ
ส่วน Project Mariner ที่จะมาอัปเกรด AI ใน Search Mode ให้กลายเป็นผู้ช่วยลงมือทำงานแทนเราได้ เบื้องหลังของมันก็คือ AI ที่มีความสามารถเป็นเหมือน 'ผู้ดำเนินการอัจฉริยะ' (Intelligent Agent) ค่ะ
มันไม่ได้แค่เข้าใจคำสั่งของเราเท่านั้น แต่ยังสามารถ วางแผนและดำเนินการเป็นขั้นตอน (task decomposition and execution) เพื่อให้บรรลุเป้าหมายนั้นๆ บนโลกออนไลน์ได้ด้วยตัวเอง ซึ่งเทคโนโลยีนี้ต้องอาศัยความเข้าใจในโครงสร้างของเว็บไซต์และแอปพลิเคชันต่างๆ เพื่อให้ AI สามารถ โต้ตอบกับหน้าเว็บ (UI interaction) เช่น รู้ว่าต้องคลิกปุ่มไหน กรอกข้อมูลอะไรในแบบฟอร์ม (form filling) ซึ่งปกติเป็นเรื่องที่คนต้องทำเองทั้งหมดค่ะ
มันจึงต้องเรียนรู้และจดจำรูปแบบการทำงานของเว็บต่างๆ เพื่อให้สามารถดำเนินการแทนเราได้อย่างถูกต้อง ตั้งแต่การค้นหาข้อมูล เปรียบเทียบ ไปจนถึงการทำธุรกรรม เช่น การจองตั๋ว หรือสั่งซื้อสินค้า
👉🏻 เทคโนโลยีนี้แหละค่ะที่จะทำให้ AI ไม่ใช่แค่ตอบคำถาม แต่เป็นผู้ช่วยส่วนตัวที่จัดการธุระออนไลน์ที่ซับซ้อนให้เราได้จริงๆ จินตนาการดูสิคะว่ามันจะเปลี่ยนชีวิตเราให้สะดวกสบายขึ้นขนาดไหนในอนาคต
‼️ แล้วมันจะกระทบ “งาน” ประเภทไหนบ้าง?
เมื่อ AI Mode ตัดขั้นคลิกออก ผู้ที่พึ่งพาทราฟฟิก SEO‐First อย่างนักเขียน คอนเทนต์สายข่าวหรือบล็อกเกอร์อาจเห็นยอดผู้เข้าชมลดลง ส่วนเอเจนซี่โฆษณา-SEM ต้องรีบปรับจากโมเดล CPC ไปสู่การออกแบบ “คำตอบสปอนเซอร์” ให้โดดเด่นใน AI Overviews แทนค่ะ
ด้านสายสร้างสื่อ วิดีโอ-กราฟิกระดับพื้นฐานจะถูกกดราคาเพราะใครก็ใช้ Imagen 4 กับ Veo 3 ทำเองได้ในไม่กี่คลิก
ขณะเดียวกัน งานที่ได้อานิสงส์คือครีเอเตอร์มืออาชีพและนักเล่าเรื่อง เพราะยิ่งมีไอเดียเฉพาะทาง ยิ่งใช้ Flow ย่อเวลาผลิตคอนเทนต์ได้มหาศาล
ฝั่งบริการลูกค้า-ซัพพอร์ตจะถูกแทนที่บางส่วนด้วย Gemini Live + Astra ที่ตอบคำถามเห็นภาพจริงได้ทันที
ส่วนงานแปลภาษาหน้างาน เช่น ไกด์ทัวร์หรือเจ้าหน้าที่ต้อนรับอาจจะหายไปในอนาคตอันใกล้
ดังนั้นรวมๆ แล้ว ใครที่เน้นแรงงานเชิงซ้ำกับข้อมูล จะถูก AI กลืนตลาดเร็วที่สุด แต่ใครที่เพิ่มคุณค่าด้วยมุมมอง สตอรี่ และความเป็นมนุษย์ จะมี “ผู้ช่วยอัจฉริยะ” คอยขยายขีดความสามารถให้แทนค่ะ
🎯 สรุปส่งท้าย: โลกอินเทอร์เน็ตยุคใหม่กำลังจะเริ่มแล้ว
พอเห็นภาพรวมทั้งหมดแล้ว ทั้ง สมองกลอัจฉริยะ Gemini, การค้นหาแบบ AI ที่ตอบตรงใจทันที, เครื่องมือสร้างคอนเทนต์ในมือทุกคน, หรือ แว่น XR ที่เอาข้อมูลมาไว้ตรงหน้าเรา ทั้งหมดนี้มันบอกเราว่า Alphabet กำลังจะเปลี่ยนโฉมหน้าอินเทอร์เน็ตและวิธีที่เราใช้เทคโนโลยี ในชีวิตประจำวันไปอย่างสิ้นเชิง
อินเทอร์เน็ตยุคใหม่อาจจะไม่ใช่การเปิดเบราว์เซอร์ ค้นหาลิงก์ หรือโพสต์รูป อ่านข่าวแบบเดิมๆ อีกต่อไปแล้วนะคะ แต่จะเป็นยุคที่ AI ทำงานอยู่เบื้องหลังทุกอย่าง ตั้งแต่คิด วิเคราะห์ ตอบคำถาม สร้างสื่อ ไปจนถึงลงมือทำบางอย่างแทนเรา
ในขณะที่อุปกรณ์รอบตัวอย่างมือถือหรือแว่นตาก็จะกลายเป็นประตูที่เชื่อมโลกดิจิทัลกับโลกจริงเข้าด้วยกัน ประสบการณ์ทั้งหมดนี้กำลังจะเริ่มต้นขึ้นแล้วผ่านบริการและผลิตภัณฑ์ใหม่ๆ ของ Alphabet และมันอาจจะเปลี่ยนวิธีที่เรารับข้อมูล ความรู้ ความบันเทิง รวมถึงการมีปฏิสัมพันธ์กับโลกออนไลน์และโลกจริงไปเลยในอนาคตอันใกล้นี้ค่ะ
แล้วเทคโนโลยีสุดล้ำพวกนี้จะกระทบงานของใครบ้าง? ต้องบอกว่าหลายอาชีพเลยค่ะ อย่างนักเขียน คอนเทนต์ครีเอเตอร์ หรือคนทำ SEO อาจจะต้องปรับตัวกันยกใหญ่ เพราะถ้าคนได้คำตอบจาก AI Search เลย ก็อาจจะไม่ได้คลิกเข้าเว็บเราเหมือนเดิมอีกแล้ว
ส่วนนักออกแบบ กราฟิก หรือคนทำวิดีโอ ก็อาจเจอคู่แข่งเป็น AI ที่สร้างภาพสวยๆ วิดีโอเจ๋งๆ ได้ในพริบตา งานแปลภาษาก็อาจจะน้อยลงเพราะมีแว่นแปลภาษาแบบเรียลไทม์ แม้กระทั่งโปรแกรมเมอร์ที่ AI ก็เริ่มช่วยเขียนโค้ดได้แล้ว
แต่อย่าเพิ่งตกใจไปนะคะ ในอีกมุมหนึ่ง AI ก็เป็นเครื่องมือทรงพลังที่ช่วยให้เราทำงานได้เร็วขึ้น เก่งขึ้น เปิดโอกาสให้เราไปโฟกัสกับงานที่ต้องใช้ความคิดสร้างสรรค์ การวางกลยุทธ์ หรือความเป็นมนุษย์ที่ AI ยังทำแทนไม่ได้ค่ะ เรียกว่าเป็นการเปลี่ยนผ่านที่เราต้องเรียนรู้และปรับตัวไปพร้อมกับเทคโนโลยีเลยล่ะค่ะ และใครที่ปรับตัวไม่ได้ ก็จะถูกทิ้งไว้ข้างหลังค่ะ
นับเป็นยุคที่น่าตื่นเต้น และตื่นตระหนกไปพร้อมๆ กันค่ะ เพราะ AI ที่เราเห็นในวันนี้ คือ AI ที่โง่ที่สุดค่ะ
ปล. ปัญหาคือ จะเอาตังที่ไหนมาจ่าย Gemini Ultra ที่ดันแพงกว่า ChatGPT Pro อี๊กกกกก 🤣
โฆษณา