15 พ.ย. เวลา 07:04 • หุ้น & เศรษฐกิจ

AI ‘เปลี่ยนพื้นฐานหุ้นบิ๊กเทค’ จากธุรกิจใช้ทุนต่ำ กำไรสูง สู่ ‘โมเดลลงทุนหนัก’ ก่อหนี้เกินรายได้

ศึก AI กำลัง ‘พลิกพื้นฐานหุ้นบิ๊กเทค’ จากบริษัทซอฟต์แวร์ต้นทุนต่ำ กำไรสูง สู่ ‘โมเดลลงทุนหนัก’ เพื่อเร่งสร้างดาต้าเซ็นเตอร์และซื้อชิป จนเริ่มพึ่งพาหนี้มากกว่ากระแสเงินสด อายุใช้งานสินทรัพย์ AI ก็ค่อนข้างสั้น เทคโนโลยีชิปเปลี่ยนเร็ว การสร้างฐานอนาคตนี้จะคุ้มค่าหรือไม่
เดิมทีนักวิเคราะห์เชื่อว่า AI ไม่ใช่ฟองสบู่ เพราะบริษัทบิ๊กเทคมีเงินสดมหาศาลและ “ออกเงินเอง” สำหรับการสร้างดาต้าเซ็นเตอร์ AI
แต่ตอนนี้เริ่มมีสัญญาณว่า บริษัทเหล่านี้เริ่ม “กู้เงินนักลงทุน” (ออกหุ้นกู้) เพื่อใช้ในค่าใช้จ่าย AI ที่พุ่งสูงขึ้นเรื่อย ๆ อย่าง Meta กำลังจะออกหุ้นกู้ 30,000 ล้านดอลลาร์ (ประมาณ 9.7 แสนล้านบาท) และ Oracle ออกหุ้นกู้ 18,000 ล้านดอลลาร์ (ประมาณ 5.8 แสนล้านบาท) เพื่อสร้างดาต้าเซ็นเตอร์ให้ OpenAI
นี่ทำให้ความคล้ายคลึงกับฟองสบู่โทรคมนาคมในปี 2000 เริ่มชัดขึ้นหรือไม่ และอาจทำให้ “ความคลั่งไคล้ AI” พลิกเป็น “ความสงสัย” ได้เร็วมาก
อย่างไรก็ตาม ดูเหมือนว่า “กระแสหลัก” ของนักลงทุนในตลาดตอนนี้ กลับกังวล “กลัวตกรถ AI” มากกว่าความเสี่ยงขาลง
📌บริษัทเทคกำลัง ‘เปลี่ยนพื้นฐาน’ โมเดลธุรกิจ
แต่เดิมนั้น บิ๊กเทคที่เรารู้จักกัน เป็น Software Company “ไม่ต้องลงทุนหนัก” ไม่ต้องขยายร้านสาขามากมาย ขอเพียงขยายเครือข่ายผู้ใช้ให้โตขึ้นเรื่อย ๆ ผลคือ อัตรากำไรสูง และโตขึ้นเรื่อย ๆ เอง อย่างที่เห็นในโมเดล Microsoft Office, Facebook, Google ฯลฯ
แต่ในยุค AI กลับไม่ใช่แล้ว บิ๊กเทคต่างแข่งกันเร่งลงทุนหนัก เพื่อไม่ให้พลาดเทรนด์ใหญ่นี้
เพราะยุค AI ต้องใช้ “4 เสาหลัก” พร้อมกัน
1. ชิปประมวลผล AI
2. ดาต้าเซ็นเตอร์
3. พลังงานมหาศาล (ทั้งไฟฟ้าและน้ำ)
4. เครือข่ายไฟเบอร์-ระบายความร้อนระดับ Hyperscale
นี่คือโครงสร้างใหม่ของบริษัทเทค ทำให้ค่าใช้จ่ายถาวรเพิ่มขึ้นอย่างมหาศาล และต้องใช้ทุนหนักต่อเนื่อง
ทั้ง 4 บริษัท Google, Amazon, Meta และ Microsoft ประกาศว่า จะใช้จ่ายรวมกว่า 400,000 ล้านดอลลาร์ (เกือบ 13 ล้านล้านบาท) ไปกับศูนย์ข้อมูลในปี 2026 ซึ่งเพิ่มขึ้นจาก 350,000 ล้านดอลลาร์ (ราว 11 ล้านล้านบาท) ในปีนี้
ถ้ารูปแบบนี้ดำเนินต่อไป ต้นทุน AI มีแนวโน้มผลักให้บริษัทต้องกู้มากขึ้น ความเสี่ยงของงบดุลจะเพิ่มขึ้น ฟองสบู่ของโครงสร้างพื้นฐาน AI อาจเริ่มก่อตัว
คำถามที่ตามมาคือ การลงทุนที่หนักขึ้นเรื่อย ๆ จะนำมาซึ่งกำไรและผลตอบแทนที่คุ้มค่าหรือไม่
📌ชิป AI อายุเพียง 1–3 ปี?
ในงบดุลของเหล่ายักษ์เทคแห่งยุค AI ค่าใช้จ่ายจำนวนมากมาจาก “สินทรัพย์ถาวรด้านเทคโนโลยี” เช่น เซิร์ฟเวอร์ ชิป AI อุปกรณ์จัดเก็บข้อมูล ระบบเครือข่ายในดาต้าเซ็นเตอร์ ต้นทุนการก่อสร้างดาต้าเซ็นเตอร์ ฯลฯ
สินทรัพย์เหล่านี้ไม่ได้บันทึกเป็นค่าใช้จ่ายทั้งก้อนทันที แต่ถูกตัดค่าเสื่อมราคา ตามอายุการใช้งานคาดการณ์
สำหรับคำถามที่ว่า ชิป AI รุ่นมาตรฐานอย่าง “NVIDIA H100” มีอายุการใช้งานกี่ปี
อันที่จริง Nvidia ไม่ได้ระบุตัวเลขอายุการใช้งานที่แน่ชัด แต่มีแหล่งข้อมูลใน Tom's Hardware เว็บไซต์ด้านฮาร์ดแวร์คอมพิวเตอร์ชื่อดังที่ก่อตั้งตั้งแต่ปี 1996 อ้างผู้เชี่ยวชาญใน Alphabet ที่คาดการณ์ว่า ภายใต้ “การใช้งานที่สูงมากอย่างต่อเนื่อง” อายุการใช้งานชิปนี้ อาจหดสั้นลงเหลือเพียง “1-3 ปี”
ขณะที่เอกสาร “Software Lifecycle” ของ NVIDIA ระบุว่า การรับประกันฮาร์ดแวร์ของชิป AI บางรุ่น มักอยู่ที่ “ประมาณ 3 ปี” เป็นมาตรฐาน
สิ่งน่าสนใจคือ สินทรัพย์เหล่านี้เสื่อมเร็วยิ่งกว่าสินทรัพย์อาคาร โรงงานในธุรกิจทั่วไป เหตุผลก็เพราะว่า โมเดล AI ใหม่ต้องการชิปรุ่นใหม่ที่แรงขึ้น เพื่อให้ทันคู่แข่ง จนทำให้ GPU รุ่นเก่าเหมือน “ล้าสมัยเร็ว” แม้ยังใช้งานได้ก็ตาม อีกทั้งการฝึกโมเดล ต้องการสเปกสูงขึ้นแบบก้าวกระโดดทุก 12–18 เดือน
ผลคือ มูลค่าสินทรัพย์หดเร็วกว่าอดีต แม้ไม่เสีย ก็อาจ “ใช้ไม่ทันตลาด”
ยังไม่นับรวมต้นทุนการใช้พลังงานไฟฟ้าที่สูงระดับหล่อเลี้ยง “เมืองใหญ่” ได้ทั้งเมือง รวมถึงต้องมีแหล่งน้ำมหาศาลในการหล่อเย็น
โฆษณา