Blockdit Logo
Blockdit Logo (Mobile)
สำรวจ
ลงทุน
คำถาม
เข้าสู่ระบบ
มีบัญชีอยู่แล้ว?
เข้าสู่ระบบ
หรือ
ลงทะเบียน
“วันละเรื่องสองเรื่อง”
•
ติดตาม
15 เม.ย. เวลา 11:35 • ธุรกิจ
🛑 เมื่อภัยคุกคามสูงสุดในยุค AI ไม่ใช่คู่แข่ง… แต่คือ “คนใน” ที่ต่อต้านการเปลี่ยนแปลง
ในทุกยุคของการปฏิวัติเทคโนโลยี มนุษย์มักไม่ได้แพ้เพราะเทคโนโลยี แต่แพ้เพราะ “ตัวเองไม่ยอมเปลี่ยน”
หากย้อนกลับไปในศตวรรษที่ 19 กลุ่มแรงงานสิ่งทอในอังกฤษที่เรียกว่า “Luddite” ลุกขึ้นมาทุบทำลายเครื่องจักร เพราะเชื่อว่ามันจะมาแย่งงานและทำลายชีวิตของพวกเขา
วันนี้ในปี 2026 ปรากฏการณ์เดียวกันนี้กำลังกลับมาอีกครั้ง…แต่ครั้งนี้ Luddite ไม่ได้ถือค้อน พวกเขานั่งอยู่ในห้องประชุม ใส่สูท พูดด้วยเหตุผล และใช้ “ความกลัว” เป็นเครื่องมือชะลออนาคตขององค์กร
แล้ว “องค์กรจะเอาชนะคนในที่ไม่อยากให้ใช้ AI ได้หรือไม่?”
====
📉 การต่อต้านที่มาในรูปแบบของ “ความหวังดี”?
Luddite ยุคใหม่ไม่ได้ต่อต้านอย่างเปิดเผย แต่แสดงออกผ่านสิ่งที่ดูเหมือน “มีเหตุผล” และ “ระมัดระวังต่อความเสี่ยง”
* “AI ยังไม่แม่น 100% รอให้มันนิ่งก่อนดีกว่า”
* “ข้อมูลเรา sensitive ใช้วิธีเดิมปลอดภัยกว่า”
* “ลงทุนสูงเกินไป ปรับ process เดิมก็น่าจะพอ”
* “รอให้มีคนบอก Best practice ก่อนว่าทำยังไง องค์กรเราจะเสี่ยงไม่ได้”
* “ผม/ดิฉัน เห็นข้อสงสัยความไม่สมบูรณ์มากมาย”
* “แล้วมันจะวัดผลยังไงเหรอครับ? ต้องบอกให้ชัดเจนก่อน” เป็นต้น
ในเชิงผิวเผิน คำพูดเหล่านี้คือการปกป้ององค์กร แต่ในเชิงพฤติกรรม มันคือการ “เลื่อนการตัดสินใจ” ออกไปเรื่อยๆ
เมื่อประโยคลักษณะนี้เกิดขึ้นซ้ำๆ ในหลายทีม หลายโปรเจกต์ มันจะสะสมกลายเป็น “แรงเสียดทานเชิงระบบ (systemic friction)” ที่ทำให้ทุกการทดลองใหม่ช้าลง หรือไม่เกิดขึ้นเลย
ผลลัพธ์คือ องค์กรไม่ได้ล้มเพราะตัดสินใจผิด แต่ล้มเพราะ “ไม่ตัดสินใจ”
อีกสิ่งที่มักมองไม่เห็นคือ “การต่อต้านแบบนี้ไม่ได้เกิดเฉพาะในห้องประชุมใหญ่” แต่ซึมอยู่ในขั้นตอนย่อยของงาน เช่น
* การไม่อนุมัติ pilot project เล็กๆ
* การตั้ง requirement เพิ่มจนทดลองไม่ได้
* การเลือกใช้วิธีเดิมเพราะ “เคยทำมาแล้ว”
ทั้งหมดนี้ทำให้ความเร็วขององค์กร “ช้าลงทีละนิด” จนรู้ตัวอีกที คู่แข่งก็แซงไปแล้ว
ประเด็นสำคัญคือ คนกลุ่มนี้มักไม่ใช่พนักงานระดับล่าง
แต่คือ “หัวหน้าระดับกลาง” หรือ “ผู้เชี่ยวชาญ” ที่เป็นคนที่เคยมีคุณค่าในระบบเดิม มี authority ในการตัดสินใจ และมีอิทธิพลต่อทิศทางทีม และกำลังกลัวว่าจะ “หมดความหมาย” ในระบบใหม่ เพราะเมื่อ AI เข้ามา สิ่งที่พวกเขาเคยเก่ง อาจถูกลดคุณค่าลงอย่างรวดเร็ว
ดังนั้น สิ่งที่ดูเหมือน “ความหวังดีต่อองค์กร” ในหลายกรณี คือ “กลไกป้องกันตัวเอง” ที่ซ่อนอยู่ลึกๆ และถ้าผู้นำมองไม่ออก องค์กรจะค่อยๆ ถูกตรึงไว้กับอดีต โดยไม่รู้ตัว
====
⚠️ ราคาที่องค์กรต้องจ่าย เมื่อยอมให้ความกลัวชนะ
การมี Neo-Luddite อยู่ในองค์กร ไม่ใช่แค่เรื่อง mindset แต่มันคือ “ความเสี่ยงเชิงกลยุทธ์” ที่ค่อยๆ กัดกินความสามารถในการแข่งขันโดยไม่รู้ตัว เพราะผลกระทบไม่ได้เกิดทันทีแบบฉับพลัน แต่จะสะสมเป็น “ต้นทุนแฝง” ที่มองไม่เห็นในทุกวันทำงาน
1. สูญเสียความเร็ว
องค์กรที่ใช้ AI อย่างจริงจัง สามารถลดเวลาการทำงานจากหลายวันเหลือไม่กี่ชั่วโมง เช่น การวิเคราะห์ข้อมูล การสร้าง prototype หรือการสรุป insight
ขณะที่องค์กรที่ลังเล จะค่อยๆ กลายเป็น “slow organization” ที่ต้องใช้เวลานานกว่าในการตัดสินใจ ทดลอง และปรับตัว และในโลกที่การแข่งขันวัดกันเป็นสัปดาห์หรือวัน
ความช้าไม่ได้แค่ “ทำงานไม่ทัน” แต่หมายถึง
* การออกสินค้าช้ากว่าคู่แข่ง
* การตอบสนองลูกค้าไม่ทัน
* และการเสีย first-mover advantage อย่างถาวร
พูดให้ชัดคือ "ความช้า = การสูญเสียตลาด"
2. สูญเสียคนเก่ง
คนเก่งในยุคนี้ โดยเฉพาะกลุ่มที่เป็น Product Builder ไม่ได้มองหาแค่เงินเดือนหรือสวัสดิการ แต่ต้องการ environment ที่
* ทดลองได้ (Experimentation)
* สร้างได้จริง (Execution)
* และเติบโตได้เร็ว (Learning Velocity)
เมื่อพวกเขาอยู่ในองค์กรที่เต็มไปด้วยข้ออ้าง หรือมีแรงต้านต่อการเปลี่ยนแปลง
พวกเขาจะรู้สึกว่า “ศักยภาพของตัวเองถูกจำกัด” และจะเลือกย้ายไปอยู่ในที่ที่
* ใช้ AI ได้เต็มที่
* มี autonomy สูง
* และสร้าง impact ได้จริง
นี่คือเหตุผลที่หลายองค์กรไม่รู้ตัวว่า ไม่ได้ “เสียคนเก่งเพราะเงินเดือน” แต่เสียเพราะ “วัฒนธรรมที่ไม่เปิดให้เติบโต”
3. สูญเสียอนาคต
ในอดีต การปรับตัวช้าอาจแค่ “โตช้าลง” หรือเสียโอกาสบางส่วน
แต่ในยุค AI
การปรับตัวช้า = เสี่ยง “หายไปจากระบบ”
เพราะการแข่งขันไม่ได้อยู่ในระดับ incremental อีกต่อไป แต่เป็น exponential
องค์กรที่ adopt AI จะสร้าง gap แบบก้าวกระโดด ทั้งในด้านต้นทุน ความเร็ว และคุณภาพของบริการ
ในขณะที่องค์กรที่ไม่เปลี่ยน จะค่อยๆ ถูกทิ้งห่าง จนถึงจุดที่ ไม่สามารถแข่งขันได้อีกต่อไป ไม่ว่าพยายามแค่ไหน
การยอมให้ความกลัวควบคุมการตัดสินใจ ไม่ได้ทำให้องค์กร “ปลอดภัยขึ้น” แต่ทำให้องค์กร “อ่อนแอลงในระยะยาว” อย่างต่อเนื่อง
====
🧠 เข้าใจความกลัว ก่อนจะจัดการมัน
สิ่งที่ผู้นำต้องเข้าใจคือ “ต้นตอ” ของการต่อต้าน ไม่ได้อยู่ที่เทคโนโลยี แต่อยู่ที่ “ตัวตนและความหมายของงาน” ของคนในองค์กร
คนที่ต่อต้าน AI ไม่ได้เกลียดเทคโนโลยี แต่พวกเขา “กลัวสูญเสียตัวตน” ที่เคยสร้างมา
* กลัวว่าความเก่งเดิมจะไม่มีค่า
* กลัวว่าต้องเริ่มใหม่ในสนามที่ไม่คุ้นเคย
* กลัวว่าตัวเองจะตามไม่ทันจังหวะของโลก
ในหลายกรณี ความกลัวนี้เชื่อมโยงกับสิ่งที่ลึกกว่านั้น เช่น
* สถานะในทีม (status) ที่เคยเป็นผู้รู้ อาจถูกท้าทาย
* อำนาจในการตัดสินใจ (authority) อาจลดลง
* ความมั่นคงในอาชีพ (job security) เริ่มไม่แน่นอน
จึงไม่น่าแปลกใจที่พฤติกรรมการ “ชะลอ” หรือ “ตั้งคำถามซ้ำๆ” จะเกิดขึ้น เพราะมันคือกลไกป้องกันตัวเองตามธรรมชาติ
นี่คือความกลัวเชิงจิตวิทยาที่ลึกกว่าทักษะ และไม่สามารถแก้ได้ด้วยการสั่งให้ “ไปเรียน AI เพิ่ม” เพียงอย่างเดียว
ผู้นำที่มองเห็นจุดนี้ จะสามารถออกแบบการเปลี่ยนผ่านได้อย่างมีมนุษยธรรม เช่น การให้เวลา reskill การสร้าง role ใหม่ หรือการย้ำคุณค่าที่คนยังมีอยู่
แต่ถ้าผู้นำมองไม่เห็นจุดนี้ แล้วใช้วิธีบังคับ เปรียบเทียบ หรือกดดันอย่างเดียว การบังคับใช้ AI จะล้มเหลวทันที เพราะคุณกำลังต่อสู้กับ “ความกลัว” ไม่ใช่ “ความไม่รู้”
====
🚀 เปลี่ยน หรือ ตัด?
การจัดการ Neo-Luddite ไม่ใช่แค่การ “บังคับให้ใช้ AI” แต่คือการออกแบบ “ระบบเปลี่ยนผ่าน”
1. อธิบาย “Why” ไม่ใช่แค่ “How”
อย่าสั่งให้ใช้ AI แต่ต้องทำให้เห็นว่า
AI ไม่ได้มาแทนคน แต่มาแทน “งานที่ไม่มีมูลค่า”
เพื่อให้คนไปโฟกัสสิ่งที่มีมูลค่าสูงกว่า
2. สร้างพื้นที่ปลอดภัยในการลองผิด
การใช้ AI ช่วงแรกจะไม่สมบูรณ์
ถ้าองค์กร punish ความผิดพลาด คนจะไม่กล้าลอง
แต่ถ้าองค์กร reward การทดลอง การเปลี่ยนแปลงจะเกิดเร็วขึ้นหลายเท่า
3. ตั้งมาตรฐานใหม่ให้ชัด
ต้องมีการกำหนดว่า
* งานแบบไหน “ต้องใช้ AI”
* outcome ใหม่คืออะไร
เพื่อไม่ให้เกิด “ทางเลือกในการไม่เปลี่ยน”
4. กล้าตัดคนที่ไม่ยอมเปลี่ยน
นี่คือส่วนที่ยากที่สุด แต่สำคัญที่สุด
เพราะคน 1 คนที่ต่อต้าน สามารถลดความเร็วของทั้งทีมได้
“ผู้นำที่ดี ไม่ใช่คนที่รักษาทุกคน แต่คือคนที่ปกป้องอนาคตขององค์กร”
====
✨ องค์กรไม่ได้แพ้ AI แต่แพ้ “ความกลัวของตัวเอง”
ในทุกการเปลี่ยนแปลง เทคโนโลยีไม่เคยเป็นศัตรู ศัตรูที่แท้จริงคือ “การยึดติดกับอดีต”
ในโลกที่ AI พัฒนาเร็วแบบ exponential ความเสี่ยงที่ใหญ่ที่สุด ไม่ใช่การเปลี่ยนแปลงที่เร็วเกินไป แต่คือการ “เปลี่ยนไม่ทัน”
ในยุคนี้ องค์กรไม่ได้ล้มเพราะคู่แข่งเก่งกว่า แต่ล้มเพราะ “คนใน” ไม่ยอมเปลี่ยนเร็วพอ และคำถามสุดท้ายที่ผู้นำต้องตอบให้ได้คือ
“คุณจะพาองค์กรไปสู่อนาคต… หรือจะปล่อยให้ความกลัวพามันถอยหลัง?”
#วันละเรื่องสองเรื่อง #NeoLuddite #ExecutiveMindset #FutureOfWork #ArtificialIntelligence #ChangeManagement #OrganizationalBehavior
====
📚 Source / Reference
* The Luddite Fallacy: แนวคิดทางเศรษฐศาสตร์และประวัติศาสตร์ที่ใช้อ้างอิงถึงกลุ่ม Luddites ในช่วงศตวรรษที่ 19 ซึ่งสะท้อนถึงความหวาดกลัวต่อเทคโนโลยีที่จะเข้ามาแทนที่แรงงานมนุษย์ ซึ่งมักจะเกิดขึ้นซ้ำในทุกยุคของการปฏิวัติอุตสาหกรรม
* Gartner (Barriers to AI Adoption): รายงานการวิจัยที่ชี้ชัดว่า อุปสรรคอันดับต้นๆ ขององค์กรระดับโลกในการนำ Generative AI มาใช้ ไม่ใช่ข้อจำกัดทางด้านเทคโนโลยี (Tech capability) แต่คือ "วัฒนธรรมองค์กร" และ "การต่อต้านจากพนักงาน (Employee Resistance & Skills Gap)"
วัฒนธรรมองค์กร
ผู้นำ
เทคโนโลยี
บันทึก
โฆษณา
ดาวน์โหลดแอปพลิเคชัน
© 2026 Blockdit
เกี่ยวกับ
ช่วยเหลือ
คำถามที่พบบ่อย
นโยบายการโฆษณาและบูสต์โพสต์
นโยบายความเป็นส่วนตัว
แนวทางการใช้แบรนด์ Blockdit
Blockdit เพื่อธุรกิจ
ไทย