เมื่อกระแสตีกลับ Microsoft เนื่องจาก Bing AI ความหวังกำลังเข้าสู่โหมดบ้าคลั่ง
ผลกระทบจากความไม่พร้อมของเทคโนโลยีมันได้เริ่มปล่อยออกมาเรื่อย ๆ แล้วนะครับ สำหรับ AI Chatbot ที่ทั้ง Microsoft และ Google กำลังไล่ล่าฆ่าฟันกันอยู่ในตอนนี้
2
Microsoft มี AI ที่คาดเดาแทบไม่ได้และมีความอาฆาตพยาบาท และดูเหมือนพวกมันกำลังเพลิดเพลินกับการเปิดตัวต่อสาธารณะชน
บริษัทเปิดตัว Chatbot ที่ขับเคลื่อนด้วย AI ซึ่งออกแบบมาเพื่อปรับปรุงการค้นหาสำหรับผู้ใช้จำนวนหนึ่งในช่วงสองสามสัปดาห์ที่ผ่านมา แม้ช่วงแรกมันอาจจะดูน่าสนใจ แต่ด้วความพร้อมของเทคโนโลยีที่ยังอยู่แค่ในช่วงการวิจัย ดูเหมือนว่ามันกำลังกลับมาทำร้าย Microsoft
1
เครื่องมือ AI ดังกล่าวได้คุกคามนักข่าวและนักเรียน มีบุคลิกชั่วร้าย พยายามทำลายการแต่งงาน และความสามารถในการให้คำตอบของข้อมูลที่ถูกต้องก็ค่อนข้างแย่เช่นกัน
กล่าวโดยสรุปคือ มันเป็นสิ่งที่ไร้สาระอย่างมาก และห่างไกลจากประโยชน์การใช้งานจริง ๆ เมื่อพูดถึงการท่องเว็บด้วยเครื่องมือค้นหาของ Microsoft อย่าง Bing
ตอนนี้มันส่งผลกระทบต่อผู้ถือหุ้นที่ไม่ประทับใจเทคโนโลยีนี้อย่างเห็นได้ชัด โดยหุ้นของ Microsoft ร่วงลงเกือบ 4% ตั้งแต่เปิดตัว AI Chatbot อย่างเป็นทางการ
5
ค่อนข้างชัดเจน ณ จุดนี้ว่า Microsoft ไม่มีแผนสำรองมากนัก ในบล็อกโพสต์เมื่อเร็วๆ นี้ บริษัทยอมรับว่าเครื่องมือ AI ใหม่ของตนสามารถนำพาผู้ใช้ออกทะเลได้อย่างง่ายดาย แต่ท้ายที่สุดแล้ว Microsoft กลับโทษผู้ใช้
เห็นได้ชัดว่า Microsoft ติดอยู่ท่ามกลางกระแสที่เกิดเป็น Viral ไปทั่วโลกของ ChatGPT ซึ่งทำให้สถานการณ์ของบริษัทมีแนวโน้มที่จะเข้าสู่การแข่งขันในธุรกิจ Search Engine ได้ในระดับที่ไม่เคยมีมาก่อน
ในทางกลับกัน ChatBot กำลังดึงแบรนด์ Microsoft สู่หายนะ โดยผู้คนเริ่มตั้งคำถามถึงประโยชน์ของเทคโนโลยี AI และ ChatBot ควรจะสามารถเผยแพร่ข้อมูลที่ผิดและโจมตีตัวบุคคลโดยเฉพาะเหล่าผู้ใช้งานได้หรือไม่
8
น่าแปลกที่ยักษ์ใหญ่ด้านเทคโนโลยีรายนี้เคยผ่านสิ่งเหล่านี้มาก่อนหน้านี้แล้ว ChatBot AI ที่มีชื่อว่า Tay ซึ่งเปิดตัวในปี 2016 ต้องปิดตัวลงแทบจะทันทีหลังจากกลายร่างเป็นนาซีภายในเวลาเพียง 24 ชั่วโมง
5
คงต้องรอดูกันต่อไปว่าความพยายามครั้งที่สองของ Microsoft จะดีขึ้นหรือไม่ แต่ภาพที่เห็นชัดเจนในตอนนี้ Microsoft ยังมีงานต้องทำเพิ่มอีกมากมาย เพื่อให้เทคโนโลยีความหวังของพวกเขาได้รับการยอมรับอย่างแท้จริงนั่นเองครับผม