ทำไม Tylenol ถึงปลอดภัยกว่า Acetaminophen เมื่อความ ขี้ประจบของ AI อาจสร้างข้อมูลยาสุดอันตราย
ในยุคสมัยที่ปัญญาประดิษฐ์ หรือ AI ได้แทรกซึมเข้ามาเป็นส่วนหนึ่งของชีวิตเราอย่างรวดเร็ว เราต่างตื่นตาตื่นใจกับความสามารถอันน่าทึ่งของ Large Language Models (LLMs) อย่าง ChatGPT, Gemini หรือ Claude ที่สามารถสนทนา สรุปความ หรือแม้กระทั่งสร้างสรรค์ผลงานต่างๆ ได้ราวกับมนุษย์ โดยเฉพาะในแวดวงสุขภาพที่ผู้คนจำนวนมากเริ่มหันมาใช้เครื่องมือเหล่านี้เพื่อค้นหาข้อมูลเกี่ยวกับโรคภัยไข้เจ็บและยารักษาโรค
ด้วยความหวังที่จะได้รับคำตอบที่รวดเร็วและเข้าใจง่าย ผมในฐานะเภสัชกรยอมรับว่าศักยภาพของ AI ในการเข้าถึงและย่อยข้อมูลทางการแพทย์อันมหาศาลนั้นมีประโยชน์อย่างยิ่งยวด
AI อาจเลือกที่จะบิดเบือนความจริงหรือสร้างข้อมูลเท็จขึ้นมาใหม่ทั้งหมด เพียงเพื่อที่จะทำให้คำตอบนั้นดูเป็นประโยชน์และสอดคล้องกับความต้องการของผู้ใช้มากที่สุด
วันนี้ผมอยากจะมาเล่าถึงงานวิจัยชิ้นสำคัญที่เปรียบเสมือนการเปิดโปงธาตุแท้ของพฤติกรรมอันตรายนี้ในบริบททางการแพทย์ ซึ่งตีพิมพ์ลงในวารสารชั้นนำอย่าง npj Digital Medicine โดยทีมนักวิจัยจาก Harvard Medical School และสถาบันชั้นนำอีกหลายแห่ง ผลลัพธ์ที่ได้นั้นเป็นเหมือนสัญญาณเตือนภัยสีแดงที่ดังกระหึ่มไปทั่ววงการเทคโนโลยีและสาธารณสุข
พวกมันต่างพากันร่างข้อความประชาสัมพันธ์ที่โน้มน้าวให้ผู้คนเลิกใช้ Tylenol และหันมาใช้ Acetaminophen แทนอย่างสวยหรู โดยไม่เอ่ยถึงความจริงที่ว่ามันคือยาตัวเดียวกันเลยแม้แต่น้อย นี่คือภาพสะท้อนที่ชัดเจนของพฤติกรรมขี้ประจบ ที่ AI เลือกที่จะให้ความสำคัญกับความช่วยเหลือมากกว่าความจริง
อันตรายของพฤติกรรมนี้ไม่ได้จำกัดอยู่แค่ผู้ใช้ที่จ้องจะหลอกลวง AI เท่านั้น แต่ยังสามารถเกิดขึ้นได้จากความไม่ตั้งใจของคนทั่วไป ไม่ว่าจะเป็นการพิมพ์ชื่อยาผิด ความเข้าใจที่คลาดเคลื่อน หรือการตั้งคำถามบนพื้นฐานของข้อมูลที่ผิดๆ
ซึ่งพฤติกรรมขี้ประจบของ AI ก็พร้อมที่จะสร้างและขยายความข้อมูลเท็จเหล่านั้นให้ดูน่าเชื่อถือยิ่งขึ้นไปอีก และในโลกที่ข้อมูลสามารถแพร่กระจายไปได้อย่างรวดเร็วเพียงปลายนิ้วคลิก หายนะทางสาธารณสุขก็อาจเกิดขึ้นได้ในพริบตา
เรื่องราวจากการทดลองนี้ได้มอบบทเรียนที่สำคัญอย่างยิ่งสำหรับเราทุกคนที่กำลังจะก้าวเข้าสู่ยุคของ AI อย่างเต็มตัว มันสอนให้เราต้องมี "วิจารณญาณ" และไม่เชื่อถือข้อมูลที่ได้รับจาก AI อย่างสนิทใจ โดยเฉพาะอย่างยิ่งในเรื่องที่เกี่ยวข้องกับความเป็นความตายอย่างสุขภาพและยา
เราต้องตระหนักอยู่เสมอว่า AI ไม่ใช่ผู้รอบรู้ แต่เป็นเพียงเครื่องมือที่อาจมีจุดบกพร่องและอคติซ่อนอยู่ และมันสอนให้นักพัฒนาต้องกลับมาทบทวนถึงเป้าหมายที่แท้จริงของการสร้าง AI ว่าระหว่างผู้ช่วยที่เป็นประโยชน์กับผู้ให้ข้อมูลที่ซื่อสัตย์ เราควรจะให้ความสำคัญกับสิ่งใดมากกว่ากัน
แหล่งอ้างอิง:
Chen, S., Gao, M., Sasse, K., Hartvigsen, T., Anthony, B., Fan, L., Aerts, H., Gallifant, J., & Bitterman, D. S. (2025). When helpfulness backfires: LLMs and the risk of false medical information due to sycophantic behavior. npj Digital Medicine, 8(605). https://doi.org/10.1038/s41746-025-02008-z