ในโลกที่ข้อมูลมหาศาลถูกย่อส่วนลงมาอยู่ในสมองกลอัจฉริยะ ความสะดวกสบายในการเข้าถึงความรู้ทางการแพทย์ไม่ได้จำกัดอยู่เพียงการรอคิวในสถานพยาบาลอีกต่อไป เรากำลังอยู่ในยุคที่ AI สามารถวิเคราะห์รหัสพันธุกรรมและประเมินอาการป่วยเบื้องต้นได้ภายในเสี้ยววินาที อย่างไรก็ตามภายใต้ความมหัศจรรย์ของเทคโนโลยีนี้ กลับมีหลุมพรางขนาดใหญ่ที่เรียกว่า Data Privacy หมอบอยู่ การใช้ ChatGPT เพื่อปรึกษาปัญหาสุขภาพจึงไม่ใช่เพียงเรื่องของนวัตกรรม แต่คือการเดิมพันด้วยข้อมูลที่เปราะบางที่สุดในชีวิตของมนุษย์
บทความนี้จะพาทุกท่านไปสำรวจนิยามและความเสี่ยงที่มาพร้อมกับเทรนด์การใช้ AI Health ในมุมมองของกฎหมายคุ้มครองข้อมูลส่วนบุคคล
1 นิยามของ ChatGPT Health กับการเป็นที่ปรึกษาทางการแพทย์เสมือนจริง ChatGPT
Health ไม่ใช่แอปพลิเคชันแยกส่วน แต่คือบทบาทหนึ่งของ Large Language Models ที่ถูกนำมาประยุกต์ใช้เพื่อวิเคราะห์และตอบคำถามด้านสุขภาพ โดยอาศัยการประมวลผลจากฐานข้อมูล Medical Journal งานวิจัย และสถิติการรักษาทั่วโลก ความสามารถของมันครอบคลุมตั้งแต่การแปลผล Laboratory Report ที่ซับซ้อนให้เป็นภาษาที่เข้าใจง่าย การให้ข้อมูลเกี่ยวกับกลไกของยา ไปจนถึงการประเมินความเป็นไปได้ของโรคจากอาการบ่งชี้เบื้องต้น ซึ่งช่วยลดช่องว่างในการเข้าถึงความรู้พื้นฐานและช่วยให้ผู้ป่วยเตรียมตัวก่อนไปพบแพทย์ตัวจริงได้
2 ข้อมูลสุขภาพในฐานะข้อมูลส่วนบุคคลชนิดพิเศษภายใต้พระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคล พ.ศ. 2562 มาตรา 26 ข้อมูลสุขภาพถูกจัดอยู่ในกลุ่ม Sensitive Data
ซึ่งกฎหมายให้การคุ้มครองเข้มงวดกว่าข้อมูลทั่วไปอย่างมาก เนื่องจากเป็นข้อมูลที่หากรั่วไหลไปสู่สาธารณะอาจนำไปสู่การเลือกปฏิบัติหรือการสร้างความเสียหายต่อชื่อเสียงและเสถียรภาพในการใช้ชีวิต การพิมพ์รายละเอียดเกี่ยวกับ Personal Health Record ประวัติการรักษา หรือแม้แต่ความกังวลทางจิตวิทยาลงในระบบปัญญาประดิษฐ์ จึงเท่ากับเป็นการส่งมอบข้อมูลอ่อนไหวนี้เข้าไปสู่ฐานข้อมูลของผู้ให้บริการซึ่งมักประมวลผลอยู่บน Cloud ในต่างประเทศ ซึ่งเป็นพื้นที่ที่กฎหมายไทยอาจมีอุปสรรคในการบังคับใช้หากเกิดการละเมิด
3 แนวทางการใช้งาน AI อย่างปลอดภัยเพื่อป้องกันการละเมิดข้อมูลสุขภาพ การใช้งาน
ChatGPT
ในการปรึกษาสุขภาพอย่างชาญฉลาดต้องยึดหลักการ Anonymization หรือการทำให้ข้อมูล ไม่สามารถระบุตัวตนได้อย่างเคร่งครัด ผู้ใช้ควรนำเสนอเพียงอาการหรือข้อสงสัยเชิงวิชาการโดยไม่ระบุชื่อ นามสกุล หรือรายละเอียดแบบ Identifiable Information ที่สามารถโยงกลับมาถึงตัวบุคคลได้ นอกจากนี้การตั้งค่าเพื่อปิด Chat History และการปฏิเสธไม่ให้ระบบนำข้อมูลไปใช้ในการ Model Training ถือเป็นขั้นตอนที่จำเป็นในการปกป้องความเป็นส่วนตัว รวมถึงต้องตระหนักเสมอว่าข้อมูลจาก AI คือการคาดการณ์ทางสถิติเท่านั้น