TH | EN
TH | EN
หน้าแรกTechnologyธรรมาภิบาลยุค AI ครองโลก ในบริบทการพัฒนาระบบสุขภาพบนความรับผิดชอบ

ธรรมาภิบาลยุค AI ครองโลก ในบริบทการพัฒนาระบบสุขภาพบนความรับผิดชอบ

ปัญญาประดิษฐ์ หรือ AI ถูกนำไปใช้ประโยชน์ในภาครัฐ ภาคธุรกิจ และอุตสาหกรรมต่าง ๆ ด้วยอัลกอริทึมที่ชาญฉลาดในการวิเคราะห์ คาดการณ์ ทำนายผล และช่วยตัดสินใจแทนมนุษย์ กระทั่งการดำรงชีวิตประจำวันที่ต้องเจอกับการใช้งาน AI ทั้งแบบรู้ตัวและไม่รู้ตัว

แต่การใช้งาน AI ที่เกินเลย เช่น การเก็บข้อมูลพฤติกรรมส่วนบุคคลในการซื้อสินค้าออนไลน์เข้าสู่การวิเคราะห์ของ AI เพื่ออัดแคมเปญการตลาด หรือข้อมูลเสนอสินค้าและบริการที่เราไม่ได้ให้ความสนใจภายใต้คำว่า “โพสต์แนะนำ” หรือให้ AI เป็นผู้เลือกการมองเห็นข้อมูลบนสื่อสังคมออนไลน์ให้เรา โดยแกะรอยจากพฤติกรรมการสืบค้นข้อมูลที่ผ่านมา ซึ่งอาจเป็นการเลือกแบบมีอคติ ไม่รอบด้าน ไปจนถึงรบกวนความเป็นส่วนตัว อีกทั้งการพัฒนาและฝึกฝน AI ให้มีประสิทธิภาพในการคิดวิเคราะห์และตัดสินใจต้องอาศัยคลังข้อมูลจำนวนมากทั้งข้อมูลทั่วไปและข้อมูลจำเพาะ 

ขณะที่อัลกอริทึมเบื้องหลังการประมวลผลของ AI ที่นำไปสู่คำตอบก็ยังเป็นสิ่งที่นักวิทยาศาสตร์ข้อมูลไม่สามารถเข้าใจได้ทั้งหมด กลายเป็นจุดอ่อนของ AI เรื่องความน่าเชื่อถือ ดังนั้น การหยิบยกเรื่อง ธรรมาภิบาลปัญญาประดิษฐ์ (AI Governance) จึงเป็นไปเพื่อกำหนดบรรทัดฐานให้กับกระบวนการพัฒนา AI การนำไปใช้ อัลกอริทึมและผลลัพธ์ที่ต้องยืนอยู่บนความเชื่อมั่น ป้องกันความเสี่ยง และเพิ่มเติมความปลอดภัยให้มากที่สุด

บริบทโลกด้านปัญญาประดิษฐ์

เมื่อเปรียบเทียบกับเทคโนโลยีในอดีต การทำงานให้ได้ผลลัพธ์ตามมาตรฐานที่กำหนดเป็นอันจบ แต่ไม่ใช่กับ AI เพราะ AI ไม่ได้เป็นแค่เทคโนโลยี หากยังรวมถึงการจัดการกระบวนทัศน์ที่มีทั้งข้อมูลและคนเข้ามาเกี่ยวข้อง นั่นทำให้โลกกำลังเผชิญกับความท้าทายในการมองหาจุดสมดุลระหว่าง “ความก้าวหน้าทางเทคโนโลยีวิศวกรรม” กับ “การใช้ข้อมูลอย่างมีธรรมมาภิบาล” เพื่อให้เกิดประสิทธิผลในการใช้งานพร้อม ๆ ไปกับการคุ้มครองความเป็นส่วนตัว

หากมองมิติการพัฒนาด้านวิศวกรรม การมีข้อมูลที่มากพอและอัลกอริทึมที่ล้ำกว่าเดิม ทำให้การทำงานของ AI เกิดความก้าวหน้าอย่างมหาศาล อย่างไรก็ตาม การทำงานของ AI จะยิ่งทวีความซับซ้อนเวลาที่ข้อมูลมีปริมาณมากขึ้น หรือมีผู้เกี่ยวข้องเพิ่มขึ้นในกระบวนการพัฒนาและนำ AI ไปใช้งาน 

ดังนั้น การพัฒนา AI จึงต้องคำนึงถึงการกำหนดบททดสอบเพื่อวัดผลการทำงานที่มีประสิทธิภาพอยู่เสมอๆ รวมถึงปลูกฝังรูปแบบการเรียนรู้ความผิดพลาดอย่างต่อเนื่องและสร้างวงจรป้อนกลับ (Feedback Loop) เพื่อย้อนไปปรับปรุงของเดิมให้มีประสิทธิภาพดีขึ้น 

​ส่วนในมิติของธรรมาภิบาลต้องมองให้กว้างในระดับอีโคซิสเท็ม เช่น เรื่องของจรรยาบรรณทางวิชาชีพ บรรทัดฐานด้านการปฏิบัติเพื่อไปสู่การตัดสินใจที่ถูกต้องเมื่อต้องเผชิญข้อจำกัดทางเทคโนโลยี รวมทั้งการกำกับเลยไปถึงพื้นที่สีเทาๆ เช่น การส่งเสริมทักษะการศึกษาแบบ STEM (วิทยาศาตร์ เทคโนโลยี วิศวกรรมศาสตร์ และคณิตศาสตร์) ซึ่งเป็นพื้นฐานสู่การพัฒนาทักษะการอ่านข้อมูล  (Data Literacy) เช่น ตัวเลข กราฟ และแดชบอร์ดต่าง ๆ เพื่อให้บุคลากรในอนาคตสามารถแปลหรือถอดความ การทำงานวิเคราะห์และตั้งคำถามโต้แย้งกับข้อมูลที่ได้มา อย่างน้อยก็เพื่อเข้าใจการทำงานของแมชชีนเลิร์นนิ่งหรือ AI ได้รอบด้าน และอธิบายผลลัพธ์ของข้อมูลที่ออกมาได้อย่างถูกต้องเป็นต้น

Dr. Urs Gasser มหาวิทยาลัยเทคนิคมิวนิค ประเทศเยอรมัน (Dr.Urs Gasser Technical University of Munich, Germany) ยกตัวอย่างประเทศสหรัฐเมริกาซึ่งมีแนวทางในการกำหนดหลักธรรมมาภิบาล AI ที่ค่อนข้างอะลุ้มอล่วย ตรงที่พยายามควบคุมแต่ไม่ไปฆ่าการพัฒนานวัตกรรม ขณะที่ทางฝั่งยุโรปจะมีความตื่นตัวสูงและเน้นหลักป้องกันไว้ก่อนเพราะไม่ชอบเผชิญความเสี่ยง โดยมีอยู่ 2-3 ประเด็นที่ยุโรปค่อนข้างเข้มงวด เช่น คุณภาพของชุดข้อมูลที่ต้องครอบคลุมและหลากหลาย กฎหมายที่มีรายละเอียดในการควบคุมค่อนข้างมากยิ่งถ้าเป็นการพัฒนาแอปพลิเคชันหรือ AI ด้านสุขภาพ เช่น การใช้เกณฑ์อะไรในการพัฒนาระบบ AI และต้องปฏิบัติให้เป็นไปตามนั้น รวมถึงการคุ้มครองสิทธิผู้ป่วย

​การออกแบบธรรมาภิบาลที่ต้องรับมือกับเทคโนโลยีใหม่และประเด็นความเชื่อมั่น จึงต้องมีกลไกสามประการคือ “การเปิดเผยและโปร่งใส” เพื่อปิดช่องว่างให้รอบด้านระหว่างการไม่รู้กับความรู้ที่ต้องรู้และควรรู้ “การออกกฎหรือระเบียบปฏิบัติ” เพื่อกำกับและติดตามตรวจสอบการใช้งานเทคโนโลยี และ “มาตรฐานความรับผิด” เพื่อป้องปรามและเฝ้าระวังไม่ให้เกิดความผิดพลาด และกำกับการใช้งาน AI ให้อยู่บนพื้นฐานความรับผิดชอบ จึงจะสามารถสร้างความเชื่อมั่นให้เกิดขึ้น

“ทุกประเทศควรมีการออกแบบธรรมาภิบาลที่ไม่เป็นอุปสรรคขัดขวางการสร้างนวัตกรรม เพราะไม่ว่าอย่างไร ระบบสุขภาพยังต้องอาศัยการทำงานร่วมกันระหว่าง AI กับมนุษย์ ทางเลือกในการบรรเทาความเสี่ยงที่เป็นไปได้โดยจำแนกให้ชัดเจนว่า สิ่งใดที่มนุษย์ทำได้มีประสิทธิภาพกว่า อะไรที่เครื่องจักรทำได้ดีกว่า และกำหนดบรรทัดฐานการปฏิบัติว่า ณ จุดใด หรือขั้นตอนใดที่มนุษย์จะสามารถเข้าควบคุมการทำงาน หรือตัดสินใจแทน AI เพื่อลดข้อผิดพลาด ขณะเดียวกัน ก็ต้องเร่งพัฒนาเทคโนโลยี AI ให้มีศักยภาพในการอธิบายผล (Explainable AI) ให้ได้มากที่สุด”  

Code-Create เปิดตัว AiDA โดย AiDLab แพลตฟอร์ม AI ด้านแฟชั่นแห่งแรกของโลก

Nabsolute จากงานวิจัย สู่สตาร์ตอัพ Beauty/Health Tech

ธรรมาภิบาลไทยในระบบสุขภาพ

ประเทศไทยได้รับเอาเทคโนโลยีสารสนเทศซึ่งไมได้มีแค่ปัญญาประดิษฐ์มาใช้ในระบบบริการสุขภาพ อาทิ ระบบทะเบียนสุขภาพอิเล็กทรอนิกส์ ระบบสั่งยาโดยแพทย์ทางคอมพิวเตอร์ เป็นต้น ซึ่งส่วนใหญ่เป็นเทคโนโลยีที่สนับสนุนภาระงานประจำวัน ขณะที่ยังขาดในเรื่องระบบ สนับสนุนการตัดสินใจทางคลินิค (clinical decision support system-CDS) จนกระทั่งปี 2513 มีความพยายามในการพัฒนาระบบผู้เชี่ยวชาญเพื่อมาแก้ไขข้อจำกัดของการรักษาโดยมนุษย์แต่ยังมีประสิทธิภาพไม่ดีนัก แม้จะได้รับการพัฒนามาจนกลายเป็นแมชชีนเลิร์นนิ่ง จนมาถึงปัญญาประดิษฐ์ในปัจจุบันก็ยังเป็นประโยชน์ในบางกรณี และเกิดความเสี่ยงในบางกรณี

องค์การเพื่อความร่วมมือทางเศรษฐกิจและการพัฒนา (OECD) ซึ่งเป็นองค์กรกลางในการปฏิสัมพันธ์กับประเทศสมาชิกเพื่อร่วมหารือแลกเปลี่ยนเกี่ยวกับการกำหนดนโยบาย และการบริหารจัดการประเด็นปัญหาต่าง ๆ ในโลกยุคโลกาภิวัฒน์ ได้ออกมาชูธงเรื่องหลักจริยธรรมปัญญาประดิษฐ์ (AI Ethics) ให้เป็นวาระโลก และมีการนำไปขยายผลในหลายประเทศไม่ต่ำกว่า 40ประเทศ รวมถึงประเทศไทยซึ่งมีการนำร่องกรอบการทำงานเรื่องธรรมาภิบาลปัญญาประดิษฐ์ใน 3 ภาคส่วนหลัก คือ ภาคบริการสุขภาพ ภาคการเงิน และภาครัฐ เพื่อให้ได้ผลที่เป็นรูปธรรมภายในปีหน้า 

“โจทย์เรื่องระบบสุขภาพเป็นเรื่องแรกที่เราหยิบมาทำก่อนเพราะเป็นประเด็นสำคัญเกี่ยวข้องกับความเป็นความตายของมนุษย์ เป็นเรื่องของความปลอดภัยและสุขภาพ และยึดโยงอยู่กับข้อมูลที่มีความอ่อนไหวโดยเฉพาะข้อมูลสุขภาพส่วนบุคคล จึงต้องการคนเก่ง ๆ ทั้งในวงการแพทย์ ไอที และกฎหมายมาช่วยกำหนดแนวทางในเรื่องนี้” ดร. ชัยชนะ มิตรพันธ์ ผู้อำนวยการสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) กล่าว

ด้าน ดร. ศักดิ์ เสกขุนทด ที่ปรึกษาอาวุโส เอ็ตด้า เสริมว่า เอ็ตด้าซึ่งรับหน้าที่ผลักดันธรรมาภิบาลให้เกิดการปฏิบัติที่เหมาะสมกับสังคมไทย ได้เริ่มต้นก้าวแรกด้วยการจัดทำบันทึกข้อตกลงความร่วมมือระหว่างเอ็ตด้า เนคเทค กรมการแพทย์ กรมสนับสนุนบบริการสุขภาพ สมาคมผู้ประกอบการด้านปัญญาประดิษฐ์ ต่อเนื่องสู่การจัดตั้ง “ศูนย์ธรรมาภิบาลปัญญาประดิษฐ์ (AI Governance Clinic-AIGC)” โดยมุ่งให้เกิดความร่วมมือแบบพหุภาคีในมิติของเทคโนโลยี กฎหมาย และจริยธธรม โดยหน่วยงานภาครัฐซึ่งเป็นผู้ถือกฎหมาย  ผุ้เชี่ยวชาญไทยและระดับโลกที่เชิญมาเป็นที่ปรึกษานโยบายด้านธรรมาภิบาลระหว่างประเทศ ภาควิชาการและมหาวิทยาลัยมาช่วยเรื่องการวิจัย เพื่อร่วมกำหนดกรอบนโยบายและการทำงานด้านธรรมภิบาลที่เทียบเท่าสากล ตลอดจนวางแนวทางจัดตั้งศูนย์ทดสอบปัญญาประดิษฐ์ การฝึกอบรมเรื่องของธรรมาภิบาลปัญญาประดิษฐ์ให้กับทั้งผู้ที่มีหน้าที่กำกับดูแลหรือนำ AI ไปใช้ ตลอดจนเสริมสร้างให้เกิดเครือข่ายผู้พัฒนาเทคโนโลยี AI ที่เข้าใจในหลักธรรมมาภิบาล เพื่อการออกแบบผลิตภัณฑ์และบริการด้าน AI อย่างมีความรับผิดชอบ สร้างความมั่นใจในการขยายธุรกิจและบริการไปในทิศทางที่ถูกต้องและได้รับการยอมรับจากทั่วโลก นอกจากนี้ การชูธงธรรมาภิบาลปัญญาประดิษฐ์จะมีส่วนช่วยยกระดับความพร้อมด้านเทคโนโลยีปัญญาประดิษฐ์ของไทย ซึ่งปัจจุบันอยู่ในอันดับที่ 25 ของโลกจากการสำรวจเมี่อปี 2564 ที่ผ่านมา

“การนำปัญญาประดิษฐ์มาประยุกต์ใช้ด้านการสาธารณสุขยังขาดกลไกกำกับเรื่องธรรมาภิบาลที่สอดคล้องกับแต่ละวิชาชีพ” ทันตแพทย์อาคม ประดิษฐสุวรรณ รองอธิบดีกรมสนับสนุนบริการสุขภาพ กระทรวงสาธารณสุข กล่าวและเสริมว่า การทำเอ็มโอยูจะทำให้ข้อมูลที่นำมาใช้ในการวินิจฉัยเพื่อวางแผนการรักษา หรือถอดบทเรียนการรักษาทางการแพทย์ขั้นสูงได้อย่างเหมาะสมกับธรรรมาภิบาลในแต่ละวิชาชีพมากยิ่งขึ้น และทำให้การเข้าถึงระบบบริการในสถานพยาบาลทั้งภาครัฐและเอกชนของประชาชนมีความรวดเร็วและแม่นยำ ขณะที่แพทย์ผู้ให้บริการ แพทย์ผู้ดำเนินการ และเจ้าหน้าที่ที่เกี่ยวข้องจะได้เพิ่มความระมัดระวัง และเร่งแก้ไขปรับปรุงเมื่อเกิดข้อผิดพลาด เพื่อให้ผู้รับบริการมีความไว้วางใจ และยังเป็นการส่งเสริมศักยภาพประเทศไทยในการเดินหน้าสู่การเป็นศูนย์กลางสุขภาพนานาชาติในอนาคต

ส่วนบทบาทของกรมการแพทย์ใน “การให้บริการโรคที่รักษายาก” ที่ได้รับการส่งต่อจากโรงพยาบาลเฉพาะทาง สถาบันมะเร็ง สถาบันประสาท สถาบันเด็ก เป็นต้น และ “การวิจัยและอำนวยการศึกษาทางการแพทย์” ให้กับนักศึกษาแพทย์และแพทย์ประจำบ้าน นายแพทย์ณัฐพงศ์ วงศ์วิวัฒน์ รองอธิบดีกรมการแพทย์ กระทรวงสาธารณสุข กล่าวว่า เอ็มโอยูเป็นจุดเริ่มต้นที่จะทำให้ระบบสุขภาพบนเทคโนโลยีเอไอ (AI Health) ยืนอยู่ในจุดที่ถูกต้อง และเป็นประโยชน์ต่อผู้ป่วยที่จะได้รับการรักษาด้วยเทคโนโลยีที่ถูกต้องเหมาะสม ทันการณ์และปลอดภัย

ขณะที่ ดร.ชัย วุฒิวิวัฒน์ชัย ผู้อำนวยการศูนย์เทคโนโลยีอิเล็กทรอนิกส์และคอมพิวเตอร์แห่งชาติ (NECTEC) กล่าวว่า เวลาพูดถึงธรรมาภิบาลด้านปัญญาประดิษฐ์ มักมีคำถามพื้นฐาน 3 ข้อที่ต้องตอบ คือ ปัญญาประดิษฐ์ที่ว่าจะมาแย่งงานคนใหม และต้องพัฒนาคนต่อไปในเส้นทางแบบใด? เราจะมั่นใจในความแม่นยำ โปร่งใส ตรวจสอบได้ของปัญญาประดิษฐ์เพื่อป้องกันข้อผิดพลาดอย่างไร? และ ปัญญาประดิษฐ์กำลังละเมิดข้อมูลส่วนบุคคล ละเมิดกิจกรรมหรือกิจการระหว่างกันหรือไม่? 

​“ปัญญาประดิษฐ์เป็นเสมือน S-Curve ตัวใหม่ในการขับเคลื่อนยุทธศาสตร์ด้านเทคโนโลยี ด้านเศรษฐกิจของประเทศและทั่วโลก ดังนั้น ในทางเทคนิค เราต้องมีการศึกษาเรื่องมาตรฐานที่จำเป็นสำหรับปัญญาประดิษฐ์ การพัฒนาศูนย์ทดสอบที่เป็นกลางอย่างที่เนคเทค เอ็ตด้า หรือหน่วยงานที่เกี่ยวข้องกำลังทำ จะมีบทบาทสำคัญในการตรวจสอบคุณภาพของผลิตภัณฑ์หรือบริการที่สร้างจาก AI ส่วนประเด็นการละเมิดความเป็นส่วนตัวหรือไม่นั้น ต้องอาศัยการศึกษาพระราชบัญญัติและกฎหมายที่เกี่ยวข้องทั้งหมดอย่างรอบด้าน โดยมีทีมผู้เชี่ยวชาญด้าน AI เข้าไปเสริมการให้คำปรึกษา” 

CARIVA ร่วมกับศิริราช นำความเชี่ยวชาญด้าน HealthTech และ AI เติมเต็มศักยภาพให้กับคนรุ่นใหม่

พันธกิจ ARINCARE เชื่อมโยงระดับชุมชนสร้าง Healthcare Ecosystem

สมดุลการคุ้มครองข้อมูลกับประสิทธิภาพการรักษา

นอกเหนือจากประเด็นการคุ้มครองข้อมูล กฎหมายการปกป้องข้อมูลส่วนบุคคล (PDPA) หรือจรรยาวิชาชีพเข้ามาเกี่ยวข้อง การใช้งานข้อมูลไม่ว่าจะโดยองค์การสาธารณะหรือภาคเอกชนยังต้องคำนึงถึงหัวใจสำคัญ 2 ประการ คือ “ความจำเป็น และ “การป้องกันที่เหมาะสม อาทิ การระบุวัตถุประสงค์และมูลเหตุจำเป็นในการใช้ข้อมูลและการประมวลผลข้อมูลส่วนบุคคล การแปลงข้อมูลส่วนบุคคลให้เป็นข้อมูลนิรนามเพื่อให้เจ้าของข้อมูลตัวจริงสบายใจ การแจ้งผู้ป่วยให้ทราบว่าข้อมูลส่วนไหนต้องการเก็บและส่วนไหนต้องการใช้ หากจำเป็นต้องใช้ข้อมูลส่วนบุคตลจริง ต้องมีระบบเข้ารหัสหรือป้องกันที่ดีพอ หรือกำหนดการเข้าถึงข้อมูลโดยผู้ที่ได้รับอนุญาตเท่านั้น 

นายแพทย์นวนรรณ ธีระอัมพรพันธุ์ คณะแพทย์ศาสตร์ โรงพยาบาลรามาธิบดี มหาวิทยาลัยมหิดล (Dr. Nawanan Theera-Ampornpunt : Faculty of Medicine Ramathibodi Hospital, Mahido University) ให้ความเห็นว่า หากมองการใช้งานปัญญาประดิษฐ์ในมุมของประสิทธิภาพการรักษา ความเป็นส่วนตัวในเรื่องข้อมูลผู้ป่วยอาจจะดูน่ากังวลน้อยกว่าเมื่อเทียบกับความเสี่ยงของการขาดข้อมูลที่มากพอในการฝึกสอนและพัฒนา AI ในการวินิจฉัยโรคหรือการรักษา ก่อให้เกิดการตรวจวินิจฉัยที่ได้ผลบวกลวง (False Positive) และผลลบลวง (False Negative) ซึ่งการวินิจฉัยที่คลาดเคลื่อนในบางโรคอาจทำให้การรักษาล่าช้า ผิดพลาด หรือส่งผลกระทบต่อจิตใจผู้ป่วย 

ในทางกลับกัน การมีข้อมูลที่มากพอจะทำให้ AI สามารถบอกเราถึงความถูกต้อง เช่น ในการแปรผลการวิจัยผลิตยาที่สามารถอ้างอิงไปสู่นัยทั่วไปได้ อีกตัวอย่างหนึ่งคือ การตรวจคลื่นไฟฟ้าหัวใจ (Electrical Cardiography) ซึ่งมีการใช้ AI เล็ก ๆ ในการจับรูปแบบการเต้นของหัวใจและให้คำแนะนำเพื่อดูว่า หัวใจเต้นเป็นปกติหรือผิดปกติ ซึ่งอาจเป็น AI ที่ไม่ได้สมบูรณ์แบบเสียทีเดียว แต่แพทย์สามารถใช้ข้อมูลเนี้เป็นตัวช่วยประเมินผลการรอ่านคลื่นหัวใจได้

​หากมุมมองที่ท้าทายมากกว่า คือ การมีหรือรับรู้ข้อมูลที่ไม่เท่าเทียม” ระหว่างแพทย์ผู้ทำการรักษาและตัวผู้ป่วยเอง อะไรคือจุดสมดุลของกรเปิดเผยข้อมูลการรักษาทั้งหมด บางส่วน หรือไม่เปิดเผยเลยในบางเรื่อง ซึ่งล้วนมีผลต่อการตัดสินใจไปต่อหรือยุติการรักษา หรือกระทั่งการเลือกแผนการรักษาของผู้ป่วย

ส่วน “หลักความรับผิด” ก็เป็นอีกเรื่องที่สำคัญ ทั้งนี้ เคยมีคำคมเกี่ยวกับหลักกฎหมายทั่วไป (Legal Doctrine) เรียกว่า Learned Intermediary หมายถึง การบกพร่องในคำเตือน เช่น จากเดิมเป็นแค่หน้าที่แพทย์หรือเภสัชกรในการให้คำเตือนเรื่องการใช้ยาให้กับผู้ป่วย ต่อมาได้มีคำสั่งศาลให้เป็นหน้าที่ของบริษัทผู้ผลิตยาที่ต้องออกโฆษณาคำเตือนเรื่องยาต่อผู้บริโภคโดยตรงด้วยเช่นกัน AI ก็ควรมีแนวทางที่คล้ายคลึงกัน เช่น ถ้าแพทย์รู้ก่อนว่ามีความผิดพลาดจากการใช้งาน AI แล้วยังปล่อยให้สถานการณ์เกิดขึ้นหรือดำเนินต่อไป แพทย์ควรร่วมรับผิดชอบหรือไม่ แต่หาก AI ทำงานไปโดยปราศจากการแทรกแซงโดยคนหรือใครก็ตาม ผู้พัฒนาเครื่องมือ AI นั้นก็ควรเป็นผู้รับผิดชอบหรือไม่ เป็นต้น

จริยธรรมการวิจัยในคน : กรณีผู้ป่วยเสี่ยงเบาหวานขึ้นตา

​ไทยเป็นประเทศที่มีผู้ป่วยโรคเบาหวานเฉลี่ยรวมแล้ว 4-5ล้านคน ซึ่งบางรายที่มีพัฒนาการเจ็บป่วยที่มากขึ้น จะต้องได้รับการส่งตรวจเพื่อวินิจฉัยความเสี่ยงเบาหวานขึ้นตาโดยจักษุแพทย์ปีละหนึ่งครั้ง ในขณะที่มีจำนวนจักษุแพทย์อยู่เพียง 1.500-2,000คน ในปี 2543 จึงได้ริเริ่มโครงการถ่ายภาพจอประสาทตาด้วยกล้องในการตรวจคัดกรอง โดยมีแมชชีนเลิร์นนิ่งมาช่วยเรื่องความแม่นยำในการอ่านผล ซึ่งพบว่า ความไว (Sensitivity) ในการตรวจพบผู้ที่ป่วยเป็นโรคจริงและมีอัตราแสดงผลตรวจเป็นบวกได้ถึง 80-90% แต่ความจำเพาะ (Specificity) ในการตรวจคนปกติกลับให้อัตราผลตรวจที่เป็นลบเพียง 40-50% ซึ่งต้องอาศัยคนมาอ่านผลแทนเพื่อให้ผลลบที่ 85% เพื่อป้องกันผลลบลวง คือ ไมได้ป่วยแต่จริง ๆ แล้วป่วย อย่างไรก็ตาม การฝึกอบรมคนให้อ่านผลตรวจแทนแมชชีนเลิร์นนิ่งยังทำได้แค่เพียง 50% ซึ่งยังไม่เพียงพอมาตลอดหลายปี

กระทั่งปี 2559  ได้เกิดนวัตกรรมที่เรียกว่า Deep Learning หรือ การเรียนรู้เชิงลึก ซึ่งเพิ่มความแม่นยำทั้งการอ่านค่าความไวและความจำเพาะได้มากกว่า 95% จึงได้มีการทดสอบโดยเอาภาพจอประสาทตาของผู้ป่วยไทยมากกว่า 1 หมื่นรายใส่เข้าไปในระบบที่ว่าเพื่อทำการศึกษาย้อนหลังจากภาพถ่ายที่มีอยู่เดิม และศึกษาเปรียบเทียบกลุ่มที่มีปัจจัยเสี่ยงและไม่มีปัจจัยเสี่ยงจากผู้ป่วยที่มาถ่ายภาพจอประสาทตาเพื่อรับการส่งตรวจวินิจฉัยในหน่วยบริการปฐมภูมิ 9 แห่ง ได้แก่ ปทุมธานี 4 แห่ง เชียงใหม่ 4 แห่ง และโรงพยาบาลราชวิธี ซึ่งวัดผลความไว้ได้ถึง 91% และความจำเพาะได้ถึง 96% และเป็นที่มาของการขยายผลการวิจัยเพื่อนำนโยบายสู่การปฏิบัติออกไปในหน่วยบริการปฐมภูมิ 12 เขตสุขภาพ โดยแต่ละเขตเป็นการจับคู่ระหว่างโรงพยาบาลเขตกับโรงพยาบาลประจำจังหวัด เมื่อพบเคสเป็นบวกก็จะส่งต่อไปยังโรพยาบาลประจำจังหวัด

โดยปัจจุบัน ยังคงมีการวิจัยและทำงานร่วมกันอย่างต่อเนื่องกับทีมกูเกิล เฮลธ์ (Google Health) และทีมบริการทางการแพทย์ (DMS Team) ซึ่งดูแลโครงการนี้มาตั้งแต่ต้น ในการพัฒนาแพลตฟอร์มบนกูเกิล เอไอ (Google AI) ซึ่งน่าจะเห็นเป็นรูปเป็นร่างและเริ่มติดตั้งใช้งานได้ในอีก 6 เดือนข้างหน้า

นายแพทย์ไพศาล ร่วมวิบูลสุข แผนกบริการการแพทย์ โรงพยาบาลราชวิถี (Dr.Paisan Ruamviboonsuk : Rajvithi Hospital, Department of Medical Services) กล่าวว่า “ในการวิจัยแต่ละครั้ง เราจะมีการกำหนดข้อบังคับที่ชัดเจน เนื่องจากการพัฒนาปัญญาประดิษฐ์ชิ้นนี้เกี่ยวข้องกับข้อมูลของผู้ป่วยโดยตรง ยกตัวอย่างประเด็นของการปกป้องข้อมูลส่วนบุคคล ภาพจอประสาทตาของผู้ป่วยซึ่งบางภาพปรากฎชื่อและเลขประจำตัวผู้ป่วย จะถูกลบทิ้งก่อนอัปโหลดขึ้นระบบ AI เพื่อให้เหลือเฉพาะภาพเท่านั้น การพิสูจน์ความแม่นยำของอัลกอริทึมโดยใช้ชุดภาพถ่ายของผู้ป่วยที่มากกว่า 1 หมื่นราย และเป็นข้อมูลผู้ป่วยคนไทยสำหรับใช้กับประเทศไทย โดยไม่มีชุดช้อมูลของผู้ป่วยจากประเทศอื่นมาปะปน หรือ การวางแนวปฏิบัติโดยเคสผู้ป่วยที่ได้ผลเป็นบวกต้องมีการอ่านค่าซ้ำอีกครั้งโดยผู้เชี่ยวชาญด้านจอประสาทตาโดยตรง และมีการสุ่มตรวจวินิจฉัยเคสผู้ป่วยที่ได้ผลเป็นลบเฉลี่ย 10% มาอ่านผสมซ้ำ เพื่อลดจำนวนการตรวจวินิจฉัยเป็นผลบวกลวงและผลลบลวง

“AI ไม่ใช่แพทย์ แต่เป็นผู้ช่วยแพทย์ เราจึงไม่ได้เชื่อผลของ AI ไปทั้งหมด เรายังต้องเพิ่มเติมการวิจัย นำอัลกอริทึมไปทดสอบซ้ำกับข้อมูลเพื่อให้เกิดความเป็นมาตรฐาน นำผู้เชี่ยวชาญซึ่งเป็นบุคคลภายนอกเข้ามาร่วมในการวิจัยเพื่อสร้างความน่าเชื่อถือ มีความโปร่งใสในการแจ้งผู้ป่วยทราบถึงความเสี่ยงในการอ่านผลของ AI และบอกถึงความผิดพลาดคลาดเคลื่อนที่อาจเกิดขึ้น ส่วนในการวิจัยทางการแพทย์เอง เรามีคณะกรรมการจริยธรรมการวิจัยในคน ซึ่งจะมีเป็นผู้พิจารณาข้อเสนอโครงงานวิจัย ดูแลอัลกอริทึมว่าเหมาะสมควรใช้กับคนไทยหรือไม่ อีกทั้งการเลือกโมเดลปัญญาประดิษฐ์ต้องให้เหมาะกับแต่ละวัตถุประสงค์ใช้งาน ซึ่งในทางจักษุวิทยาพบว่า AI ทำงานได้ดีในการตรวจคัดกรองเพื่อจัดกลุ่มโรค แต่ความแม่นยำจะลดลงเหลือเพียง 70% เมื่อนำไปใช้ในการทำนายผลซึ่งถือว่ายังอยู่ในเกณฑ์ที่ไม่ดีนัก”                

นอกจากนี้ การตอกย้ำความเชื่อมั่นด้านความปลอดภัย โดยการสร้างแนวปฏิบัติและเพิ่มระบบการตรวจสอบป้องกันข้อมูลอย่างถูกต้อง เพื่อให้ปัญญาประดิษฐ์เป็นแค่อัลกอริทึมในการวิเคราะห์ ส่วนคลังข้อมูลรูปภาพทั้งหมดจะถูกเก็บไว้ที่เซิร์ฟเวอร์ในประเทศไทย ซึ่งจะอัพโหลดขึ้นใช้งานบนกูเกิล AI และจะถูกลบออกเมื่อการวิเคราะห์ผลเสร็จสิ้นในทันที

ข่าวอื่น ๆ ที่น่าสนใจ

เส้นทาง “โกลบิช” กับคู่ผู้ก่อตั้ง “ทรอย-จุ๊ย” จาก “รัก และเกลียด” ภาษาอังกฤษ สู่ EdTech เบอร์ต้นของไทย

อัตโนมือ สู่ อัติโนมัติ เจาะลึกโปรแกรม dtac Citizen Developer จิ๊กซอว์สำคัญเปลี่ยนผ่านองค์กรสู่ดิจิทัลเต็มขั้น

ยูนิเวอร์ซัล โรบอท เตรียมจัดงานประชุมหุ่นยนต์ร่วมปฏิบัติงาน (โคบอท) ที่ใหญ่ที่สุดในเอเชียแปซิฟิก ที่ไทย

STAY CONNECTED

0แฟนคลับชอบ
440ผู้ติดตามติดตาม
spot_img

Lastest News

MUST READ