ผู้เขียน: Zeynep Betül Arikan, Data Science Intern @Mobiquity.

การพัฒนาล่าสุดในปัญญาประดิษฐ์ (AI) กำลังแนะนำเทคนิคการเรียนรู้ของเครื่องใหม่ๆ เพื่อแก้ปัญหาที่ซับซ้อนมากขึ้นด้วยความสามารถในการคาดการณ์ที่สูงขึ้น อย่างไรก็ตาม พลังในการทำนายนี้มาพร้อมกับความซับซ้อนที่เพิ่มขึ้น ซึ่งอาจส่งผลให้ตีความแบบจำลองเหล่านี้ได้ยาก แม้ว่าแบบจำลองเหล่านี้จะให้ผลลัพธ์ที่แม่นยำมาก แต่ก็จำเป็นต้องมีคำอธิบายเพื่อที่จะเข้าใจและเชื่อถือการตัดสินใจของแบบจำลอง นี่คือจุดที่ปัญญาประดิษฐ์ eXplainable (XAI) เข้ามามีบทบาท

XAI เป็นสาขาเกิดใหม่ที่มุ่งเน้นไปที่เทคนิคต่างๆ เพื่อทำลายธรรมชาติของโมเดล Machine Learning และสร้างคำอธิบายในระดับมนุษย์ กล่องดำนี้แสดงถึงโมเดลที่ซับซ้อนเกินกว่าจะตีความ กล่าวคือ โมเดลทึบแสง เช่น โมเดล Deep Learning ที่ได้รับความนิยมอย่างสูง แน่นอนว่า ไม่ใช่โมเดล Machine Learning ทั้งหมดจะซับซ้อนเกินไป แต่ก็มีโมเดลที่โปร่งใส เช่น การถดถอยเชิงเส้น/ลอจิสติก และแผนผังการตัดสินใจ โมเดลเหล่านี้สามารถให้ข้อมูลบางอย่างเกี่ยวกับความสัมพันธ์ระหว่างค่าคุณลักษณะและผลลัพธ์เป้าหมาย ซึ่งทำให้ "ตีความได้ง่ายขึ้น" อย่างไรก็ตาม นี่ไม่ใช่กรณีของโมเดลที่ซับซ้อน

เหตุใด XAI จึงจำเป็น?

ตามที่เพื่อนร่วมงานอธิบายไว้ในบล็อกที่แล้วว่า "เราจะเชื่อถือ AI ได้ไหมถ้าเราไม่รู้ว่ามันทำงานอย่างไร" เหตุผลหลักที่เราต้องการ XAI คือเพื่อให้เกิดความไว้วางใจ สิ่งสำคัญคือต้องอธิบายการตัดสินใจของโมเดลเพื่อให้สามารถไว้วางใจพวกเขาได้ โดยเฉพาะอย่างยิ่งเมื่อทำการตัดสินใจตามการคาดการณ์ซึ่งผลลัพธ์ของการตัดสินใจครั้งนี้เกี่ยวข้องกับความปลอดภัยของมนุษย์ อีกเหตุผลหนึ่งที่จำเป็นต้องมี XAI คือการตรวจจับและทำความเข้าใจอคติในการตัดสินใจเหล่านี้ เนื่องจากอคติสามารถพบได้ในหลายแง่มุมของชีวิตประจำวัน จึงไม่น่าแปลกใจที่อคตินี้สามารถมีอยู่ในชุดข้อมูลที่ใช้ในทางปฏิบัติ แม้แต่ชุดข้อมูลที่ได้รับการยอมรับอย่างดีก็ตาม ปัญหาอคติอาจส่งผลให้เกิดความไม่ยุติธรรมระหว่างลักษณะการเลือกปฏิบัติ เช่น เพศหรือเชื้อชาติ ปัญหานี้ได้รับการตรวจสอบใน "สารคดี" ล่าสุดทาง Netflix ซึ่งเน้นย้ำถึงความสำคัญของอัลกอริธึมการเรียนรู้ของเครื่องที่มีอคติและผลกระทบต่อสังคม XAI มีประโยชน์ในการช่วยให้เรา "ตรวจจับและเข้าใจปัญหาด้านความเป็นธรรม" และจึงสามารถกำจัดปัญหาเหล่านั้นได้ หากคุณต้องการการโน้มน้าวใจมากกว่านี้ คุณจะพบเหตุผลอื่นๆ อีกมากมายที่กล่าวถึงใน "เหตุใด AI ที่อธิบายได้"

แนวทางต่างๆ ในการจัดหมวดหมู่ XAI

มีวิธีการมากมายที่ใช้สำหรับ XAI แต่เนื่องจากเป็นสาขาใหม่มาก จึงยังไม่มีความเห็นพ้องต้องกันเกี่ยวกับข้อกำหนดและอนุกรมวิธาน ดังนั้นจึงอาจมีมุมมองที่แตกต่างกันในการจัดหมวดหมู่วิธีการเหล่านี้ ต่อไปนี้เป็น 3 วิธีที่แตกต่างกันในการจัดหมวดหมู่:

การจัดหมวดหมู่ตามการประยุกต์ใช้วิธีการกับรุ่นต่างๆ

แนวทางแรกขึ้นอยู่กับการบังคับใช้วิธีการกับรุ่นต่างๆ เมื่อเราสามารถนำวิธีการอธิบายไปใช้กับโมเดลใดๆ หลังจากผ่านการฝึกอบรมแล้ว เราก็สามารถเรียกมันว่าโมเดลไม่เชื่อเรื่องพระเจ้าได้ เมื่อแบบจำลองได้รับพลังในการทำนายมากขึ้น แบบจำลองเหล่านั้นก็จะสูญเสียความโปร่งใส ดังนั้น การใช้วิธีการหลังจากกระบวนการฝึกอบรม ป้องกัน จะต้องเสียสละพลังในการทำนายเพื่อความสามารถในการตีความ สิ่งนี้ถือได้ว่าเป็นข้อได้เปรียบเมื่อเปรียบเทียบกับวิธีการเฉพาะรุ่นที่จำกัดอยู่เพียงรุ่นใดรุ่นหนึ่งเท่านั้น อย่างไรก็ตาม ไม่ได้หมายความว่าแบบใดจะดีกว่าแบบอื่นเสมอไป

แนวทาง "เฉพาะแบบจำลอง" เรียกอีกอย่างว่าวิธีการภายในเนื่องจากสามารถเข้าถึงข้อมูลภายในของแบบจำลองได้ เช่น น้ำหนักในแบบจำลองการถดถอยเชิงเส้น

การจัดหมวดหมู่ตามขอบเขตของคำอธิบาย

อีกวิธีหนึ่งคือการจัดหมวดหมู่ตามขอบเขตของคำอธิบาย อาจจำเป็นต้องมีคำอธิบายในระดับอินสแตนซ์หรือระดับโมเดล การตีความในท้องถิ่นมีจุดมุ่งหมายเพื่ออธิบายการตัดสินใจที่แบบจำลองทำเกี่ยวกับอินสแตนซ์ ในทางกลับกัน คำอธิบายทั่วโลกมีจุดมุ่งหมายเพื่อตอบคำถามว่าพารามิเตอร์ของแบบจำลองส่งผลต่อการตัดสินใจอย่างไร ดังนั้น เมื่อแบบจำลองมีพารามิเตอร์หลายตัว "ความสามารถในการอธิบายทั่วโลก" อาจเป็นเรื่องยากที่จะบรรลุผลสำเร็จ

การจัดหมวดหมู่ตามขั้นตอนที่เราใช้วิธีการอธิบาย

แนวทางที่สามคือการจัดหมวดหมู่ตามขั้นตอนที่เราใช้วิธีการอธิบาย ขั้นตอนเหล่านี้เป็นขั้นตอนก่อนการสร้างแบบจำลอง ในการสร้างแบบจำลอง และหลังการสร้างแบบจำลอง (หลังเฉพาะกิจ) จุดมุ่งหมายของการอธิบายก่อนการสร้างแบบจำลองนั้นมุ่งเป้าไปที่การสำรวจและทำความเข้าใจชุดข้อมูลมากกว่า สำหรับการสร้างแบบจำลองนั้นคือการพัฒนาแบบจำลองที่สามารถอธิบายได้ในตัวหรือสังเกตได้อย่างสมบูรณ์ การวิจัยทางวิทยาศาสตร์ส่วนใหญ่ที่เกี่ยวข้องกับ XAI มุ่งเน้นไปที่วิธีการหลังการทดลองซึ่งมีจุดมุ่งหมายเพื่ออธิบายแบบจำลองที่ซับซ้อนหลังกระบวนการฝึกอบรม เนื่องจากวิธีการไม่เชื่อเรื่องพระเจ้าของแบบจำลองยังถูกนำไปใช้หลังจากการฝึกแบบจำลองแล้ว พวกมันจึงเป็นวิธีการหลังการทดลองโดยธรรมชาติเช่นกัน

การใช้ SHapley Additive exPlanations (SHAP) เป็นวิธีอธิบาย

เพื่อให้เข้าใจการตัดสินใจของแบบจำลอง เราจำเป็นต้องใช้วิธีการอธิบาย วิธีการอธิบายวิธีหนึ่งคือ SHAP (คำอธิบายเพิ่มเติมของ SHapley) เป็นวิธีการอธิบายหลังเหตุการณ์แบบไม่เชื่อเรื่องพระเจ้าโดยใช้ทฤษฎีเกมแนวร่วม ( "ค่าแชปลีย์") เพื่อประเมินความสำคัญของแต่ละคุณลักษณะ สามารถให้คำอธิบายทั้งในระดับท้องถิ่นและระดับโลกที่สอดคล้องกันและมีแพ็คเกจ Python ที่ดีมาก

โครงเรื่องด้านบนเป็นตัวอย่างเอาต์พุตของการจำแนกรูปภาพโดยโครงข่ายประสาทเทียม 2 ชั้น ซึ่งดำเนินการกับชุดข้อมูล MNIST จากนั้นอธิบายโดย SHAP โดยให้คำอธิบายสำหรับเอาต์พุต 10 คลาส (ตัวเลขสีแดง-น้ำเงินระหว่าง 0 ถึง 9) ของรูปภาพอินพุต 5 รูป สีแดง/สีน้ำเงินของแต่ละพิกเซลแสดงถึงจำนวนพิกเซลที่ส่งผลต่อคลาสเอาต์พุต สีแดงหมายถึงการมีส่วนร่วมในเชิงบวก และสีน้ำเงินหมายถึงเชิงลบ เมื่อเราดูที่ตัวเลข 4 และ 9 พิกเซลสีขาวที่ด้านบนของตัวเลข 4 มีส่วนช่วยมากที่สุดในการระบุอินพุตเป็นตัวเลข 4 เนื่องจากเป็นปัจจัยสร้างความแตกต่างสำหรับตัวเลข 4 และ 9 สำหรับตัวเลข 0 พิกเซลสีขาวที่อยู่ตรงกลางคือ สำคัญมากในการจำแนกตัวเลขนั้นเป็น 0 สำหรับตัวอย่างและการใช้งาน SHAP เพิ่มเติม คุณสามารถดูได้ที่ พื้นที่เก็บข้อมูล GitHub

เนื่องจากปัญญาประดิษฐ์เริ่มแพร่หลายมากขึ้นในชีวิตของเรา โมเดล Machine Learning ใหม่จึงปรากฏขึ้นก่อนที่เราจะเข้าใจโครงสร้างพื้นฐานของโมเดลปัจจุบันอย่างถูกต้อง สิ่งสำคัญคือต้องตีความโมเดลเหล่านี้เพื่อพัฒนาโมเดลที่เชื่อถือได้และมีประสิทธิภาพมากขึ้น เราจำเป็นต้องปิดช่องว่างระหว่างการตัดสินใจของแบบจำลองและเหตุผลที่อยู่เบื้องหลัง และ SHAP ก็เป็นหนึ่งในตัวเลือกมากมายในสาขา XAI ที่จะทำเช่นนั้น

สนใจที่จะสนทนาเพิ่มเติมเกี่ยวกับหัวข้อนี้หรือไม่? "มาคุยกันเถอะ"

ต้องการอ่านเพิ่มเติมหรือไม่? ดาวน์โหลดเอกสารไวท์เปเปอร์ฟรีของเราเกี่ยวกับ การเปลี่ยนแปลงการดูแลสุขภาพด้วยการเรียนรู้แบบเสริมกำลัง

เราหวังว่าคุณจะสนุกกับการอ่านข้อความนี้ และอย่าลืมติดตามเราหากคุณต้องการอ่านเรื่องราวที่น่าสนใจเพิ่มเติม

หากคุณกำลังมองหาโอกาสในการทำงาน มาร่วมร่วมงานกับเราที่ Mobiquity:



เผยแพร่ครั้งแรกที่ https://www.mobiquity.com.