ผลิตภัณฑ์ Dataiku, การปรับขนาด AI, ฟีเจอร์เด่นเคธี่ กราสโซ่
ในขณะที่องค์กรต่างๆ ปรับขนาดความพยายามด้านวิทยาการข้อมูล การเรียนรู้ของเครื่อง และ AI พวกเขาจะต้องไปถึงทางตันของการเรียนรู้เมื่อต้องจัดลำดับความสำคัญของโมเดลกล่องขาวมากกว่าโมเดลกล่องดำ (เพราะมีเวลาและสถานที่สำหรับสิ่งเหล่านั้น) และวิธีการใส่คำอธิบายไปพร้อมกัน
นี่คือสาเหตุที่โมเดลกล่องดำอาจเป็นสิ่งที่ท้าทายสำหรับธุรกิจ (และข้อกังวลที่ถูกต้องตามกฎหมาย):
- พวกเขาขาดความสามารถในการอธิบาย(ทั้งภายในองค์กรและภายนอกกับลูกค้าและหน่วยงานกำกับดูแลที่ต้องการคำอธิบายว่าเหตุใดจึงมีการตัดสินใจ)
- พวกเขาสร้าง "หนี้ความเข้าใจ" ที่ต้องชำระคืนเมื่อเวลาผ่านไปด้วยความยากลำบากในการรักษาประสิทธิภาพ ผลกระทบที่ไม่คาดคิด เช่น ผู้คนเล่นเกมระบบ หรือความไม่ยุติธรรมที่อาจเกิดขึ้น
- พวกเขาสามารถนำไปสู่หนี้ทางเทคนิค เมื่อเวลาผ่านไป เนื่องจากโมเดลต้องได้รับการประเมินซ้ำและฝึกใหม่บ่อยขึ้นเมื่อข้อมูลหลุดออกไป เพราะอาจอาศัยความสัมพันธ์ปลอมและไม่ใช่สาเหตุที่ทำให้หายไปอย่างรวดเร็ว (ซึ่งส่งผลให้ค่าใช้จ่ายในการดำเนินงานสูงขึ้น)
- มีปัญหาสำหรับโมเดลทุกประเภท (ไม่ใช่แค่โมเดลกล่องดำ) แต่สิ่งต่างๆ เช่น ความสัมพันธ์ปลอมๆ นั้นตรวจจับได้ง่ายกว่าด้วยโมเดลกล่องขาว
ดังที่เราได้กล่าวไว้ข้างต้น แม้ว่าโมเดลกล่องดำจะขาดความสามารถในการอธิบาย แต่ก็ยังคงสามารถยึดถือตามความเข้มงวดและมาตรฐานเดียวกันกับโมเดลอื่นๆ โดยเฉพาะอย่างยิ่งกับชุดเครื่องมือที่แข็งแกร่งที่ Dataiku รวมไว้ทั่วทั้งกระดานสำหรับ AI ที่มีความรับผิดชอบและความสามารถในการอธิบาย ผู้ปฏิบัติงานยังสามารถขยายความสามารถในการอธิบายของโมเดลกล่องขาวด้วยเครื่องมือที่เหมาะสมใน Dataiku และพัฒนาโมเดลเหล่านี้ด้วยวิธีการที่มีความรับผิดชอบ โพสต์บล็อกนี้เน้นสิ่งที่แน่นอน AI ที่อธิบายได้คืออะไรและจะบรรลุผลสำเร็จด้วย Dataiku ได้อย่างไร.
การใช้กลยุทธ์ AI ที่อธิบายได้
การสร้างระบบ AI ที่โปร่งใสและเข้าถึงได้นั้นมีความสำคัญไม่เพียงแต่สำหรับผู้ที่อยู่เบื้องหลังการพัฒนาโมเดล (เช่น นักวิทยาศาสตร์ข้อมูล) แต่สำหรับผู้ใช้ปลายทางที่ไม่เกี่ยวข้องกับการพัฒนาโมเดล (เช่น สายธุรกิจที่ต้องการเข้าใจผลลัพธ์และวิธีการ แปลไปยังผู้มีส่วนได้ส่วนเสียอื่น ๆ ในบริษัท)
ไม่ต้องกังวล — มีวิธีสร้างแบบจำลองในแบบที่น่าเชื่อถือและไว้วางใจได้สำหรับธุรกิจ ป้อน: AI ที่อธิบายได้ การเพิ่มขึ้นของโมเดลที่ซับซ้อนในการตัดสินใจครั้งล่าสุดทำให้องค์กรต่าง ๆ ตระหนักว่า AI นั้นมีผลที่เราไม่เข้าใจ (ซึ่งมีผลกระทบในโลกแห่งความเป็นจริง) ซึ่งในทางกลับกันได้กระตุ้นให้เกิดความก้าวหน้ามากมายในพื้นที่ การประชุมที่ทุ่มเทให้กับ หัวข้อ ผู้นำในสาขาที่พูดคุยกัน และความจำเป็นในการใช้เครื่องมือเพื่อทำความเข้าใจและนำ AI ที่อธิบายได้ไปใช้ในวงกว้าง
AI ที่อธิบายได้ ซึ่งบางครั้งเรียกโดยย่อว่า XAI คือชุดของความสามารถและวิธีการที่ใช้ในการอธิบายแบบจำลอง AI ผลกระทบที่คาดการณ์ไว้ และอคติที่อาจเกิดขึ้น วัตถุประสงค์คือเพื่อระบุว่าโมเดลกล่องดำเข้าถึงการตัดสินใจได้อย่างไร และทำให้โมเดลสามารถตีความได้มากที่สุด
(Video) Your Path to Enterprise AI
มีสององค์ประกอบหลักของความสามารถในการอธิบาย:
- การตีความ: ทำไมตัวแบบถึงทำงานเหมือนเดิม?
- ความโปร่งใส: โมเดลทำงานอย่างไร
ตามหลักการแล้ว ทุกรุ่น — ไม่ว่าจะเป็นอุตสาหกรรมหรือกรณีการใช้งาน — จะต้องทั้งอธิบายได้และโปร่งใส เพื่อให้ท้ายที่สุดแล้ว ทีมไว้วางใจระบบที่ขับเคลื่อนโดยโมเดลเหล่านี้ ลดความเสี่ยงและทำให้ทุกคน (ไม่ใช่เฉพาะผู้ที่เกี่ยวข้อง) เข้าใจว่าการตัดสินใจเป็นอย่างไร ทำ. ตัวอย่างที่โมเดลอธิบายได้และโปร่งใสมีประโยชน์ ได้แก่:
- การตัดสินใจเชิงวิพากษ์ที่เกี่ยวข้องกับบุคคลหรือกลุ่มบุคคล (เช่น การดูแลสุขภาพ ความยุติธรรมทางอาญา บริการทางการเงิน)
- การตัดสินใจที่ไม่ค่อยเกิดขึ้นหรือไม่ใช่เรื่องปกติ (เช่น งาน M&A)
- สถานการณ์ที่ต้นเหตุอาจสนใจมากกว่าผลลัพธ์ (เช่น การบำรุงรักษาเชิงคาดการณ์และความล้มเหลวของอุปกรณ์ การอ้างสิทธิ์หรือแอปพลิเคชันที่ถูกปฏิเสธ)
ความสามารถในการอธิบายด้วย Dataiku
- สิ่งสำคัญสำหรับองค์กรในการทำความเข้าใจว่าโมเดลของพวกเขาตัดสินใจอย่างไร เนื่องจาก:
- มันเปิดโอกาสให้พวกเขาปรับแต่งและปรับปรุงการวิเคราะห์เพิ่มเติม
- ทำให้ง่ายต่อการอธิบายให้ผู้ที่ไม่ได้ปฏิบัติงานทราบว่าแบบจำลองใช้ข้อมูลในการตัดสินใจอย่างไร
- ความสามารถในการอธิบายสามารถช่วยผู้ปฏิบัติงานหลีกเลี่ยงผลกระทบเชิงลบหรือที่คาดไม่ถึงจากแบบจำลองของตนได้
Dataiku ช่วยให้องค์กรบรรลุวัตถุประสงค์ทั้งสามนี้โดยสร้างสมดุลที่เหมาะสมระหว่างความสามารถในการตีความและประสิทธิภาพของโมเดล แพลตฟอร์ม AI ในชีวิตประจำวันของ Dataiku สร้างขึ้นสำหรับวิธีการปฏิบัติที่ดีที่สุดและการกำกับดูแลตลอดวงจรชีวิตของโมเดล ดูวิดีโอด้านล่างสำหรับบทสรุปเจ็ดนาทีของวิธีที่ทีมสามารถใช้ระบบ AI ที่มีความรับผิดชอบและอธิบายได้กับ Dataiku:
ดังนั้น Dataiku จะช่วยผู้สร้างและผู้มีส่วนได้ส่วนเสียในโครงการให้สอดคล้องกับค่านิยมขององค์กรของพวกเขาสำหรับ AI ที่มีความรับผิดชอบได้อย่างไร
ความโปร่งใสของข้อมูล
แนวทางปฏิบัติของ AI ที่มีความรับผิดชอบรวมถึงการตรวจสอบข้อมูลของคุณเพื่อหาจุดบกพร่องและอคติที่อาจเกิดขึ้น เครื่องมือในตัวของ Dataiku สำหรับคุณภาพข้อมูลและการวิเคราะห์ข้อมูลเชิงสำรวจช่วยให้คุณสร้างโปรไฟล์และทำความเข้าใจลักษณะสำคัญของข้อมูลได้อย่างรวดเร็ว มีผู้ช่วยอัจฉริยะเพื่อเพิ่มพลังให้กับการสำรวจของคุณ โดยแนะนำการทดสอบทางสถิติและการแสดงภาพที่หลากหลาย ซึ่งช่วยให้คุณระบุและวิเคราะห์ความสัมพันธ์ระหว่างคอลัมน์ได้ ตัวเลือกพิเศษของ GDPR หมายความว่าคุณยังสามารถจัดทำเอกสารและติดตามตำแหน่งที่ใช้ข้อมูลระบุตัวตนส่วนบุคคลหรือ PII ซึ่งทำให้ดูแลจุดข้อมูลที่ละเอียดอ่อนได้ดีขึ้นตั้งแต่ต้นทาง
อธิบายแบบจำลองได้
สำหรับโครงการที่มีส่วนประกอบการสร้างแบบจำลอง Dataiku'sวิชวล ม.ลเฟรมเวิร์กนำเสนอเครื่องมือที่หลากหลายเพื่อปรับแต่งและประเมินโมเดลแมชชีนเลิร์นนิง และยืนยันว่าเป็นไปตามความคาดหวังในด้านประสิทธิภาพ ความยุติธรรม และความน่าเชื่อถือ
ตัวอย่างเช่น ในการรวมความรู้ด้านโดเมนเข้ากับการทดลองแบบจำลองในรูปแบบของการตรวจสอบสามัญสำนึก ผู้เชี่ยวชาญเฉพาะเรื่องสามารถเพิ่มการยืนยันแบบจำลองได้ — ข้อความโดยทั่วไปที่แจ้งให้ทราบเกี่ยวกับวิธีที่เราคาดว่าแบบจำลองจะทำงานในบางกรณี
แผงการวินิจฉัยที่สมบูรณ์ช่วยให้เราดำเนินการตรวจสอบสุขภาพจิตอื่น ๆ โดยเพิ่มคำเตือนโดยอัตโนมัติหากตรวจพบปัญหาใด ๆ เช่น การรั่วไหลมากเกินไปหรือการรั่วไหลของข้อมูล ภายหลังเมื่อทำการประเมินโมเดลที่ผ่านการฝึกอบรมของเรา เราสามารถเห็นผลการทดสอบที่ขัดแย้งกับคำยืนยันของเรา และการวินิจฉัยบางอย่างทำให้เกิดคำเตือน ดังนั้นนี่คือสัญญาณบางอย่างในทันทีที่เราควรตรวจสอบเพิ่มเติมและอาจต้องทบทวนสมมติฐานของเราใหม่!
การวิเคราะห์ข้อผิดพลาดของโมเดลเป็นอีกมุมมองหนึ่งที่ให้ข้อมูลเชิงลึกเกี่ยวกับกลุ่มประชากรเฉพาะกลุ่มที่โมเดลอาจทำงานได้ไม่ดี ซึ่งช่วยให้เราสามารถปรับปรุงความทนทานและความน่าเชื่อถือของโมเดลก่อนที่จะปรับใช้ เมื่อพูดถึงกลุ่มประชากรตามรุ่นในข้อมูล การวิเคราะห์ประชากรย่อยเป็นเครื่องมือที่มีประสิทธิภาพเพื่อให้แน่ใจว่าแบบจำลองทำงานได้ดีอย่างสม่ำเสมอในกลุ่มย่อยต่างๆ และช่วยตรวจสอบอคติที่อาจเกิดขึ้น ตัวอย่างเช่น หลังจากตรวจสอบเมตริกประสิทธิภาพโดยแยกตามเชื้อชาติ เราอาจเลือกสุ่มตัวอย่างข้อมูลของเราในแบบอื่น หรือฝึกแบบจำลองของเราใหม่ด้วยพารามิเตอร์ที่แตกต่างกันเพื่อให้มั่นใจว่าประสิทธิภาพจะเท่ากันมากขึ้นในกลุ่มเชื้อชาติต่างๆ
แผนผังการพึ่งพาบางส่วนช่วยให้ผู้สร้างแบบจำลองเข้าใจแบบจำลองที่ซับซ้อนด้วยภาพโดยแสดงความสัมพันธ์ระหว่างคุณลักษณะและเป้าหมาย เพื่อให้ทีมธุรกิจสามารถเข้าใจได้ดีขึ้นว่าข้อมูลที่ป้อนเข้ามามีอิทธิพลต่อการคาดการณ์อย่างไร
ความสามารถในการอธิบายในท้องถิ่น
สำหรับผู้บริโภค AI ที่ใช้เอาต์พุตแบบจำลองเพื่อแจ้งการตัดสินใจทางธุรกิจ การรู้ว่าเหตุใดแบบจำลองจึงคาดการณ์ผลลัพธ์บางอย่างสำหรับกรณีหนึ่ง ๆ มักจะมีประโยชน์ คำอธิบายแต่ละรายการในระดับแถวมีประโยชน์อย่างยิ่งสำหรับการทำความเข้าใจคุณลักษณะที่มีอิทธิพลมากที่สุดสำหรับการคาดคะเนที่เฉพาะเจาะจง หรือสำหรับบันทึกที่มีความน่าจะเป็นสูง สำหรับผู้ใช้ทางธุรกิจที่ต้องการเข้าใจว่าการเปลี่ยนแปลงค่าอินพุตของบันทึกจะส่งผลต่อผลลัพธ์ที่คาดการณ์ไว้อย่างไร การวิเคราะห์แบบโต้ตอบแบบ what-if ของ Dataiku พร้อมการปรับผลลัพธ์ให้เหมาะสมเป็นเครื่องมือที่มีประสิทธิภาพ
ความสามารถในการอธิบายโครงการ
ประการสุดท้าย เพื่อความโปร่งใสและการมองเห็นโครงการโดยรวม การซูมกลับออกจะช่วยให้คุณเห็นว่า Dataiku’s Flow แสดงภาพที่ชัดเจนของตรรกะโครงการทั้งหมดได้อย่างไร วิกิและเอกสารอัตโนมัติสำหรับโมเดลและโฟลว์เป็นวิธีอื่นที่ผู้สร้าง ผู้ตรวจสอบ และผู้บริโภค AI สามารถอธิบายและทำความเข้าใจการตัดสินใจที่เกิดขึ้นในแต่ละขั้นตอนของไปป์ไลน์ได้
สรุป
อย่างที่คุณเห็น ไม่ว่าคุณจะเลือกรุ่นใด Dataiku ก็มีความสามารถที่ช่วยให้คุณสร้างมันได้ด้วยแนวทางปฏิบัติที่ดีที่สุดที่โปร่งใสและอธิบายได้ แพลตฟอร์มนี้ยังมีฟีเจอร์ AI Governance และ MLOps ที่มีประสิทธิภาพ สนับสนุนทีมในการสร้างระบบ AI ที่มีความรับผิดชอบ