ความกังวลเกี่ยวกับการใช้ข้อมูลของ Artificial Intelligence – AI กำลังร้อนถึงหน่วยงานต่าง ๆ รวมถึงองค์กรธุรกิจ ให้ต้องหันมาใส่ใจกับการกำกับดูแลข้อมูลอย่างจริงจัง เพราะการใช้ข้อมูลที่ขาดการกำกับดูแล บกพร่อง มีอคติและอันตราย ทำให้เสี่ยงต่อการละเมิดความเป็นส่วนตัวของข้อมูล กฎระเบียบและข้อกฎหมาย ซ้ำร้ายผลลัพธ์ไม่ถูกต้องยังอาจนำไปสู่การตัดสินใจผิดพลาดทางธุรกิจ ดังวลีคุ้นหูในแวดวงไอที ‘Garbage in-Garbage out – GIGO’ ที่แปลว่า เมื่อเราเอาขยะเข้าสู่ระบบ เราก็จะได้ผลลัพธ์ขยะ
ฉะนั้นองค์กรที่บูรณาการหรือกำลังต้องการใช้งาน AI จำเป็นต้องมีการกำกับดูแลข้อมูลสำหรับ AI หรือ AI Data Governance
![](https://bluebik.com/wp-content/uploads/2024/08/BBIK-Data-governanceAI-1024x1024.jpg)
AI Data Governance คืออะไร
AI Data Governance หรือ ธรรมาภิบาลข้อมูล AI คือ แนวทางการกำกับดูแลจัดการและใช้ประโยชน์จากข้อมูลของ AI ภายในองค์กรอย่างเป็นระบบ ทำให้ข้อมูลที่ใช้ฝึกโมเดล AI มีความถูกต้อง ปลอดภัย ปราศจากอคติและถูกใช้อย่างเหมาะสม โดย AI Data Governance ครอบคลุมถึงการกำหนดนโยบาย มาตรฐานและขั้นตอน/แนวทางในการเก็บรวบรวม จัดเก็บและวิเคราะห์ข้อมูล เพื่อให้กระบวนการดังกล่าวเป็นไปตามมาตรฐานทางกฎหมายและจริยธรรม
การกำกับดูแลการใช้ข้อมูล AI ที่มีประสิทธิภาพจะช่วยแก้ไขปัญหาผลลัพธ์ผิดพลาด ลดความเสี่ยงการละเมิดข้อมูลสำคัญ โมเดล AI มีอคติและการใช้ข้อมูลที่ละเอียดอ่อนในทางที่ผิด นอกจากนี้ ยังช่วยเสริมภาพลักษณ์องค์กรด้านความโปร่งใสและความรับผิดชอบขององค์กร สร้างความไว้วางใจทั้งกับผู้มีส่วนได้ส่วนเสียและลูกค้าอีกด้วย
เปิด 4 ความท้าทายที่องค์กรต้องเจอ หากปราศจาก Data Governance สำหรับ AI
ปัจจัยที่ทำให้ AI Data Governance กลายเป็นกลไกสำคัญ ช่วยองค์กรรับมือกับความท้าทายจากการใช้งาน AI ประกอบไปด้วย
- ความเสี่ยงด้านความปลอดภัยที่ซ่อนอยู่: เป็นเรื่องง่ายมากที่ข้อมูลละเอียดอ่อนหรือสำคัญของลูกค้า/องค์กร จะหลุดเข้าไปในกระบวนการการฝึก AI ที่มีการใช้ข้อมูลหลายร้อยเทราไบท์ และเครือข่ายสมองเทียมจะเรียนรู้ข้อมูลเหล่านี้โดยทันที ซึ่งผู้ใช้งาน AI สามารถเข้าถึงข้อมูลสำคัญดังกล่าวโดยที่ไม่มีใครตระหนักรู้ถึงช่องโหว่นี้เลยด้วยซ้ำ
- เกิดข้อบกพร่อง User Interface – UI: ผู้ใช้งาน AI สามารถป้อนคำสั่งด้วยภาษาปกติที่ใช้กันทั่วไปหรือ Natural Language ซึ่งความยืดหยุ่น (Flexible Input) นี้อาจทำให้เกิดการการป้อนข้อมูลที่ไม่คาดคิดได้ อาทิ ผู้ใช้งานอาจป้อนข้อมูลส่วนตัวหรือข้อมูลลับองค์กรโดยไม่ตั้งใจ และการบันทึกข้อมูลเหล่านี้ลงในระบบถือเป็นความเสี่ยงร้ายแรงทางธุรกิจ ดังนั้น องค์กรจำเป็นต้องใช้ความระมัดระวังและตรวจสอบอย่างเคร่งครัดในกระบวนการออกแบบ UI ด้วย
- AI ไม่น่าเชื่อถือ: การฝึกอัลกอริทึม AI ที่ไม่ได้รับการออกแบบอย่างเหมาะสม จะทำให้โมเดล AI ไม่สามารถเข้าใจสิ่งต่าง ๆ ได้อย่างแตกฉาน ส่งผลให้ระบบ AI ไม่น่าเชื่อถือในที่สุด
- ต้นทุนการทดสอบราคาแพง: ผลลัพธ์จาก Flexible Input อาจทำให้ผลลัพธ์ของ AI มีความสับสน ยกตัวอย่าง Chatbot ที่ได้รับการฝึกด้วยชุดคำถาม/ข้อมูลที่ไม่ถูกต้อง ส่งผลให้ต้นทุนการทดสอบความถูกต้องของระบบสูงและต้องมีการตรวจตราและตรวจสอบอย่างสม่ำเสมอ
แนวทางการขับเคลื่อน AI Data Governance ในองค์กร
ระบบ AI จำเป็นต้องได้รับการกำกับดูแลด้านความปลอดภัยของข้อมูล UI และมาตรฐานการทดสอบ เพื่อสร้างความเชื่อมั่นให้กับระบบ และวันนี้ บลูบิค จะพาคุณไปรู้จักกับแนวทางเบื้องต้นในการขับเคลื่อน AI Data Governance ในองค์กร
1. ความปลอดภัยของข้อมูล: AI เป็นระบบที่ขับเคลื่อนด้วยข้อมูล ดังนั้น การรักษาความปลอดภัยและการจำกัดสิทธิ์การเข้าถึงข้อมูลสำหรับการฝึกนั้นเป็นสิ่งสำคัญอันดับต้น ๆ เพราะถ้าข้อมูลสำคัญหลุดเข้าไปในกระบวนการฝึก อาจทำให้เกิดการละเมิดข้อมูลได้ ดังนั้นการกำกับดูแล AI ที่เข้มแข็งจึงเป็นหัวใจสำคัญ และต้องดำเนินการตามนโยบาย Data Governance ขององค์กร และทุกคนที่มีส่วนเกี่ยวข้องกับข้อมูลล้วนมีหน้าที่รับผิดชอบต่อความปลอดภัยและความถูกต้องของข้อมูลด้วยเช่นกัน
2. Interface ต้องความปลอดภัย: พลังแห่ง AI คือ ขีดความสามารถในการจัดการและตอบคำถามที่หลากหลาย นอกจากความสะดวกสบายแล้ว Flexible Input ยังเปิดโอกาสรับความเสี่ยงใหม่ ๆ จากการที่ผู้ใช้งานเปิดเผยข้อมูลสำคัญโดยไม่ตั้งใจกับโมเดล AI และจบลงด้วยการบันทึกเหตุการณ์นั้น ๆ ลงในระบบ (Logs) หรือในกรณีเลวร้ายที่สุด อาจเปิดทางให้มัลแวร์เข้าสู่โมเดลหรือเปิดเผยข้อมูลส่วนบุคคล
ดังนั้น การพัฒนาโมเดล AI จำเป็นต้องมั่นใจว่าข้อมูลที่เข้า-ออกในกระบวนการฝึกมีความปลอดภัย ซึ่งการรักษาความปลอดภัยนี้ หมายถึง การขจัดข้อมูลสำคัญออกจาก Input Logs และปฏิเสธ Input ที่อาจส่งผลกระทบต่อข้อมูลและระบบ และในส่วนของการออกแบบ UI หมายถึง การลด Use Cases ที่อาจนำข้อมูลสำคัญไปยังระบบ
3. มาตรฐานการทดสอบ: อ้างอิงจากเอกสารของ Google เกี่ยวกับการกำกับดูแล AI ระบุถึงหลักการสำคัญด้านความโปร่งใสและความรับผิดชอบใน AI นั้น ประกอบไปด้วย:
- ระบบการแจ้งเตือน: เป็นแนวทางที่ชี้ให้ผู้ใช้งานทราบถึงการแสดงผลลัพธ์ที่สุ่มเสี่ยงของ AI เช่นเดียวกับการแจ้งเตือนบนโซเชียลมีเดีย ยกตัวอย่าง ผู้ใช้งานสามารถแจ้งเตือนหากพบว่า AI ตอบโต้หรือแสดงผลลัพธ์ที่เกี่ยวข้องกับข้อมูลที่มีความละเอียดอ่อน ซึ่งระบบการแจ้งเตือนนี้สำคัญต่อ AI ในกรณีที่ระบบดำเนินการไม่เป็นไปตามที่กำหนดไว้
- Output Contesting: เป็นระบบที่ใช้ยกเลิก/แก้ไขผลลัพธ์จาก AI ยกตัวอย่าง หาก Coding Assistant สงสัยว่ามีโค้ดที่บกพร่อง/มีปัญหา ผู้พัฒนาจะแทนที่โค้ดนั้นด้วยโค้ดที่ถูกต้อง ดังนั้น Output Contesting จึงมีความสำคัญในแง่มุมของการควบคุมไม่ให้ผลลัพธ์ที่ผิดพลาดจาก AI เผยแพร่ออกไป
แม้ว่า AI จะมีพลังมหาศาล แต่เราเริ่มเห็นแล้วว่าเทคโนโลยีนี้มาพร้อมกับปัญหา Data Governance หรือการกำกับดูแลข้อมูล ซึ่งอาจนำไปสู่ความล้มเหลวในการลงทุนพัฒนา AI จนถึงสร้างความเสียหายทั้งทางการเงินและภาพลักษ์ได้
‘บลูบิค’ ในฐานะที่ปรึกษาชั้นนำผู้ให้บริการดิจิทัลทรานส์ฟอร์เมชันครบวงจร ครอบคลุมตั้งแต่การวางรากฐาน Data Governance จนถึงการพัฒนาโมเดล AI และ ML ขั้นสูง สามารถช่วยปลดล็อคพร้อมยกระดับการกำกับดูแลข้อมูลของ AI ให้มีความปลอดภัยและเป็นไปตามนโนบายขององค์กร กฎระเบียบและกฎหมายที่เกี่ยวข้อง ควบคู่กับการใช้ประโยชน์จาก AI ได้อย่างมีประสิทธิภาพสูงสุดสอดรับกับความต้องการทางธุรกิจของแต่ละองค์กรได้อย่างแท้จริง สำหรับองค์กรที่สนใจสามารถติดต่อขอข้อมูลจากทีมงานผู้เชี่ยวชาญเฉพาะด้าน Data Governance ของบลูบิคได้ที่
✉ [email protected]
☎ 02-636-7011
ขอบคุณข้อมูลอ้างอิงจาก zeenea, atlan