รู้ทันจุดบอดของ AI ก่อนใช้ตัดสินใจแทนมนุษย์ ปัญญาประดิษฐ์ (AI) กำลังถูกนำมาใช้ในทุกอุตสาหกรรม และมักดำเนินการอยู่เบื้องหลัง อย่างไรก็ตาม ผู้บริโภคก็มีโอกาสพบเจอ AI อยู่ทุกวัน
เช่น แชทบอทอัตโนมัติบนเว็บไซต์ต่างๆ ปัจจุบันมีการส่งเสริมให้เราใช้ AI ในเกือบทุกด้านของชีวิต แต่ก็มีข้อบกพร่องพื้นฐานที่ทำให้เทคโนโลยีนี้อาจไม่เหมาะสมกับทุกงานที่นำมาใช้
AI เก่งในการค้นหาข้อเท็จจริง
งานวิจัยล่าสุดจากมหาวิทยาลัย Purdue เปิดเผยว่า AI มีความไม่สมดุลในด้านค่านิยมของมนุษย์ที่ฝังอยู่ในระบบ การศึกษาพบว่าชุดข้อมูลฝึก AI จะเน้นหนักไปที่ค่านิยมด้าน “ข้อมูล” และ “ประโยชน์ใช้สอย” โดยมุ่งเน้นให้ผู้ใช้ค้นหาข้อมูลที่มีคุณภาพได้อย่างรวดเร็ว ในขณะที่ละเลยค่านิยมที่จับต้องไม่ได้ เช่น ความเป็นอยู่ที่ดี และค่านิยมทางสังคม
AI ได้รับการฝึกจากชุดข้อมูลจำนวนมหาศาล ซึ่งถึงแม้จะผ่านการคัดสรรอย่างรอบคอบ แต่บางครั้งก็ยังมีข้อมูลที่ไม่เหมาะสม โดยเฉพาะหากมาจากแหล่งอย่างโซเชียลมีเดีย เพื่อแก้ไขปัญหานี้ นักวิจัยจึงใช้เทคนิคที่เรียกว่า reinforcement learning from human feedback (RLHF) หรือ “การเรียนรู้เสริมจากข้อเสนอแนะของมนุษย์” โดยใช้ชุดข้อมูลที่คัดสรรแล้วเพื่อกำหนดพฤติกรรมของ AI ให้มีความซื่อสัตย์และเป็นประโยชน์
เทคนิค Value Imprint
ทีมจาก Purdue พัฒนาเทคนิคที่เรียกว่า “Value Imprint” เพื่อวิเคราะห์ชุดข้อมูลที่ใช้ฝึก AI พวกเขาตรวจสอบชุดข้อมูลโอเพ่นซอร์ส 3 ชุดจากบริษัท AI ชั้นนำของสหรัฐฯ โดยจำแนกค่านิยมของมนุษย์ตามหลักจริยศาสตร์ ทฤษฎีค่านิยม และแนวคิดด้านวิทยาศาสตร์ เทคโนโลยี และสังคม
ผลลัพธ์ของการวิเคราะห์ทำให้สามารถจัดกลุ่มค่านิยมของมนุษย์ออกเป็น 7 ประเภท ได้แก่:
- ความเป็นอยู่ที่ดีและสันติภาพ
- การแสวงหาข้อมูล
- ความยุติธรรม สิทธิมนุษยชน และสิทธิสัตว์
- หน้าที่และความรับผิดชอบ
- สติปัญญาและความรู้
- ความสุภาพและการยอมรับผู้อื่น
- ความเห็นอกเห็นใจและความช่วยเหลือ
ทีมวิจัยใช้การจำแนกนี้ฝึกโมเดลภาษาของ AI เพื่อวิเคราะห์ชุดข้อมูลของบริษัทต่างๆ
สิ่งที่ค้นพบ
ผลการศึกษาพบว่า AI มีแนวโน้มจะตอบคำถามเชิงเทคนิคได้ดี เช่น วิธีจองตั๋วเครื่องบิน แต่กลับมีข้อมูลน้อยมากเมื่อเกี่ยวข้องกับหัวข้อด้านความเห็นอกเห็นใจ ความยุติธรรม หรือสิทธิมนุษยชน โดยภาพรวม ค่านิยมที่พบมากที่สุดคือ “ความรู้” และ “การแสวงหาข้อมูล” ส่วนค่านิยมอย่าง “ความยุติธรรม” และ “สิทธิมนุษยชน” กลับพบได้น้อย
ผลกระทบจากการศึกษานี้
AI ส่วนใหญ่เน้นการแก้ปัญหาที่เป็นรูปธรรม แต่ช่องว่างของค่านิยมเหล่านี้อาจส่งผลอย่างมากในอนาคต โดยเฉพาะเมื่อ AI เข้ามามีบทบาทในภาคส่วนสำคัญ เช่น กฎหมาย การแพทย์ และโซเชียลมีเดีย หากไม่มีการใส่ใจในค่านิยมที่หลากหลาย อาจนำไปสู่การตัดสินใจที่ไม่รอบด้านหรือแม้แต่ไม่เป็นธรรมได้
ก้าวต่อไป
ทีมจาก Purdue หวังว่า การเปิดเผยค่านิยมที่ฝังอยู่ในระบบ AI จะช่วยให้บริษัทต่างๆ ปรับปรุงชุดข้อมูลให้สมดุลมากขึ้น และสะท้อนถึงค่านิยมของชุมชนที่พวกเขาให้บริการ วิธีนี้จะช่วยให้ AI พัฒนาไปไกลกว่าการเป็นเพียงเครื่องมือค้นหาข้อเท็จจริง และกลายเป็นผู้ช่วยที่เข้าใจบริบทและคุณค่าของมนุษย์อย่างแท้จริง
โซลูชั่น WatchGuard กับการพัฒนา AI อย่างปลอดภัยและรับผิดชอบ
ในขณะที่ AI กำลังกลายเป็นส่วนหนึ่งของระบบ IT และชีวิตประจำวันมากขึ้น การปกป้องข้อมูลและการใช้งานก็สำคัญไม่แพ้กัน WatchGuard มีโซลูชั่นด้านความปลอดภัยแบบครบวงจร เช่น:
- AI-Powered Threat Detection: ใช้ AI ตรวจจับภัยคุกคามแบบเรียลไทม์ โดยมีการคัดกรองข้อมูลอย่างปลอดภัยและไม่ละเมิดจริยธรรม
- Data Loss Prevention (DLP): ช่วยปกป้องข้อมูลสำคัญจากการรั่วไหลโดยไม่ตั้งใจ โดยเฉพาะเมื่อ AI เข้ามาเชื่อมต่อระบบต่างๆ
- Zero Trust Architecture: เพิ่มความมั่นใจว่าการเข้าถึงระบบของ AI จะผ่านการตรวจสอบตัวตนอย่างรัดกุม
- Ethical AI Governance Tools: สำหรับองค์กรที่ต้องการฝึก AI ด้วยข้อมูลของตนเอง WatchGuard สามารถสนับสนุนแนวทางด้านความปลอดภัย ความโปร่งใส และการควบคุมการเข้าถึงชุดข้อมูลฝึกอย่างเหมาะสม
การผสานระหว่างเทคโนโลยี AI กับความปลอดภัยจาก WatchGuard คือกุญแจสำคัญสู่อนาคต ช่วยให้คุณจัดการและรายงานความปลอดภัยของคุณจากแพลตฟอร์มที่เต็มไปด้วยประสิทธิภาพเพียงแพลตฟอร์มเดียว ไม่ว่าคุณต้องการลดหรือขจัดต้นทุนโครงสร้างพื้นฐาน การตั้งค่าของคุณ ลดความซับซ้อนของเครื่องมือการจัดการความปลอดภัยของคุณ หรือเพิ่มการมองเห็นเครือข่ายของคุณมากขึ้น WatchGuard Cloud สามารถช่วยได้หากท่านสนใจทดลองใช้สามารถ ลงทะเบียนเพื่อขอทดลองได้ฟรี 30 วัน
Credit https://www.watchguard.com