บทที่ 3 กรอบการประเมินความเสี่ยงทางดิจิทัลสำหรับยุค AI
NIST AI Risk Management Framework
กรอบการจัดการความเสี่ยง AI ของ NIST (AI RMF 1.0) เปิดตัวในเดือนมกราคม 2023 พร้อมกับ Generative AI Profile ในเดือนกรกฎาคม 2024 ประกอบด้วยสี่ฟังก์ชันหลัก:
GOVERN: สร้างโครงสร้างองค์กรและกระบวนการสำหรับการจัดการความเสี่ยง AI MAP: ทำความเข้าใจบริบทระบบ AI และระบุความเสี่ยงที่อาจเกิดขึ้น MEASURE: ใช้เครื่องมือประเมินเชิงปริมาณ เชิงคุณภาพ หรือแบบผสม MANAGE: จัดลำดับความสำคัญ ป้องกัน และตอบสนองต่อความเสี่ยงที่ระบุแล้ว
มาตรฐาน ISO สำหรับความปลอดภัย AI
ISO/IEC 42001:2023 เป็นมาตรฐานระหว่างประเทศฉบับแรกสำหรับระบบการจัดการ AI โดยใช้منهجการ Plan-Do-Check-Act เน้นการพัฒนาและใช้งาน AI อย่างมีความรับผิดชอบ ครอบคลุมด้านจริยธรรม ความโปร่งใส และการเรียนรู้อย่างต่อเนื่อง
ISO/IEC 27001:2022 ได้รับการปรับปรุงให้รวมการควบคุมสำหรับความปลอดภัยระบบ AI ตลอดวงจรชีวิต รวมถึงวิธีการประเมินความเสี่ยงสำหรับช่องโหว่เฉพาะของ AI ข้อกำหนดการป้องกันข้อมูลสำหรับการฝึกอบรมและการทำงานของ AI
กรอบงาน ENISA สำหรับการปฏิบัติด้านความปลอดภัยไซเบอร์ของ AI
Framework for AI Cybersecurity Practices (FAICP) ของ ENISA มีสถาปัตยกรรมสามชั้น:
ชั้นที่ 1 - รากฐานความปลอดภัยไซเบอร์: ความปลอดภัยโครงสร้างพื้นฐาน ICT พื้นฐานสำหรับระบบ AI ชั้นที่ 2 - ความปลอดภัยไซเบอร์เฉพาะ AI: การประเมินภัยคุกคาม AI ตลอดวงจรชีวิต ชั้นที่ 3 - ความปลอดภัยไซเบอร์เฉพาะภาคส่วน: แนวทางที่ปรับแต่งสำหรับพลังงาน ยานยนต์ โทรคมนาคม และสุขภาพ