NIST AI Risk Management Framework

กรอบการจัดการความเสี่ยง AI ของ NIST (AI RMF 1.0) เปิดตัวในเดือนมกราคม 2023 พร้อมกับ Generative AI Profile ในเดือนกรกฎาคม 2024 ประกอบด้วยสี่ฟังก์ชันหลัก:

GOVERN: สร้างโครงสร้างองค์กรและกระบวนการสำหรับการจัดการความเสี่ยง AI MAP: ทำความเข้าใจบริบทระบบ AI และระบุความเสี่ยงที่อาจเกิดขึ้น MEASURE: ใช้เครื่องมือประเมินเชิงปริมาณ เชิงคุณภาพ หรือแบบผสม MANAGE: จัดลำดับความสำคัญ ป้องกัน และตอบสนองต่อความเสี่ยงที่ระบุแล้ว

มาตรฐาน ISO สำหรับความปลอดภัย AI

ISO/IEC 42001:2023 เป็นมาตรฐานระหว่างประเทศฉบับแรกสำหรับระบบการจัดการ AI โดยใช้منهجการ Plan-Do-Check-Act เน้นการพัฒนาและใช้งาน AI อย่างมีความรับผิดชอบ ครอบคลุมด้านจริยธรรม ความโปร่งใส และการเรียนรู้อย่างต่อเนื่อง

ISO/IEC 27001:2022 ได้รับการปรับปรุงให้รวมการควบคุมสำหรับความปลอดภัยระบบ AI ตลอดวงจรชีวิต รวมถึงวิธีการประเมินความเสี่ยงสำหรับช่องโหว่เฉพาะของ AI ข้อกำหนดการป้องกันข้อมูลสำหรับการฝึกอบรมและการทำงานของ AI

กรอบงาน ENISA สำหรับการปฏิบัติด้านความปลอดภัยไซเบอร์ของ AI

Framework for AI Cybersecurity Practices (FAICP) ของ ENISA มีสถาปัตยกรรมสามชั้น:

ชั้นที่ 1 - รากฐานความปลอดภัยไซเบอร์: ความปลอดภัยโครงสร้างพื้นฐาน ICT พื้นฐานสำหรับระบบ AI ชั้นที่ 2 - ความปลอดภัยไซเบอร์เฉพาะ AI: การประเมินภัยคุกคาม AI ตลอดวงจรชีวิต ชั้นที่ 3 - ความปลอดภัยไซเบอร์เฉพาะภาคส่วน: แนวทางที่ปรับแต่งสำหรับพลังงาน ยานยนต์ โทรคมนาคม และสุขภาพ

Last modified: Tuesday, 2 September 2025, 8:05 PM