CISA Joins ACSC-led Guidance on How to Use AI Systems Securely
-
เมื่อวันที่ 23 มกราคม 2567 Cybersecurity and Infrastructure Security Agency (CISA) เปิดแคมเปญ Secure by Design CISA ได้ร่วมมือกับ Australian Cyber Security Center (ACSC ของ ASD) ของ Australian Signals Directorate ในการมีส่วนร่วมกับปัญญาประดิษฐ์ซึ่งเป็นแนวทางร่วมที่นำโดย ACSC เกี่ยวกับวิธีการใช้ระบบ AI อย่างปลอดภัย องค์กรต่อไปนี้ยังร่วมมือกับ ACSC
- สำนักงานสืบสวนกลางแห่งสหรัฐอเมริกา (FBI)
- สำนักงานความมั่นคงแห่งชาติ (NSA)
- สหราชอาณาจักร (UK) ศูนย์รักษาความปลอดภัยทางไซเบอร์แห่งชาติ (NCSC-UK)
- ศูนย์ความปลอดภัยทางไซเบอร์ของแคนาดา (CCCS)
- ศูนย์รักษาความปลอดภัยทางไซเบอร์แห่งชาตินิวซีแลนด์ (NCSC-NZ) และ CERT NZ
- สำนักงานความมั่นคงทางข้อมูลของรัฐบาลกลางเยอรมนี (BSI)
- คณะกรรมการไซเบอร์แห่งชาติอิสราเอล (INCD)
- ศูนย์เตรียมความพร้อมเหตุการณ์และยุทธศาสตร์ความมั่นคงทางไซเบอร์แห่งชาติของญี่ปุ่น (NISC) และสำนักเลขาธิการนโยบายวิทยาศาสตร์ เทคโนโลยีและนวัตกรรม สำนักงานคณะรัฐมนตรี
- ศูนย์รักษาความปลอดภัยทางไซเบอร์แห่งชาตินอร์เวย์ (NCSC-NO)
- สำนักงานความมั่นคงทางไซเบอร์ของสิงคโปร์ (CSA)
- ศูนย์ความปลอดภัยทางไซเบอร์แห่งชาติสวีเดน
คำแนะนำนี้จะช่วยให้ผู้ใช้ระบบ AI เห็นภาพรวมของภัยคุกคามที่เกี่ยวข้องกับ AI รวมถึงขั้นตอนที่สามารถช่วยพวกเขาจัดการความเสี่ยงที่เกี่ยวข้องกับ AI ในขณะที่มีส่วนร่วมกับระบบ AI คำแนะนำครอบคลุมภัยคุกคามที่เกี่ยวข้องกับ AI ต่อไปนี้
1.การเป็นพิษของข้อมูล
2.การจัดการอินพุต
3.ภาพหลอน AI กำเนิด
4.ภัยคุกคามความเป็นส่วนตัวและทรัพย์สินทางปัญญา
5.การขโมยโมเดลและการฝึกการกรองข้อมูล
6.การระบุข้อมูลที่ไม่เปิดเผยตัวตนอีกครั้งทั้งนี้ คำแนะนำนี้มีไว้สำหรับผู้ใช้ระบบ AI เป็นหลัก CISA สนับสนุนให้นักพัฒนาระบบ AI ทบทวนแนวทางการพัฒนาระบบ AI ที่ปลอดภัย หากต้องการเรียนรู้เพิ่มเติมว่า CISA และพันธมิตรจัดการกับทั้งโอกาสและความเสี่ยงด้านความปลอดภัยทางไซเบอร์ที่เกี่ยวข้องกับเทคโนโลยี AI อย่างไร โปรดไปที่CISA.gov/AI อ่านคำแนะนำฉบับเต็มได้ที่ https://www.cisa.gov/news-events/alerts/2024/01/23/cisa-joins-acsc-led-guidance-how-use-ai-systems-securely
สามารถติดตามข่าวสารได้ที่ webboard หรือ Facebook NCSA Thailand