NCSA Webboard
    • ล่าสุด
    • แท็ก
    • ฮิต
      • ติดต่อสำนักงาน
    • ลงทะเบียน
    • เข้าสู่ระบบ

    CISA Joins ACSC-led Guidance on How to Use AI Systems Securely

    Cyber Security News
    2
    1
    38
    โหลดโพสเพิ่มเติม
    • เก่าสุดไปยังใหม่สุด
    • ใหม่สุดไปยังเก่าสุด
    • Most Votes
    ตอบ
    • ตอบโดยตั้งกระทู้ใหม่
    เข้าสู่ระบบเพื่อตอบกลับ
    Topic นี้ถูกลบไปแล้ว เฉพาะผู้ใช้งานที่มีสิทธิ์ในการจัดการ Topic เท่านั้นที่จะมีสิทธิ์ในการเข้าชม
    • NCSA_THAICERTN
      NCSA_THAICERT
      แก้ไขล่าสุดโดย NCSA_THAICERT

      เมื่อวันที่ 23 มกราคม 2567 Cybersecurity and Infrastructure Security Agency (CISA) เปิดแคมเปญ Secure by Design CISA ได้ร่วมมือกับ Australian Cyber ​​Security Center (ACSC ของ ASD) ของ Australian Signals Directorate ในการมีส่วนร่วมกับปัญญาประดิษฐ์ซึ่งเป็นแนวทางร่วมที่นำโดย ACSC เกี่ยวกับวิธีการใช้ระบบ AI อย่างปลอดภัย องค์กรต่อไปนี้ยังร่วมมือกับ ACSC

      • สำนักงานสืบสวนกลางแห่งสหรัฐอเมริกา (FBI)
      • สำนักงานความมั่นคงแห่งชาติ (NSA)
      • สหราชอาณาจักร (UK) ศูนย์รักษาความปลอดภัยทางไซเบอร์แห่งชาติ (NCSC-UK)
      • ศูนย์ความปลอดภัยทางไซเบอร์ของแคนาดา (CCCS)
      • ศูนย์รักษาความปลอดภัยทางไซเบอร์แห่งชาตินิวซีแลนด์ (NCSC-NZ) และ CERT NZ
      • สำนักงานความมั่นคงทางข้อมูลของรัฐบาลกลางเยอรมนี (BSI)
      • คณะกรรมการไซเบอร์แห่งชาติอิสราเอล (INCD)
      • ศูนย์เตรียมความพร้อมเหตุการณ์และยุทธศาสตร์ความมั่นคงทางไซเบอร์แห่งชาติของญี่ปุ่น (NISC) และสำนักเลขาธิการนโยบายวิทยาศาสตร์ เทคโนโลยีและนวัตกรรม สำนักงานคณะรัฐมนตรี
      • ศูนย์รักษาความปลอดภัยทางไซเบอร์แห่งชาตินอร์เวย์ (NCSC-NO)
      • สำนักงานความมั่นคงทางไซเบอร์ของสิงคโปร์ (CSA)
      • ศูนย์ความปลอดภัยทางไซเบอร์แห่งชาติสวีเดน

      คำแนะนำนี้จะช่วยให้ผู้ใช้ระบบ AI เห็นภาพรวมของภัยคุกคามที่เกี่ยวข้องกับ AI รวมถึงขั้นตอนที่สามารถช่วยพวกเขาจัดการความเสี่ยงที่เกี่ยวข้องกับ AI ในขณะที่มีส่วนร่วมกับระบบ AI คำแนะนำครอบคลุมภัยคุกคามที่เกี่ยวข้องกับ AI ต่อไปนี้

      1.การเป็นพิษของข้อมูล
      2.การจัดการอินพุต
      3.ภาพหลอน AI กำเนิด
      4.ภัยคุกคามความเป็นส่วนตัวและทรัพย์สินทางปัญญา
      5.การขโมยโมเดลและการฝึกการกรองข้อมูล
      6.การระบุข้อมูลที่ไม่เปิดเผยตัวตนอีกครั้ง

      ทั้งนี้ คำแนะนำนี้มีไว้สำหรับผู้ใช้ระบบ AI เป็นหลัก CISA สนับสนุนให้นักพัฒนาระบบ AI ทบทวนแนวทางการพัฒนาระบบ AI ที่ปลอดภัย หากต้องการเรียนรู้เพิ่มเติมว่า CISA และพันธมิตรจัดการกับทั้งโอกาสและความเสี่ยงด้านความปลอดภัยทางไซเบอร์ที่เกี่ยวข้องกับเทคโนโลยี AI อย่างไร โปรดไปที่CISA.gov/AI อ่านคำแนะนำฉบับเต็มได้ที่ https://www.cisa.gov/news-events/alerts/2024/01/23/cisa-joins-acsc-led-guidance-how-use-ai-systems-securely

      อ้างอิง
      https://www.cisa.gov/news-events/alerts/2024/01/23/cisa-joins-acsc-led-guidance-how-use-ai-systems-securely

      สามารถติดตามข่าวสารได้ที่ webboard หรือ Facebook NCSA Thailand d8a1e3bc-ce60-4acc-99c4-4eadabd9fcfa-image.png

      1 การตอบกลับ คำตอบล่าสุด ตอบ คำอ้างอิง 0
      • First post
        Last post