Saldırı Tespit Sistemlerinde Açıklanabilir Yapay Zekâ Üzerine Bir İnceleme


Al S., Sağıroğlu Ş.

International Conference on Information Security Science 2024, Ankara, Türkiye, 16 - 17 Ekim 2024, ss.1-6

  • Yayın Türü: Bildiri / Tam Metin Bildiri
  • Doi Numarası: 10.1109/isctrkiye64784.2024.10779325
  • Basıldığı Şehir: Ankara
  • Basıldığı Ülke: Türkiye
  • Sayfa Sayıları: ss.1-6
  • Gazi Üniversitesi Adresli: Evet

Özet

Saldırı Tespit Sistemleri (STS), yetkisiz erişimleri ve zararlı aktiviteleri tespit ederek bilgi sistemlerinin korunmasında önemli bir rol oynamaktadır. Her geçen gün karmaşıklaşan siber tehditlere karşı, geleneksel saldırı tespit sistemleri gelişmiş Yapay Zekâ (YZ) tekniklerini kullanacak şekilde evrimleşmiştir. Ancak, "kara kutular" olarak adlandırılan özellikle derin öğrenme temelli birçok YZ modelinin opak yapısı, zeki sistemlerin karar alma süreçlerini anlama ve bunlara güvenme konusunda önemli zorluklar ortaya koymaktadır. Açıklanabilir Yapay Zekâ (AYZ), karmaşık ve opak modellere şeffaflık ve açıklanabilirlik sağlayarak bu soruna bir çözüm olarak ortaya çıkmaktadır. Bu çalışmada; AYZ genel olarak incelenmiş, STS’lerde AYZ ve uygulamaları ele alınmış, alandaki fırsatlar, zorluklar ve daha fazla araştırma gereksinim duyulan alanlar incelenmiş ve AYZ'nin STS'ye entegrasyonu ele alınarak açıklanabilir modellerin saldırı tespitinin etkinliğini, güvenilirliğini ve hesap verebilirliğini nasıl artırabileceği ortaya konulmuştur. Ayrıca, AYZ'nin STS'ye dâhil edilmesinin daha iyi karar almayı ve düzenleyici standartlara uyumu da kolaylaştırdığı gösterilmiştir. 

Intrusion Detection Systems (IDS) play an important role in protecting information systems by detecting unauthorized access and malicious activities. In response to increasingly complex cyber threats, traditional intrusion detection systems have evolved to include advanced Artificial Intelligence (AI) techniques. However, the opaque structure of many AI models, especially deep learning-based ones, called "black boxes", poses significant challenges in understanding and trusting the decision-making processes of intelligent systems. Explainable Artificial Intelligence (XAI) emerges as a solution to this problem by providing transparency and explainability to complex and opaque models. In this study; XAI is examined in general, XAI and its applications in IDSs are discussed, opportunities, challenges and areas where further research is needed in the field are examined and the integration of XAI into IDS is discussed and how explainable models can increase the efficiency, reliability and accountability of intrusion detection is demonstrated. It is also shown that incorporating XAI into IDS facilitates better decision making and compliance with regulatory standards.