Savunma Kaçınması: Makine Öğrenmesi Modellerini Aldatmak

Yapay zeka teknolojilerinin yaygınlaşmasıyla birlikte, siber saldırganlar da yeni yöntemler geliştiriyor. Bu yöntemlerden biri de “savunma kaçınması” (defense evasion) olarak adlandırılır. Savunma kaçınması saldırısında, saldırgan makine öğrenmesi modellerini aldatarak tespit edilmekten kaçınmaya çalışır.

Aldatıcı Veri (Adversarial Data) ile Kaçınma:

  • Saldırganlar, yapay olarak oluşturdukları “aldatıcı veriler” (adversarial data) kullanarak makine öğrenmesi modellerini yanıltır. Bu veriler, insan gözüyle normal görünür ancak model tarafından yanlış sınıflandırılır.
  • Bu aldatıcı veriler, saldırganların kötü amaçlı yazılımları (virüs/malware) veya ağ saldırılarını tespit eden makine öğrenmesi modellerini atlatmasına yardımcı olur. Örneğin, bir saldırgan, bir görüntü dosyasına yapılan küçük bir değişiklikle onu bir güvenlik yazılımı tarafından zararlı olmayan bir dosya olarak algılanmasını sağlayabilir.

Nasıl Çalışır?

  • Model Eğitimi: Makine öğrenmesi modelleri, belirli bir görevi yerine getirmek için veri setleri kullanılarak eğitilir. Bu veri setleri, modelin öğrenmesi gereken özellikleri içerir.
  • Aldatıcı Veri Oluşturma: Saldırganlar, modelin öğrenmiş olduğu özellikleri bozan aldatıcı veriler oluşturur. Bu veriler, insan gözüyle normal görünse de model tarafından yanlış yorumlanabilir.
  • Kaçınma Sağlama: Saldırgan, aldatıcı veriyi sisteme bulaştırdığında, makine öğrenmesi modeli onu yanlışlıkla zararsız olarak sınıflandırabilir. Bu sayede, saldırgan model tarafından tespit edilmekten kaçınır ve kötü amaçlı faaliyetlerini sürdürebilir.

Savunma Kaçınmasına Örnekler:

  • Virüs Algılama Kaçınması: Saldırgan, bir virüsün kodunu değiştirir veya maskeleme teknikleri kullanarak onu bir antivirüs yazılımı tarafından zararlı olmayan bir program olarak algılanmasını sağlar.
  • Spam Tespiti Kaçınması: Saldırgan, bir spam e-postasının içeriğini değiştirir veya metin içerisinde anlamsız kelimeler ekleyerek spam filtrelerini atlatmaya çalışır.

Korunma Yolları:

  • Veri Doğrulama: Modelin eğitiminde kullanılan verilerin doğruluğunu ve güvenliğini kontrol etmek önemlidir.
  • Anomali Tespiti: Makine öğrenmesi modellerinin davranışlarını izlemek ve olağan dışı aktiviteleri tespit etmek için anomali tespit sistemleri kullanılabilir. Bu sistemler, aldatıcı verilerin varlığını veya şüpheli model davranışlarını ortaya çıkarabilir.
  • Model Çeşitliliği: Farklı algoritmalarla oluşturulmuş birden fazla makine öğrenmesi modeli kullanmak, savunma kaçınması girişimlerinin etkisini azaltabilir.
  • Model Güncellemeleri: Modelleri ve ilgili yazılımları güncel tutmak, bilinen güvenlik açıklarını kapatarak yeni aldatıcı veri tekniklerine karşı savunmayı güçlendirir.