Siber saldırganlar, kuruluşların yapay zeka (YZ) sistemlerindeki gedikleri bulmak için giderek daha fazla açık kaynakları kullanmaktadır. Bu açık kaynaklar, saldırganlara yapay zeka modellerinin nasıl çalıştığına dair değerli bilgiler sağlayabilir ve saldırı girişimlerini kolaylaştırabilir.
Saldırganların Hedeflediği Bilgiler:
- Makine Öğrenmesi Parçacıkları (Machine Learning Artifacts): Saldırganlar, bulut depolama alanları, herkese açık servisler ve yazılım/veri arşivleri gibi çeşitli platformlarda makine öğrenmesi parçacıklarını arar. Bu parçacıklar, model eğitiminde ve kullanımda kullanılan yazılım bileşenleri, eğitim ve test verileri, model yapılandırmaları ve parametreleri gibi birçok bilgiyi içerebilir.
- Kuruluşlara Özel Bilgiler: Saldırganlar özellikle kurban kuruluşun kendisine ait veya ilişkili olan parçacıklarla ilgilenir. Bu parçacıklar, gerçek çalışma ortamlarında kullanılan yapay zeka sistemlerine dair ipuçları verebilir. Saldırganlar, kurbanın web sitelerini veya halka açık araştırma çalışmalarını inceleyerek bu tür kaynakları tespit edebilir.
Saldırganların Yararı:
- Model Taklidi (Proxy Model Oluşturma): Saldırganlar, ele geçirdikleri makine öğrenmesi parçacıklarını kullanarak gerçek yapay zeka sisteminin işlevlerini taklit eden “sahte modeller” (proxy model) oluşturabilir. Bu sahte modeller, saldırı yöntemlerini geliştirmek ve gerçek sisteme saldırmadan önce zaafiyetleri test etmek için kullanılabilir.
- Sahte Veri Saldırısı (Craft Adversarial Data): Eğer elde edilen parçacıklar gerçek modelin parçalarını içeriyorsa, saldırganlar doğrudan “sahte veri saldırısı” (adversarial data) düzenlemek için kullanabilir. Bu sahte veriler, yapay zeka sistemini yanlış kararlar vermeye zorlayabilir.
- Erişim Bilgileri: Bazı durumlarda, makine öğrenmesi parçacıklarına erişmek için kayıt olma (kullanıcı adı/e-posta gibi bilgiler verme), AWS anahtarları sağlama veya yazılı taleplerde bulunma gerekebilir. Bu durum, saldırganların hesap açması (Establish Accounts) sürecini zorunlu kılabilir.
Kuruluşlar için Önemli Not:
- Saldırganlar tarafından erişilen makine öğrenmesi parçacıklarının konumu, kurban kuruluşa kimlerin bu verilere eriştiği hakkında bilgi verebilir. Bu da, iç tehditlere karşı da dikkatli olunması gerektiğini vurgular.
Korunma Yolları:
- Kuruluşlar, makine öğrenmesi modellerinin geliştirilmesi ve kullanımı sırasında güvenlik önlemlerini uygulamalıdır.
- Hassas veriler ve model bileşenleri, gereksiz yere kamuoyuyla paylaşılmamalıdır.
- Erişebilirlik yetkileri sıkı bir şekilde kontrol edilmelidir.