Siber saldırganlar, yapay zeka sistemlerini aldatmak için “aldatıcı veri” (adversarial data) adı verilen özel olarak hazırlanmış veriler kullanabilir. Bu veriler, yapay zeka modelinin yanlış kararlar vermesine neden olur.
Aldatıcı Veri Nedir?
Aldatıcı veri, insan gözüyle bakıldığında normal gibi görünen ancak yapay zeka modelinin hatalı sonuç üretmesine neden olan bir veri türüdür. Saldırganlar, bu verileri aşağıdaki gibi çeşitli amaçlar için kullanabilir:
- Hatalı Sınıflandırma: Saldırganlar, aldatıcı verileri kullanarak yapay zeka modelinin bir görüntüyü, sesi veya metni yanlış sınıflandırmasına neden olabilir. Örneğin, bir otonom aracı aldatıcı bir trafik işareti ile kandırılabilir.
- Algılama Hatası: Saldırganlar, aldatıcı verileri kullanarak yapay zeka modelinin bir güvenlik tehdidini algılamasını engelleyebilir. Örnek olarak, bir siber saldırı girişimi aldatıcı veriler ile gizlenebilir.
- Enerji Tüketimi Arttırma: Bazı durumlarda, aldatıcı veriler yapay zeka modelinin daha fazla enerji tüketmesine neden olacak şekilde hazırlanabilir. Bu durum, özellikle pil ile çalışan cihazlar için önemli bir tehdit oluşturabilir.
Aldatıcı Veri Nasıl Oluşturulur?
Saldırganlar, yapay zeka modelinin yapısına ve işleyiş şekline erişimlerine göre farklı yöntemlerle aldatıcı veriler oluşturabilir:
- Beyaz Kutu Optimizasyonu: Saldırgan, modelin tüm detaylarına erişiyorsa, modelin karar verme sürecini manipüle etmek için karmaşık matematiksel yöntemler kullanabilir.
- Kara Kutu Optimizasyonu: Saldırgan, modelin iç yapısına erişemiyorsa, deneme yanılma yöntemiyle aldatıcı verileri optimize edebilir. Bu yöntem daha yavaş ve zorlu olsa da yine de etkili olabilir.
- Kara Kutu Transfer: Saldırgan, benzer bir yapay zeka modeli üzerinde geliştirilen aldatıcı verileri hedef modele uyarlayabilir. Bu yöntem, saldırganın zaman kazandırabilir.
- Manuel Değişiklik: Bazı durumlarda, saldırganlar insan gözüyle fark edilemeyecek şekilde veriyi manuel olarak değiştirerek aldatıcı veri oluşturabilir.
Saldırganlar Aldatıcı Verileri Nasıl Doğrular?
Saldırganlar, geliştirdikleri aldatıcı verilerin işe yarayıp yaramadığını doğrulamak için farklı yöntemler kullanabilir:
- Doğrudan Erişim (Beyaz Kutu): Saldırgan, yapay zeka modelinin iç yapısına veya modelin kararlarını veren API’ye erişim yetkisine sahipse, aldatıcı verilerin model üzerindeki etkisini doğrudan gözlemleyebilir.
- Çıktı API’si Kullanımı: Bazı durumlarda, saldırganlar modelin kararlarını veren API’yi kullanarak aldatıcı verilerin etkisini test edebilir.
Saldırganların Nihai Hedefi Nedir?
Saldırganlar, aldatıcı verileri kullanarak yapay zeka modellerinin aşağıdakileri yapmasını engelleyebilir:
- Makine Öğrenmesi Modelinden Kaçınma (Evade ML Model): Saldırganlar, aldatıcı verileri kullanarak yapay zeka modelinin kendilerini tespit etmesini engelleyebilir. Bu durum, siber saldırılar veya kötü amaçlı yazılımlar için geçerli olabilir.
- Makine Öğrenmesi Modeli Bütünlüğünü Bozma (Erode ML Model Integrity): Saldırganlar, aldatıcı verileri kullanarak yapay zeka modelinin karar verme yeteneğini zayıflatabilir ve modelin güvenilirliğini azaltabilir.