Siber saldırganlar, yapay zeka (YZ) sistemlerini hedef alırken giderek daha fazla veri zehirleme (poisoning) saldırılarına başvurmaktadır. Bu saldırılarda, saldırganlar yapay zeka modelinin eğitiminde kullanılan veri setlerini manipüle ederek modelin öğrenme sürecini bozar.
Saldırganların Taktiği:
- Zehirli Veri Setleri: Saldırganlar, yapay zeka modelini yanlış kararlar vermeye zorlamak için özel olarak tasarlanmış “zehirli” veriler içeren yeni veri setleri oluşturabilir. Bu veriler, gerçek veriler gibi görünse de aslında gizli bir şekilde modelin öğrenmesini yönlendirir.
- Halkın Erişimine Açık Platformlar: Saldırganlar, oluşturdukları zehirli verileri halka açık veri platformlarına yükleyebilir. Bu platformlar, yapay zeka araştırmacıları ve geliştiriciler tarafından sıklıkla kullanılır.
- Tedarik Zinciri Saldırısı: Saldırganlar, kurbanın yapay zeka sisteminin tedarik zincirine sızabilir. Bu sayede, zehirli verileri doğrudan kurbanın sistemine enjekte edebilir veya kurbanın genellikle veri indirdiği konumları zehirli verilerle doldurabilir.
Örnek Saldırı Senaryosu:
- Saldırgan, otonom araçların yapay zeka sistemlerini hedef almak istiyor.
- Saldırgan, bu amaçla trafik işaretlerini yanlış tanıtan “zehirli” görüntüler içeren bir veri seti oluşturuyor.
- Saldırgan, bu zehirli veri setini halka açık bir veri platformuna yüklüyor.
- Saldırganın hedefindeki kuruluş, otonom araçlarının geliştirilmesi için bu veri setini kullanıyor.
- Kuruluşun yapay zeka sistemi, zehirli verilerden öğrenerek hatalı kararlar vermeye başlıyor. Bu durum, potansiyel olarak kazalara yol açabilir.
Korunma Yolları:
- Veri setlerinin güvenilir kaynaklardan temin edilmesi kritik önem taşımaktadır.
- Veri setlerinin bütünlüğü ve doğruluğu, yapay zeka sistemlerinin geliştirilmesi sürecinde sıkı bir şekilde kontrol edilmelidir.
- Veri bilimcilerin, veri zehirleme saldırılarının tekniklerini öğrenmesi ve bu saldırıları tespit etmek için yöntemler geliştirmesi faydalı olacaktır.