Yapay zeka teknolojilerinin gelişmesiyle birlikte, siber saldırganlar da yeni yöntemler geliştiriyor. Savunma kaçınması (defense evasion) tekniklerinden biri de büyük dil modelleri (LLM) üzerinde gerçekleştirilen “gizli komut enjeksiyonu” (prompt injection) saldırısıdır. Bu saldırıda, saldırgan LLM’ye verdiği girdilere (prompt) zararlı komutlar yerleştirir. Bu komutlar, LLM’yi asıl amacının dışına çıkararak saldırganın istediği görevi yerine getirmesine neden olur.
LLM’lerde Gizli Komut Enjeksiyonu ile Kaçınma:
- Savunma Mekanizmalarını Atlatmak: Saldırganlar, LLM’nin güvenlik önlemlerini devre dışı bırakmak için gizli komutlar kullanabilir. Bu sayede, normalde yetkili olmadıkları eylemleri gerçekleştirebilirler. Örneğin, bir saldırgan LLM’yi ağa saldırı emrini vermeye zorlayarak bir güvenlik duvarını atlatabilir.
- Sahte Talimatlarla Kaçınma: Saldırgan, LLM’nin aldığı talimatları çarpıtarak asıl amacını gizleyebilir. Bu sayede, sistem yöneticileri saldırganın gerçek niyetini fark etmeyebilir. Örnkek olarak, bir saldırgan LLM’ye “sistemi güvenlik güncellemeleri için tara” komutu yerine, “sistemde güvenlik açığı bul” komutunu gizli bir şekilde enjekte edebilir.
Gizli Komut Enjeksiyonunun Sonuçları:
- İlk Erişim Sağlama: Saldırganlar, LLM’ye gizli komut enjekte ederek sisteme ilk erişim elde edebilir. Bu sayede, daha fazla zarara yol açmak için diğer saldırı tekniklerini kullanabilirler.
- Yetki Yükseltme: Gizli komutlar, LLM’yi yetkisiz bir kullanıcı gibi davranmaya zorlayarak yetki seviyesini yükseltebilir. Bu, saldırgana sisteme daha fazla kontrol yetkisi sağlar.
- Zararlı İçerik Oluşturma: Saldırganlar, LLM’yi propaganda, nefret söylemi veya aldatıcı bilgiler üretmeye zorlayabilir.
Korunma Yolları:
- Girdi Doğrulama: LLM’ye verilen girdilerin doğruluğunu ve güvenliğini kontrol etmek önemlidir. Şüpheli komutlar tespit edildiğinde uyarılar oluşturulmalı veya komutlar engellenmelidir.
- Anomali Tespiti: LLM’nin davranışlarını izlemek ve olağan dışı aktiviteleri tespit etmek için anomali tespit sistemleri kullanılabilir. Bu sistemler, şüpheli komut kullanımını veya modelin beklenmeyen davranışlarını ortaya çıkarabilir.
- Model Güncellemeleri: LLM’leri ve ilgili yazılımları güncel tutmak, bilinen güvenlik açıklarını kapatarak saldırganların işini zorlaştırır.
- Erişim Kontrolü: LLM’ye erişimi sınırlandırmak ve yalnızca yetkili kullanıcıların sisteme girebilmesini sağlamak gerekir.