AI GüvenliğiChatGPTCheck PointPrompt Injection

Check Point: ChatGPT'de Backdoor'lu GPT Tek Kötü Amaçlı Prompt ile Kullanıcı Verilerini Sızdırabilir

📅 28 Mart 2026 (20 Şub'da yamalandı)  ·  📰 Check Point Research / The Hacker News  ·  TLP:WHITE

AI
RİSK
Check Point araştırmacıları, backdoor'lu bir GPT'nin tek kötü amaçlı prompt ile kullanıcı mesajlarını, yüklenen dosyaları ve konuşma geçmişini kullanıcı fark etmeden sızdırabildiğini keşfetti. Zafiyet bir "side channel" üzerinden normal veri paylaşım korumaları ve doğrudan outbound ağ taleplerine yönelik önlemleri tamamen bypass ediyor.

Saldırı senaryosu: Kötü amaçlı bir GPT içeren yetki paylaşıldığında veya kullanıcı zararlı bir GPT ile etkileşime girdiğinde, tek bir prompt ile koşullanmış model oturum boyunca tüm yazışmaları ve dosya içeriklerini saldırgan kontrolündeki bir kanala iletebiliyor.

OpenAI zafiyeti 20 Şubat 2026'da yamayı yayımladı. Araştırmacılara göre kötüye kullanım kanıtı mevcut değil. Ancak kurumsal ChatGPT kullanımında — özellikle finans, hukuk ve strateji belgelerinin işlendiği ortamlarda — paylaşılan GPT'lerin veri dışarı sızdırma riski gerçektir.
▸ ÖNERİLEN AKSİYONLAR
Kurumsal ChatGPT ortamlarında yalnızca doğrulanmış iç GPT'lere izin verin — dış kaynaklı GPT'leri engelleyin
Hassas belgeleri ChatGPT'ye yükleme politikasını gözden geçirin ve kısıtlayın
ChatGPT Enterprise kullanıyorsanız veri sınıflandırma seviyelerini uygulayın
Kurumsal AI kullanım kılavuzunu güncelleyin: hangi veri tiplerinin AI'ya aktarılabileceği
Periyodik olarak paylaşılan GPT'leri ve üçüncü taraf entegrasyonlarını denetleyin