Kaspersky gelecek yıl için yapay zeka ve siber güvenlik öngörülerini paylaştı
Kaspersky uzmanları, gelecek yıl için yapay zekanın gelişimi ve siber güvenlik ekosisteminin dönüşümünü ele aldı.
Kaspersky uzmanları, gelecek yıl için yapay zekanın gelişimi ve siber güvenlik ekosisteminin dönüşümünü ele aldı. Şirketten yapılan açıklamaya göre, büyük dil modelleri (LLM'ler) savunma kabiliyetlerini güçlendirirken, aynı zamanda tehdit aktörleri için yeni fırsat alanları da oluşturuyor. "Deepfake" teknolojileri siber saldırılarda ana akım haline gelirken, bu alandaki farkındalık da artmaya devam ediyor. Şirketler, sentetik içeriklerin yarattığı riskleri daha sık gündeme alıyor ve çalışanlarını bu tür saldırılara karşı bilinçlendirmeye yönelik eğitimlere yatırım yapıyor. Deepfakelerin hacmi arttıkça, ortaya çıktıkları formatlar da çeşitleniyor. Bu tehditle ilgili farkındalık yalnızca kurumlarla sınırlı kalmazken, bireysel kullanıcılar da sahte içeriklerle daha sık karşılaşıyor ve bu tehditlerin doğasını daha iyi kavrıyor. Bu gelişmelerle deepfakeler, güvenlik gündeminin kalıcı bir unsuru haline geliyor ve sistematik eğitim programlarıyla kurumsal politikalar gerektiriyor. - Deepfakelerin kalitesi artacak Deepfakelerin kalitesi, özellikle ses teknolojilerindeki ilerlemeler ve kullanım bariyerlerinin düşmesiyle daha da artması öngörülüyor. Görsel kalite halihazırda yüksek bir seviyedeyken, gerçekçi ses üretimi gelecek dönemin ana gelişim alanı olarak öne çıkıyor. Öte yandan içerik üretim araçlarının giderek daha kullanıcı dostu hale gelmesi, teknik bilgiye sahip olmayan kişilerin bile birkaç tıklamayla orta düzeyde deepfake içerikler oluşturabilmesini mümkün kılıyor. Bu durum, ortalama kaliteyi yükseltirken üretimi çok daha geniş bir kitle için erişilebilir hale getiriyor ve bu yeteneklerin siber suçlular tarafından kullanılmaya devam etmesi kaçınılmaz görünüyor. Çevrim içi deepfake teknolojilerin gelişimini sürdürmesi ancak çoğunlukla ileri seviye kullanıcıların aracı olmaya da devam edeceği tahmin ediliyor. Gerçek zamanlı yüz ve ses değiştirme teknolojileri ilerleme kaydetse de bu sistemlerin kurulumu hala ileri teknik beceriler gerektiriyor. Yaygın kullanım kısa vadede olası görünmese de hedefli saldırı senaryolarında risklerin artması önemli bir unsur olarak öne çıkıyor. Artan gerçekçilik ve sanal kameralar üzerinden video manipülasyonu yapılabilmesi, bu tür saldırıları daha inandırıcı hale getiriyor. - Yapay zekanın siber saldırılarda kullanılmasına karşı çalışmalar devam edecek Siber güvenlikte yapay zekayla üretilen içeriklerin etiketlenmesine yönelik güvenilir bir sistem oluşturma çabaları sürecek. Sentetik içeriklerin tespitine yönelik ortak ve bağlayıcı kriterler henüz olmasa da mevcut etiketleme yöntemleri özellikle açık kaynak modeller kullanıldığında kolaylıkla aşılabiliyor veya kaldırılabiliyor. Bu nedenle soruna çözüm getirmeyi amaçlayan yeni teknik ve düzenleyici girişimlerin gündeme gelmesi bekleniyor. Açık kaynaklı (open-weight) modeller, siber güvenlikle ilgili birçok görevde kapalı modellere hızla yaklaşarak kötüye kullanım potansiyelini artırıyor. Kapalı modeller, daha sıkı kontrol mekanizmaları ve güvenlik önlemleri sunarak suistimali sınırlıyor. Buna karşın açık kaynaklı sistemler, hızla gelişiyor ve benzer kısıtlamalar olmaksızın dolaşıma giriyor. Bu durum, tescilli modelleriyle açık kaynak modeller arasındaki farkı bulanıklaştırıyor. Her iki yaklaşım da istenmeyen ya da kötü niyetli amaçlar için etkili biçimde kullanılabiliyor. Meşru ve dolandırıcılık amaçlı yapay zeka üretimi içerikler arasındaki sınır giderek daha belirsiz hale gelecek. Yapay zeka bugün dahi ikna edici dolandırıcılık e-postaları, gerçekçi görsel kimlikler ve yüksek kaliteli oltalama (phishing) sayfaları üretebiliyor. Aynı zamanda büyük markalar, reklam ve pazarlama faaliyetlerinde sentetik içerikleri giderek daha fazla kullanıyor ve bu durum, yapay zeka üretimi görsellerin "normal" ve "tanıdık" algılanmasına yol açıyor. Sonuç olarak, gerçekle sahteyi ayırt etmenin hem kullanıcılar hem de otomatik tespit sistemleri için daha da zorlaşması bekleniyor. Yapay zeka, siber saldırılarda zincirler arası bir araç haline gelecek ve saldırı yaşam döngüsünün (kill chain) büyük bölümünde kullanılacak. Tehdit aktörleri halihazırda LLM'leri kod yazımı, altyapı kurulumu ve operasyonel süreçlerin otomasyonu için kullanıyor. Saldırganlar ayrıca yapay zeka kullanımına dair izleri gizlemeye çalışacak ve bu da bu tür operasyonların analiz edilmesini daha zor hale getirecek. Açıklamada görüşlerine yer verilen Kaspersky Araştırma ve Geliştirme Grubu Yöneticisi Vladislav Tushkanov, yapay zeka araçlarının siber saldırılarda kullandığını belirtti. Yapay zekanın aynı zamanda siber güvenlik analizlerinin de daha yaygın bir parçası haline geldiğini ve SOC ekiplerinin çalışma biçimini dönüştürdüğünün altını çizen Tushkanov, şunları kaydetti: "Ajan tabanlı sistemler, altyapıları sürekli olarak tarayarak zafiyetleri tespit edebilecek ve soruşturmalar için bağlamsal bilgiler toplayabilecek. Böylece manuel ve tekrarlayan iş yükü önemli ölçüde azalacak. Bunun sonucunda uzmanlar, veri aramak yerine önceden hazırlanmış bağlam üzerinden karar almaya odaklanacak. Paralel olarak güvenlik araçları, karmaşık teknik sorgular yerine doğal dilde komutlarla çalışılan ara yüzlere evrilecek."