Kaspersky’nin yeni araştırması, dark web’de gerçekleştirilen yapay zeka destekli siber suç deneyimlerini gün yüzüne çıkardı

Kaspersky Digital Footprint Intelligence (Dijital Ayak İzi İstihbaratı) Servisi, yaklaşık 3 bin dark web gönderisinde, ChatGPT ve öbür büyük lisan modellerinin yasa dışı faaliyetlerde nasıl kullanıldığını inceledi. Tehdit aktörleri, sohbet botunun jailbreak tekniğinden, berbat niyetli alternatifler oluşturmakla sonlu kalmayarak yapay zekayı gayelerine uygun biçimde kullanma yollarını araştırıyor. Dark web kanallarını dolduran 3 bin ileti ortasında, çalıntı ChatGPT hesapları ve bunların otomatik olarak toplu halde oluşturulmasını sağlayan hizmetlere dair bilgiler de bulunuyor.

Kaspersky Digital Footprint Intelligence hizmeti, 2023 yılında dark web'de ChatGPT'nin yasa dışı maksatlarla kullanımını tartışan yahut yapay zeka teknolojilerine dayanan araçlar hakkında konuşan yaklaşık 3 bin gönderi keşfetti. Konuşmalar Mart ayında tepe yapmış olsa da bu bahisteki tartışmalar hala devam ediyor.

ChatGPT yahut başka yapay zeka araçlarının kullanımına ait dark web tartışmalarının dinamikleri. Kaynak: Kaspersky Digital Footrpint Intelligence 

Kaspersky Dijital Ayak İzi Analisti Alisa Kulishenko"Tehdit aktörleri ChatGPT ve yapay zekayı planlarında uygulamak için çeşitli usulleri etkin olarak araştırıyor. Bu hususlar ortasında sıklıkla makus maksatlı yazılımların geliştirilmesi ve çalınan kullanıcı datalarının işlenmesi, virüslü aygıtlardan evrakların ayrıştırılması üzere lisan modellerinin öbür yasadışı kullanım çeşitleri de yer alıyor. Yapay zeka araçlarının popülerliği, ChatGPT'den yahut muadillerinden gelen otomatik karşılıkların birtakım siber kabahat forumlarına entegre edilmesine yol açtı. Buna ek olarak, tehdit aktörleri çeşitli dark web kanalları aracılığıyla jailbreak tekniklerini (ek fonksiyonların kilidini açabilen özel istem setlerini) paylaşma eğiliminde ve pentesting için olanlar üzere legal araçları makus niyetli emeller için yeni modellere dayalı olarak kullanmanın yollarını arıyorlar"  dedi. 

Siber hatalılar bahsedilen chatbot ve yapay zeka araçlarının yanı sıra XXXGPT, FraudGPT ve öbür projelere de büyük ilgi gösteriyor. Bu lisan modelleri dark web'de ChatGPT'ye alternatif olarak pazarlanıyor ve ek fonksiyonelliğe ve orijinalindeki sınırlamaların olmamasıyla övünülüyor.

Çalıntı ChatGPT hesapları satışta

Kullanıcılar ve şirketler için bir öteki tehdidi de ChatGPT'nin fiyatlı sürümüne yönelik hesap piyasası oluşturuyor. Bahsedilen 3 bin gönderiye ek olarak, 2023 yılında dark web ve gölge Telegram kanallarında satılık ChatGPT hesaplarının reklamını yapan 3 bin gönderi daha tespit edildi. Bu gönderiler ya çalıntı hesapları dağıtıyor ya da talep üzerine toplu olarak hesap oluşturan otomatik kayıt hizmetlerini tanıtıyor. Birtakım gönderilerin birden fazla dark web kanalında tekrar tekrar yayınlanması bilhassa dikkat alımlı.

Çalıntı ChatGPT hesapları yahut otomatik kayıt hizmetleri sunan dark web yayınlarının dinamikleri. Kaynak: Kaspersky Digital Footrpint Intelligence

Alisa Kulishenko, bahse ait şunları söyledi: "Yapay zeka araçlarının kendileri tabiatı gereği tehlikeli olmasa da, siber hatalılar büyük lisan modellerini kullanmanın tesirli yollarını bulmaya çalışıyor. Bu durum siber suça giriş pürüzlerini kaldırırken, kimi durumlarda potansiyel olarak siber akınların sayısını artırma eğilimini körüklüyor. Bununla birlikte üretken yapay zeka ve sohbet robotlarının taarruz ortamında ihtilal yaratması pek muhtemel değil. En azından 2024'te bunun olmayacağını düşünüyoruz. Siber taarruzların otomasyona dayalı tabiatı, çoklukla otomasyona dayalı savunmalarla müsabakaları manasına geliyor. Bununla birlikte saldırganların faaliyetleri hakkında bilgi sahibi olmak, kurumsal siber güvenlik açısından saldırganlardan bir adım önde olmak ismine çok değerli."

Araştırmanın ayrıntıları Kaspersky Digital Footprint Intelligence web sitesinde yer alıyor. Ayrıyeten internetin karanlık köşelerindeki siber hata faaliyetleriyle ilgili tehditlerden kaçınmak için Kaspersky aşağıdaki güvenlik tedbirlerini öneriyor:


Kaynak: (BYZHA) Beyaz Haber Ajansı

Benzer Videolar