“Kaspersky Digital Footprint Intelligence” komandası “Kölgələnmiş innovasiya: Təcavüzkarlar süni intellekti necə sınaqdan keçirir” hesabatını təqdim edib. Mütəxəssislər qaranlıq şəbəkədə (darknet) “ChatGPT” və böyük dil modellərinə əsaslanan digər oxşar həllərin təcavüzkarlar tərəfindən istifadəsi ilə bağlı mesajları təhlil ediblər. Ümumilikdə, 2023-cü ildə kölgə forumlarında və ixtisaslaşmış Telegram kanallarında 2890 belə paylaşım aşkar edilib. Pik hədd 509 mesajla apreldə qeydə alınıb. Çoxsaylı müzakirələri bir neçə istiqamətə bölmək olar.
“Jailbreaks”. Dil modeli qeyri-qanuni fəaliyyətlə bağlı cavabları verə bilsin deyə, təcavüzkarlar xüsusi əmrlər dəstindən istifadə edirlər. Onlar “ChatGPT” və oxşar xidmətlər üçün əlavə funksionallıq yarada bilərlər. Bu cür dəstlərə “jailbreaks” deyilir. 2023-cü ildə “Kaspersky”nin mütəxəssisləri bu cür əmrlərin yayılması və satışı ilə bağlı 249 təklif aşkar ediblər. Qeyd etmək lazımdır ki, “jailbreaks” həm də dil modellərinə əsaslanan xidmətlərin fəaliyyətini qanuni şəkildə təkmilləşdirmək üçün istifadə edilə bilər.
Zərərli proqramlar. Kölgə forumlarının iştirakçıları zərərli proqramların təkmilləşdirilməsi və ümumilikdə kiberhücumların effektivliyinin artırılması üçün dil modellərindən istifadə variantlarının fəal mübadiləsini aparıb. Məsələn, mütəxəssislər zərərli proqram operatorları üçün operatorun təhlükəsizliyini təmin etmək və avtomatik olaraq istifadə olunan kamuflyaj domenlərini dəyişdirmək üçün neyron şəbəkələrdən istifadə edən proqramı təsvir edən mesaj aşkar ediblər. Başqa bir müzakirədə yazıların müəllifləri “ChatGPT”ni aşkarlanması və təhlili olduqca çətin olan polimorfik zərərli kodu yaratmaq üçün təklif etdilər.
Open Source (Açıq mənbə) və pentest proqramları. Böyük dil modellərinə əsaslanan həllər, o cümlədən informasiya təhlükəsizliyi üzrə mütəxəssisləri üçün proqramlar açıq mənbə proqramları tərtibatçıları tərəfindən yaradılır. Bununla belə, təcavüzkarlar da bu cür layihələrə diqqət yetirirlər. Məsələn, internetdə kodu qəlizləşdirmək üçün nəzərdə tutulmuş generativ model əsaslı sərbəst şəkildə əldə edilə bilən açıq mənbə kodu utilitləri var. Qəlizləşdirmə monitorinq sistemləri və təhlükəsizlik həlləri tərəfindən aşkarlanmanın qarşısını almağa imkan verir. Bu cür utilitlər həm pentesterlər, həm də təcavüzkarlar tərəfindən istifadə edilə bilər. “Kaspersky” mütəxəssisləri qaranlıq şəbəkədə müəlliflərin bu utiliti paylaşdığı və ondan zərərli məqsədlər üçün necə istifadə oluna biləcəyini izah edən paylaşım tapıblar.
“ChatGPT”nin “bədxah” analoqları. Ağıllı çatbotların populyarlığı fonunda digər layihələr də böyük marağa səbəb olub: “WormGPT”, “XXXGPT”, “FraudGPT”. Bunlar “ChatGPT”yə alternativ olaraq əlavə funksionallıq və aradan qaldırılmış məhdudiyyətlərlə təqdim olunan dil modelləridir. Əksər həllər qanuni şəkildə istifadə oluna bilsə də, təcavüzkarlar onlardan, məsələn, zərərli proqram yazmaq üçün də istifadə edə bilərlər. Bununla belə, bu cür təkliflərə diqqətin artması həmişə onların yaradıcılarının xeyrinə olmur. Belə ki, “WormGPT” 2023-cü ilin avqustunda təhlükə yarada biləcəyinə dair yayılan söhbətlərə görə bağlandı. Bundan əlavə, “Kaspersky” mütəxəssisləri tərəfindən aşkar edilmiş və “WormGPT”yə giriş əldə etməyi təklif edən bir çox sayt və reklamlar əslində saxtakarlıq mənbələri idi. Maraqlıdır ki, çoxlu sayda belə təkliflər layihənin müəlliflərini onu hələ bağlamazdan əvvəl dələduzluq ehtimalı barədə xəbərdarlıq etməyə məcbur edib.
“Böyük dil modellərinin inkişafının təcavüzkarlara öz fəaliyyətlərini sadələşdirməyə imkan verməsi və eyni zamanda onların sənayeyə daxil olmaları üçün maneəni azaltması ilə bağlı narahatlıqlar var. Bununla belə, hazırda biz bu cür həllərin istifadə edildiyi heç bir real insident müşahidə etmirik. Amma texnologiya sürətlə inkişaf edir və çox güman ki, dil modellərinin imkanları tezliklə mürəkkəb hücumlara imkan verəcək, ona görə də bu sahəni yaxından izləmək vacibdir”, – deyə “Kaspersky Digital Footprint Intelligence” komandasının analitiki Alisa Kulişenko bildirir.
Hesabatın tam versiyasını buradan əldə edə bilərsiniz: https://dfi.kaspersky.ru/blog/ai-in-darknet-ru.