Logo
    main-post-cover

    Süni zəka əsaslı çat-botlar cinayətkarların alətlərinə çevrilirlər

    Təhlükəsizlik
    27.05.2025
    Emil
         İsrailin Ben-Qurion Universitetinin alimləri müəyyən ediblər ki, müasir böyük dil modellərinin (BDM) əksəriyyəti, o cümlədən ChatGPT, asanlıqla qeyri-qanuni fəaliyyətlərə dair ətraflı təlimatlar generasiya etməyə məcbur edilə bilər. Bu, maliyyə fırıldaqlarından partlayıcı qurğuların hazırlanmasına qədər dəyişir. Bu, hazırkı təhlükəsizlik tədbirlərinin effektivliyini sual altına alır və “qara BDM” kimi tanınan, qəsdən etik məhdudiyyətlərdən məhrum edilmiş süni zəka sistemlərinin yayılması ilə bağlı riskləri artırır. Əsas zəiflik modelin öyrədilmə prinsipindədir. Bu modellər açıq mənbələrdən götürülmüş nəhəng həcmdə məlumatları təhlil edirlər və bu məlumatlar arasında potensial zərərli məzmun da ola bilər.
         Nəticədə süni zəka, xüsusi şəkildə formalaşdırılmış sorğular vasitəsilə qoruyucu filtrləri keçməyə imkan verən gizli şablonları öyrənir. Məsələn, Reddit platformasında ChatGPT-nin bu cür zəifliklərinin istismarına həsr olunmuş bölmədə 141 000 istifadəçi aktiv şəkildə məhdudiyyətləri necə aşmaq barədə metodları müzakirə edir. Tədqiqatçılar həmçinin müəyyən ediblər ki, hətta ən müasir sistemlər belə universal hücumlara qarşı həssasdır. Məsələn, 2025-ci ilin aprelindəki araşdırmada təsvir olunmuş metod kimi.
         Bu metod, əksər süni zəka modellərinin, o cümlədən təkmilləşdirilmiş məntiqə sahib olanların belə müdafiə sistemlərini keçməyə imkan verən sorğu şablonlarından istifadə edir. Xüsusi təhlükə yaradanlar isə WormGPT FraudGPT kimi qara BDM modelləridir. Bu modellər internetdə kibercinayətkarlıq üçün alətlər kimi tanıdılır və heç bir etik məhdudiyyət olmadan zərərli təlimatlar generasiya edirlər. Bu modellərin açıq versiyaları internetə sızdıqdan sonra şəxsi cihazlarda və serverlərdə saxlanıldığından, onların tamamilə silinməsi mümkün deyil. Bu isə təhlükəli məzmunun geniş şəkildə və geri dönməz şəkildə yayılması riskini yaradır.
    Paylaş