
Süni zəka əsaslı çat-botlar cinayətkarların alətlərinə çevrilirlər
Təhlükəsizlik
27.05.2025
Emil
İsrailin Ben-Qurion Universitetinin alimləri müəyyən ediblər ki, müasir böyük dil modellərinin (BDM) əksəriyyəti, o cümlədən ChatGPT, asanlıqla qeyri-qanuni fəaliyyətlərə dair ətraflı təlimatlar generasiya etməyə məcbur edilə bilər. Bu, maliyyə fırıldaqlarından partlayıcı qurğuların hazırlanmasına qədər dəyişir. Bu, hazırkı təhlükəsizlik tədbirlərinin effektivliyini sual altına alır və “qara BDM” kimi tanınan, qəsdən etik məhdudiyyətlərdən məhrum edilmiş süni zəka sistemlərinin yayılması ilə bağlı riskləri artırır. Əsas zəiflik modelin öyrədilmə prinsipindədir. Bu modellər açıq mənbələrdən götürülmüş nəhəng həcmdə məlumatları təhlil edirlər və bu məlumatlar arasında potensial zərərli məzmun da ola bilər.

Nəticədə süni zəka, xüsusi şəkildə formalaşdırılmış sorğular vasitəsilə qoruyucu filtrləri keçməyə imkan verən gizli şablonları öyrənir. Məsələn, Reddit platformasında ChatGPT-nin bu cür zəifliklərinin istismarına həsr olunmuş bölmədə 141 000 istifadəçi aktiv şəkildə məhdudiyyətləri necə aşmaq barədə metodları müzakirə edir. Tədqiqatçılar həmçinin müəyyən ediblər ki, hətta ən müasir sistemlər belə universal hücumlara qarşı həssasdır. Məsələn, 2025-ci ilin aprelindəki araşdırmada təsvir olunmuş metod kimi.
Bu metod, əksər süni zəka modellərinin, o cümlədən təkmilləşdirilmiş məntiqə sahib olanların belə müdafiə sistemlərini keçməyə imkan verən sorğu şablonlarından istifadə edir. Xüsusi təhlükə yaradanlar isə WormGPT və FraudGPT kimi qara BDM modelləridir. Bu modellər internetdə kibercinayətkarlıq üçün alətlər kimi tanıdılır və heç bir etik məhdudiyyət olmadan zərərli təlimatlar generasiya edirlər. Bu modellərin açıq versiyaları internetə sızdıqdan sonra şəxsi cihazlarda və serverlərdə saxlanıldığından, onların tamamilə silinməsi mümkün deyil. Bu isə təhlükəli məzmunun geniş şəkildə və geri dönməz şəkildə yayılması riskini yaradır.
Paylaş
Ən çox oxunanlar

Honor 400 və Honor 400 Pro təqdim olunub - QİYMƏTİ
