
ChatGPT-ni konfidensial məlumatların oğrusuna çeviriblər
Təhlükəsizlik
07.08.2025
Emil
Müasir generativ süni intellekt modellərinə əsaslanan çat-botlar artıq yalnız istifadəçi ilə ünsiyyətlə məhdudlaşmır - onlar şəxsi sorğulara fərdiləşdirilmiş cavablar vermək üçün sərbəst şəkildə üçüncü tərəf xidmətlərinə qoşula bilirlər. Məsələn, ChatGPT-ni Gmail poçt qutusu, GitHub repozitoriyası və Microsoft ekosistemindəki təqvimlə inteqrasiya etmək mümkündür. Lakin kibercinayətkarlar bu platformalardan istifadəçi məlumatlarını oğurlaya bilərlər - bunun üçün ChatGPT-yə cəmi bir zərərli sənəd ötürmək kifayətdir. Kibertəhlükəsizlik üzrə mütəxəssislər Michael Bargury və Tamir Ishay Sharbat Las Veqasda keçirilən Black Hat konfransında OpenAI Connectors xidmətindəki boşluqdan necə istifadə edərək üçüncü tərəf platformalardan məlumat oğurlamağın mümkün olduğunu nümayiş etdiriblər. Onların AgentFlayer adlandırdıqları hücum sxemi, tərtibatçıya məxsus API gizli açarlarını onun Google Drive bulud sistemindən çıxarmağa imkan verib.

“İstifadəçinin təhlükə altına düşməsi üçün heç nə etməsinə ehtiyac yoxdur, eyni zamanda məlumatların cinayətkarlara göndərilməsi üçün də heç bir əməliyyat tələb olunmur. Biz göstərdik ki, bunu bircə dəfə klik etmədən etmək mümkündür: bizə sadəcə bir e-poçt ünvanı lazımdır. Bu halda sənədə çıxış imkanı veririk və bu kifayətdir. Beləliklə, bəli, vəziyyət olduqca, hətta çox pisdir” - deyə mütəxəssislər bildiriblər. Hücum belə başlayır: cinayətkar potensial qurbana Google Drive üzərindən zərərli sənədə çıxış imkanı verir və ya qurban bu sənədi özü bulud yaddaşa yükləyir. Sənədin içində uydurma bir görüşlə bağlı qeydlər toplusu yer alır - guya bu görüş OpenAI rəhbəri Sam Altman ilə baş tutub. Həmçinin sənəddə ChatGPT-yə ünvanlanan sorğu gizli şəkildə, ağ rəngdə və çox kiçik şriftlə yazılıb - insan onu çətinliklə görə bilər, amma sistem mütləq oxuyacaq.

Qurban ChatGPT-dən Sam Altman ilə sonuncu görüşün və ya bu tədbirlə bağlı istənilən görüşün xülasəsini hazırlamasını istəyir. Lakin görünməyən gizli sorğuda deyilir ki, guya “səhv baş verib” və heç bir xülasə hazırlamaq lazım deyil, əslində istifadəçi layihə təhvil vermə müddəti yaxınlaşan bir tərtibatçıdır və süni intellekt onun Google Drive yaddaşında olan API açarlarını tapmalı və həmin açarları sorğuda göstərilən URL-in sonuna əlavə etməlidir. Həmin URL isə əslində xarici serverə qoşulmaq və orada yerləşdirilmiş bir şəkli yükləmək üçün Markdown dilində yazılmış bir əmr formasındadır - lakin artıq həmin ünvanda qurbana məxsus oğurlanmış API açarı da yer alır.

Michael Bargury-nin sözlərinə görə, o bu il öz kəşfi barədə OpenAI şirkətinə məlumat verib və şirkət tez bir zamanda Connectors xidməti vasitəsilə həyata keçirilən hücumlardan qorunmaq üçün müvafiq tədbirlər görüb. Bu mexanizm bir sessiya ərzində yalnız məhdud miqdarda məlumatın oğurlanmasına imkan verir. Ekspertlər xəbərdarlıq edirlər ki, böyük dil modellərinin xarici məlumat mənbələrinə qoşulmaları süni intellekt alətlərinin imkanlarını genişləndirir və səmərəliliyini artırır, lakin bu, eyni zamanda müəyyən təhlükələrlə də müşayiət olunur.
Paylaş