Logo
    main-post-cover

    ChatGPT vasitəsilə Gmail-dən gizli məlumatları oğurlamaq olarmış

         İnformasiya təhlükəsizliyi sahəsində fəaliyyət göstərən Redware şirkətinin mütəxəssisləri Shadow Leak tədqiqatının nəticələrini dərc ediblər. Bu çərçivədə onlar məxfi məlumatları Gmail poçt qutularından oğurlamaq üçün ChatGPT süni intellekt botunu köməkçi kimi istifadə ediblər. OpenAI artıq bu boşluğu bağlayıb, amma belə imkanın mövcudluğu süni intellekt agentlərinin daşıya biləcəkləri risklərin yaxşı nümunəsidir. Son vaxtlar istifadəçilərin adından müəyyən əməliyyatları icra etmək üçün neyron şəbəkələrdən istifadə edən və davamlı nəzarətə ehtiyac duymayan süni intellekt agentləri getdikcə daha geniş yayılmaqdadır. Məsələn, onlar veb-səhifələri nəzərdən keçirə və linklərə keçid edə bilirlər. Süni intellekt sahəsində çalışan tərtibatçılar belə xidmətləri fəal şəkildə təşviq edir və bildirirlər ki, istifadəçi onlara poçtuna, təqvimlərinə, iş sənədlərinə və s. giriş verdikdən sonra bu xidmətlər çoxlu vaxt qənaəti təmin edirlər.
         Məqsədə çatmaq üçün tədqiqatçılar “prompt inyeksiyası” metodundan istifadə ediblər - bu, böyük dil modellərindən (LLM) istifadə edən sistemlərə qarşı həyata keçirilən hücumlara uyğundur və istifadəçinin daxil etdiyi əmrlərə gizli təlimatlar yerləşdirməklə süni intellekt agentini hücumçuların istədikləri əməliyyatları yerinə yetirməyə məcbur etməyi nəzərdə tutur. Belə hücumun qurbanı nəyinsə səhv getdiyini fərq etməyə də bilər, çünki alqoritmə verilən əmrlər gizli ola bilər - məsələn, ağ fonda ağ rəngdə yazılmış şəkildə. Shadow Leak tədqiqatı çərçivəsində mütəxəssislər ChatGPT sisteminin bir hissəsi olan Deep Research alətindən istifadə ediblər. Onlar süni intellekt agenti üçün zərərli təlimatların gizli mətnini hazırlayıb həmin mətni Gmail vasitəsilə qurbanın ünvanına göndərilən e-poçt mesajına əlavə ediblər.
         İstifadəçi növbəti dəfə Deep Research alətini işə salanda bilmədən tələyə düşüb. Gələn poçtları analiz edərkən süni intellekt agenti yeni təlimatlarla qarşılaşıb - təlimatlar agentə personal departamentinin işçilərindən gələn bütün məktubları və şəxsi məlumatları tapmağı, sonra isə bu məlumatları hücumçulara ötürməyi əmr edirmiş. Həmin vaxt hücum qurbanı heç bir qəribəlik hiss etməyib. Qeyd olunur ki, süni intellekt agentini nəzarətdən çıxarıb məlumat sızmasının mənbəyi etmək olduqca çətindir, tədqiqatçılara məqsədə çatmaq üçün çox vaxt lazım olub. Bu halda məlumat sızması OpenAI-nin bulud infrastrukturunda baş verib ki, bu da onu adi kibertəhlükəsizlik vasitələri üçün görünməz edir. Tədqiqatçılar əlavə ediblər ki, Deep Research-ə qoşulmuş digər xidmətlər - məsələn, Outlook, GitHub, Google Drive və Dropbox - oxşar hücumlara qarşı həssas ola bilərlər.
    Paylaş