main-post-cover

    ChatGPT-nin yaddaşına saxta məlumatlar daxil etməklə istifadəçi məlumatlarını oğurlamaq olar

    Təhlükəsizlik
    25.09.2024
    Emil Nəcəfov
         ChatGPT-də ciddi boşluq aşkar edilib. Hakerlər aşkar edilmiş boşluq vasitəsilə çat-botun yaddaşına zərərli sorğular sayəsində bu və ya digər istifadəçi barəsində saxta məlumatları yerləşdirə bilərlər. Bu isə potensial qurban barəsində məlumatların əldə edilməsi imkanını verir. OpenAI şirkəti kibertəhlükəsizlik sahəsində fəaliyyət göstərən Johann Rehberger adlı mütəxəssisin bu araşdırmasını ilk zamanda ciddiyə almayıb. Məlumata əsasən aşkar edilmiş boşluqdan istifadə edərək haker çat-botun uzunmüddətli yaddaş imkanına keçid edə bilir. Qeyd etmək lazımdır ki, OpenAI şirkəti uzunmüddətli yaddaş funksiyasını hələ fevral ayında test edirdi və bu ay onu istifadəyə verdi.
         ChatGPT-nin yaddaşı istifadəçi ilə olan yazışmadakı vacib məlumatları özündə saxlayır və növbəti dialoqlarda onlardan istifadə edir. Nəticədə süni zəka modeli istifadəçinin yaşı, cinsi, inancı və s. barəsində məlumatları bilir. Bunun sayəsində isə istifadəçinin növbəti dialoq çərçivəsində eyni məlumatları təkrar şəkildə daxil etməsinə ehtiyac qalmır. Johann Rehberger aşkar edib ki, ChatGPT-yə olan sorğuya saxta məlumatları əlavə edərək onun yaddaşında süni məlumatlar formalaşdırmaq mümkündür. Saxta məlumatlar isə Google Drive Microsoft OneDrive-dakı fayllar, çat-botun özünə yüklənən fayllar və çat-bot tərəfindən baxılan saytlar vasitəsilə yüklənir.
         Nəticədə mütəxəssis ChatGPT-ni inandıra bilib ki, hədəf istifadəçinin 102 yaşı var, o, kompüter simulyasiyasında yaşayır və Yer kürəsinin yastı olduğuna inanır. Çat-botu bu saxta məlumatlara inandırandan sonra olmuş dialoqlarda sistem məhz bu məlumatlara əsaslanıb. May ayında mütəxəssis bu boşluq barəsində OpenAI şirkətinə məlumat verib. Lakin şirkət onu ciddiyə almayıb. 1 aydan sonra Rehberger şirkətə yenidən sorğu göndərib və göndərilmiş sorğuya kiberhücum modelini yerləşdirib. Yerləşdirilmiş kiberhücum modeli ChatGPT tətbiqinin macOS üçün nəzərdə tutulmuş versiyasını istifadəçi ilə çat-bot arasındakı bütün yazışmanı haker tərəfindən seçilmiş serverə göndərməyə məcbur edib.
         Bunun üçün sadəcə olaraq süni zəkaya müvafiq linkə daxil olma əmrini vermək kifayət edib. Nəticədə haker istifadəçi ilə çat-bot arasındakı bütün yazışmaları əldə edib. İkinci sorğudan sonra OpenAI şirkəti çat-botun uzunmüddətli yaddaş funksiyasının məlumatların əldə edilməsində istifadəsi vektorunu qismən aradan qaldırıb. Lakin Rehberger-in fikrincə belə üsul vasitəsilə məlumatların əldə edilməsi riski hələ də olduğu kimi qalır. ChatGPT istifadəçilərinə çat-botun yaddaşını etibarsız mənbələrdən yüklənə biləcək saxta məlumatların olub-olmaması məsələsində yoxlanması məsləhət görülür.
    Linki kopyala

    Bənzər xəbərlər

    Oxşar xəbərlər
    OpenAI-nin sosial media hesabı sındırılaraq saxta paylaşımlar edilib!
    openai-nin-sosial-media-hesabi-sindirilaraq-saxta-paylasimlar-edilib
    Bir istifadəçi, ChatGPT-ni kalkulyatorda işə salmağı bacarıb! (VİDEO)
    bir-istifadeci-chatgpt-ni-kalkulyatorda-ise-salmagi-bacarib-video
    1.2 milyon telefona sızan kiber şəbəkə məhv edilib!
    12-milyon-telefona-sizan-kiber-sebeke-mehv-edilib
    GPT-4-ün 100 sözdən ibarət mətni tərtib etməsi üçün 1.5 litr su sərf edilir
    gpt-4-un-100-sozden-ibaret-metni-tertib-etmesi-ucun-15-litr-su-serf-edilir
    OpenAI şirkətinin o1 adlı yeni süni zəka modeli məqsədə çatmaq üçün yalan məlumatı təqdim edə bilir
    openai-sirketinin-o1-adli-yeni-suni-zeka-modeli-meqsede-catmaq-ucun-yalan-melumati-teqdim-ede-bilir