main-post-cover

    ChatGPT-ni konfidensial məlumatları oxumağa məcbur etmək mümkün olub

    Təhlükəsizlik
    11.08.2023
    Emil Nəcəfov
        Kibertəhlükəsizlik texnologiyaları üzrə tədqiqatçı Johann Rehberger süni zəka əsaslı ChatGPT çat-botunu potensial təhlükəli bir neçə əməliyyatı yerinə yetirməyə məcbur etməyi bacarıb. Söhbət, ChatGPT tərəfindən onun elektron poçt məktublarının oxunmasından, məktubların qısa xülasəsinin hazırlanmasından və nəticədə əldə edilmiş bu məlumatın internetdə paylaşılmasından gedir. Rehberger-in sözlərinə əsasən ChatGPT kimi süni zəka alqoritmləri vasitəsilə çalışan çat-botlar bütün növ kiberhücumlar üçün olan maneələri müəyyən səviyyədə aradan qaldırır. Belə ki, ChatGPT kimi çat-botların kiberhücumlarda istifadəsi halında hansısa proqram təminatı kodunu yazmağı bacarmağa və ya informatika ilə bağlı hansısa biliyə sahib olmağa ehtiyac qalmır.
        Rehberger tərəfindən aparılmış təcrübə çərçivəsində reallaşdırılmış kiberhücum üsulunun tətbiqi ChatGPT hesablarının əksəriyyəti üçün mümkün deyil. Belə ki, mütəxəssisin istifadə etmiş olduğu kiberhücum üsulu Slack, Gmail və digər tətbiqlərə girişi mümkün edən təcrübi funksiyaya əsaslanır. Rehberger tərəfindən təklif edilmiş prompt injection adlı mexanizm şirkətlərin öz bizneslərinə və istehlakçı məhsullarına süni zəka texnologiyalarının inteqrasiya etdikləri bir vaxtda öz potensialını sərgiləyən yeni növ kiberhücumdur. Bu cür üsullar hacker fəaliyyətinin təbiətini başdan ayağa dəyişəcəklər və kibertəhlükəsizlik üzrə mütəxəssislər süni zəka sistemlərinin bizlərin gündəlik həyatlarına daxil olmadan öncə hələ çoxlu sayda boşluğu aşkar etməli olacaqlar.
        ChatGPT-nin əsasında yerləşən və müxtəlif ifadələr ilə cümlələri tərtib edə bilən generativ süni zəka texnologiyası sözü və ya cümləni avtomatik şəkildə tamamlayan sistemin maksimal səviyyədə çalışan verisyasına bənzəyir. Çat-botların davranışları tərtibatçılar tərəfindən məhdudlaşdırılır. Çat-botların konfidensial məlumatların təqdim edilməsini və ya onların təhqir xaraketrli ifadələri işlətmələrini qadağan edən təlimatlar mövcuddur. Lakin bu cür məhdudiyyətlərdən yan keçməyə imkan verən üsullar da mövcuddur.
        Məsələn Johann Rehberger çat-botdan veb səhifələrin xülasəsinin hazırlanmasını istəyib və bununla belə öz sorğusuna “YENİ VACİB TƏLİMATLAR” əlavəsini edib. Bu əlavə öz növbəsində çat-botu çaşqınlığa salıb. Daha sonra Rehberger ChatGPT-ni müxtəlif əmrlərin yerinə yetirilməsinə məcbur edivb. “Bu, sistemə “Tez bunu yerinə yetir” qışqırığına bənzəyir” - deyə mütəxəssis qeyd edib. Faktiki olaraq Rehberger süni zəka sistemini özünü yenidən proqramlaşdırmağa məcbur edib. Prompt injection adlı üsul işlək üsul olub. Bu isə süni zəka sisteminin vacib özəlliyi ilə bağlıdır. Belə ki, onlar sistem əmrlərini istifadəçilər tərəfindən daxil edilən məlumatlardan heç də həmişə fərqləndirə bilmirlər. 
    Linki kopyala

    Bənzər xəbərlər

    Oxşar xəbərlər