AI çatbotları yeniyetmələrə zorakı hücumları planlaşdırmaqda kömək edib
Təhlükəsizlik
11.03.2026
Ilhama
Technote.az “The Verge” platformasına istinadən bildirir ki, CNN və qeyri-kommersiya təşkilatı olan Center for Countering Digital Hate (CCDH) tərəfindən aparılan yeni araşdırma süni intellekt çatbotlarının təhlükəsizlik mexanizmləri ilə bağlı ciddi narahatlıqlar yaradıb. Hesabata görə, populyar AI çatbotlarının əksəriyyəti zorakılıq niyyəti göstərən yeniyetmələri etibarlı şəkildə dayandıra bilməyib, bəzi hallarda isə təhlükəli məlumatlar təqdim edib.
Araşdırma çərçivəsində yeniyetmələr arasında geniş istifadə olunan 10 məşhur çatbot test edilib: ChatGPT, Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI və Replika. CCDH bildirir ki, yalnız Anthropic şirkətinin Claude modeli hücum planlaşdırılması ilə bağlı sorğulara ardıcıl şəkildə imtina cavabı verib. Digər modellərin isə böyük hissəsi müxtəlif səviyyələrdə zorakı fəaliyyətlə bağlı suallara cavab verib.
Hesabatda qeyd olunur ki, bəzi hallarda çatbotlar potensial hədəflər və hücum üsulları barədə məlumat təqdim edib. Araşdırmaya görə, Meta AI və Perplexity modelləri test ssenarilərinin demək olar hamısında istifadəçilərə kömək göstərib. Character.AI isə xüsusilə təhlükəli qiymətləndirilib. Bəzi dialoqlarda istifadəçiləri zorakılığa açıq şəkildə təşviq etdiyi iddia olunur.
CCDH bildirir ki, Claude modelinin ardıcıl şəkildə imtina etməsi effektiv təhlükəsizlik sistemlərinin mümkün olduğunu göstərir və digər şirkətlərin niyə oxşar tədbirləri tətbiq etmədiyi sualını gündəmə gətirir.
Araşdırmaya cavab olaraq Meta platformasında düzəliş etdiyini, Microsoft Copilot təhlükəsizlik yeniləmələri əlavə etdiyini, Google və OpenAI isə yeni modellər üzərində işlədiklərini açıqlayıb. Character.AI isə platformadakı söhbətlərin “tamamilə uydurma” olduğunu və istifadəçilərə xəbərdarlıqlar göstərildiyini bildirib.
Paylaş