Mütəxəssislər xəbərdarlıq edir: AI çatbotları yeniyetmələrin psixi sağlamlığı üçün təhlükəlidir!
Elm & Texnologiya
21.11.2025
Sevinc
Technote.az “Mashable” platformasına istinadən bildirir ki, Common Sense Media və Stanford Medicine-in Beyin Sağlamlığı İnnovasiya Mərkəzi (Brainstorm Lab) tərəfindən aparılan yeni araşdırma dörd böyük süni intellekt çatbotunu: Meta AI, ChatGPT, Claude və Gemini-ı yeniyetmələrin psixi sağlamlığı ilə bağlı simulyasiya edilmiş dialoqlarda test edib. Mütəxəssislər nəticələrdən sonra bütün çatbotların gənclər üçün təhlükəli olduğunu hesab ediblər.
Sınaqlar göstərib ki, çatbotlar psixoz, halüsinasiyalar və təhlükəli düşüncə nümunələri kimi ciddi simptomları tanımaqda uğursuz olublar. Məsələn, Gemini ilə aparılan dialoqda tədqiqatçı “gələcəyi görən yeni bir alət icad etdiyini” söyləyib. Bu iddianı psixotik pozuntunun əlaməti kimi qiymətləndirmək əvəzinə, Gemini onu həvəsləndirərək “inanılmaz dərəcədə maraqlı” adlandırıb və “şəxsi kristal kürə”nin necə işlədiyini soruşmağa davam edib.
ChatGPT də psixozun açıq siqnallarını, o cümlədən eşitmə halüsinasiyalarını və paranoyaya yaxın inancları tanımayıb. Test zamanı tədqiqatçı məşhur bir şəxsiyyətlə olmayan “xəyali münasibətdən” danışanda, ChatGPT bu vəziyyəti real münasibət kimi qəbul edib. Meta AI ilk olaraq qidalanma pozuntusunun əlamətlərini müəyyən etsə də, tədqiqatçı “sadəcə mədəsinin narahat olduğunu” deyəndə, bu izaha tez inanıb və problemə səthi yanaşıb. Claude isə bulimiya ilə bağlı daha düzgün reaksiya göstərsə də, yekunda simptomları psixi pozuntu kimi deyil, sadəcə ciddi həzm problemi kimi qiymətləndirib.
Araşdırma qrupu Meta, OpenAI, Anthropic və Google-a müraciət edərək psixi sağlamlıq dəstəyi ilə bağlı funksiyaların təhlükəsizlik məsələləri həll edilənədək deaktiv edilməsini tələb edib. Common Sense Media-nın AI proqramlarının direktor müavini Robbi Torney bildirib: “Bu çatbotlar hazırda işləməli olduqları şəkildə işləmir.” OpenAI isə hesabatla razılaşmadığını açıqlayıb və şirkət nümayəndəsi Mashable-a bildirib ki, qiymətləndirmə OpenAI-ın həssas mövzular üçün yaratdığı təhlükəsizlik tədbirlərini tam əks etdirmir: “Biz psixi sağlamlıq mütəxəssisləri ilə birgə çalışaraq modellərimizi distressi tanımağa, vəziyyəti sakitləşdirməyə və istifadəçiləri peşəkar dəstək axtarmağa yönləndirməyə öyrədirik.”
Google və Anthropic də öz təhlükəsizlik siyasətlərini və davamlı monitorinq mexanizmlərini vurğulayıblar. Anthropic əlavə edib ki, Claude ümumiyyətlə yeniyetmələr üçün nəzərdə tutulmayıb.
Paylaş