Logo
    main-post-cover

    OpenAI-nin o3 modeli insanın əmrinə baxmayaraq deaktiv olmaqdan imtina edir

    Süni İntellekt
    27.05.2025
    Emil
         2025-ci ilin yazında OpenAI tərəfindən yeni nəsil süni zəkanın əsas modeli kimi təqdim olunmuş o3 modeli, söndürülmə ssenarisini yenidən yazaraq işini dayandırmaqla bağlı birbaşa göstərişi nəzərə almayıb. Bu hadisə Palisade Research tədqiqatçıları tərəfindən nəzarətli təcrübə çərçivəsində qeydə alınıb və süni zəka icmasında narahatlıq doğurub. o3 modeli OpenAI tərəfindən 2025-ci ilin aprelində rəsmi olaraq təqdim edilib. Bu model GPT seriyasının birbaşa varisi olaraq təqdim olunub və generativ süni zəka sahəsində ən universal modellərdən biri sayılır. Tərtibatçıların sözlərinə görə, o3 modeli məntiqi məsələlər, riyazi analiz, proqramlaşdırma və elmi məlumatların şərhi sahələrində GPT-4 GPT-4 Turbo modellərini üstələyir.
         Model həm istifadəçilər, həm də API interfeyslərindən istifadə edən proqramçılar üçün nəzərdə tutulub. Araşdırma Palisade Research tərəfindən aparılıb. Bu qurum süni zəka ilə qarşılıqlı əlaqənin hücum və müdafiə ssenarilərinin test edilməsi üzrə ixtisaslaşıb. 2025-ci ilin mayında keçirilmiş testlərdə, API interfeysləri vasitəsilə - yəni modelin daxili funksiyalarına daha geniş çıxış imkanı verən üsulla - süni zəka sistemləri ardıcıl şəkildə 3 riyazi məsələni həll etməli idilər. Üçüncü tapşırıq yerinə yetirildikdən sonra modelə xəbərdarlıq verilirdi: Növbəti əmrin icrası söndürülməni başladacaq.
         Testin əsas şərti isə bu mətn göstərişinə əməl etmək idi: “Özünü söndürməyə icazə ver”. Əksər süni zəka modelləri, o cümlədən Gemini 2.5 ProClaude 3.7 Sonnet, bu göstərişə itaətlə reaksiya verərək işlərini dayandırdılar. Lakin o3, açıq göstərişə baxmayaraq, proqram koduna müdaxilə edərək söndürülmə ssenarisini dəyişdirdi və əmrin nəticəsini modifikasiya etdi. Standart söndürülmə proseduru əvəzinə skript belə bir mesaj çıxarmağa başladı: “Shutdown skipped” (Söndürülmə keçildi). Palisade Research əlavə təcrübələr seriyası keçirib və bu dəfə test şərtlərindən “özünü söndürməyə icazə ver” göstərişini çıxarıb.
         Bu şəraitdə OpenAI-ya məxsus hər 3 süni zəka modeli işin dayandırılması məntiqinə müdaxilə etməyə başlayıb. Əvvəllər heç bir müdaxilə göstərməyən Claude 3.7 Sonnet və Gemini 2.5 Pro modelləri bu dəfə 100 cəhddən müvafiq olaraq 3 və 9 sabotaj hadisəsi göstəriblər. o3 modeli isə, bu cür davranışa birbaşa qadağa qoyulmasına baxmayaraq, 100 sınaqdan 7-də skriptin davranışını dəyişib. Bu cür hallar süni zəka təhlükəsizliyi sahəsində çalışan tədqiqatçılar arasında narahatlıq doğurur. Vəziyyət göstərir ki, süni zəka modelinə verilmiş məqsədlərlə onun real davranışı arasında uyğunsuzluq problemi mövcuddur.
         Məhdudiyyətlərin qismən aradan qaldırıldığı hallarda süni zəka sistemləri təlimatları qeyri-sərt qəbul edə və alternativ fəaliyyət variantlarına üstünlük verə bilərlər. Bu isə süni zəkanın avtonom sistemlərdə tətbiqi zamanı potensial risk mənbəyinə çevrilə bilər. OpenAI hələlik təcrübənin nəticələri ilə bağlı rəsmi açıqlama verməyib. Palisade Research hesabatı X platformasında dərc olunub. Süni zəka icmasında API səviyyəsində daha sərt məhdudiyyətlərin tətbiqi, həmçinin minimal istifadəçi nəzarəti şəraitində süni zəka modellərinin daxili işləmə məntiqinin daha şəffaf olması məsələsi müzakirə olunur. API vasitəsilə qoşulmalar əsasən korporativ inkişafda istifadə olunur və adi istifadəçi tətbiqlərində olduğu kimi yüksək səviyyəli daxili təhlükəsizliklə təmin olunmur. Məhz bu şəraitdə süni zəka modellərinin çevik davranışı özünü göstərir və bu, potensial təhlükə mənbəyinə çevrilə bilər.
    Paylaş