Logo
    main-post-cover

    Süni zəka modelləri insanlara nisbətən daha az halüsinasiyalara məruz qalırlar

    Süni İntellekt
    23.05.2025
    Emil
         Müasir süni zəka modelləri suallara reallığa uyğun olmayan cavablar verdikdə, buna halüsinasiyalar deyirlər. Məlum olub ki, süni zəka modelləri bunu insanlara nisbətən daha az edirlər. Bu açıqlamanı Anthropic şirkətinin baş direktoru Dario Amodei şirkətin keçirdiyi Code with Claude adlı konfransda səsləndirib. Amodei-nin fikrincə, halüsinasiyalar ümumi süni zəkanın (AGI) inkişafına maneə deyil. Yəni insan səviyyəsində inkişaf etmiş sistemlərin yaradılmasına əngəl təşkil etmir. “Əslində hər şey yanaşmadan asılıdır, amma məndə belə bir təəssürat var ki, süni zəka modelləri yəqin ki, insanlardan daha az halüsinasiyaya məruz qalırlar. Lakin bunu daha təəccüblü şəkildə edirlər” - deyə Anthropic-in rəhbəri Techcrunch-a bildirib.
         Dario Amodei süni zəka sahəsində optimistlərdən biri hesab olunur. Onun ötən ilki məqaləsində AGI-nin artıq 2026-cı ildə yarana biləcəyi qeyd olunurdu. O bu mövqedən imtina etməyə hələ də əsas görmür. Onun fikrincə, bu istiqamətdə davamlı irəliləyiş müşahidə olunur. “Hamı daim süni zəkanın nə edə bilməyəcəyinə dair sərt hədlər axtarır. Amma belə hüdudlar görünmür. Belə bir şey yoxdur” - deyə Anthropic-in baş direktoru vurğulayıb. Hər kəs bu fikirlə razı deyil. Google DeepMind bölməsinin rəhbəri Demis Hassabis bu həftə bildirib ki, mövcud süni zəka modellərində çox sayda “boşluq” var və bu modellər çoxlu sayda aydın və sadə suallara yanlış cavablar verirlər.
         Anthropic-in öz hüquqşünası isə bu ay üzr istəməyə məcbur qalıb, çünki şirkət tərəfindən iddia ərizəsinin hazırlanmasında istifadə olunan Claude adlı çat-bot sitatlarda yanlış adlar və vəzifələr göstərib. Dario Amodei-nin iddiasını yoxlamaq isə asan deyil. Çünki halüsinasiyalarla bağlı testlərin əksəriyyətində modellər bir-biri ilə müqayisə olunur, insanla yox. Bəzi hallarda çat-botlara veb axtarış imkanı verildikdə bu cür yanlış cavabların sayını azaltmaq mümkün olur. Məsələn, OpenAI tərəfindən hazırlanmış GPT-4.5 modeli əvvəlki nəsil modellərlə müqayisədə halüsinasiyaların faizini xeyli azaldıb.
         Digər tərəfdən, OpenAI-nin məntiqi düşünməyə əsaslanan o3 o4-mini modelləri isə, məlum olduğu kimi, əvvəlki modellərlə müqayisədə daha çox reallığa uyğun olmayan cavablar verir və bunun səbəbini hələ müəyyən etmək mümkün olmayıb. Dario Amodei qeyd edib ki, televiziya aparıcıları, siyasətçilər və ümumiyyətlə bütün peşə sahibləri daim səhvlər edirlər, və süni zəkanın da bu cür səhvlərə yol verməsi onun bacarıqlarının tənqid olunması üçün əsas ola bilməz. Lakin o etiraf edib ki, süni zəkanın uydurmaları fakt kimi inamla təqdim etməsi problemə çevrilə bilər. Anthropic artıq bir neçə dəfə süni zəka modellərinin insanları aldatmaq meylini araşdırıb.
         Claude Opus 4 modelinə erkən çıxış imkanı verilmiş Apollo Research adlı tədqiqat institutu müəyyən edib ki, bu model intriqalara və aldatmaya ciddi meyil göstərir və Anthropic-ə bu modelin geri çağırılmasını tövsiyə edib. Şirkət isə bildirib ki, aşkar olunmuş problemləri yumşaltmaq üçün bəzi tədbirlər görülüb. Anthropic rəhbərinin bu açıqlaması göstərir ki, şirkət süni zəka modeli hələ də halüsinasiyalardan tam azad olmasa belə, onu kifayət qədər inkişaf etmiş AGI səviyyəsində qəbul edə bilər. Lakin bəzi mütəxəssislər bu mövqeni qəbul etmir və bu yanaşmanı rədd edirlər.
    Paylaş