Logo
    main-post-cover

    OpenAI süni intellektin nəyə görə həmişə hallüsinasiya yaşayacağını açıqlayıb

         OpenAI-nin yeni araşdırması böyük dil modellərində hallüsinasiyaların əsl təbiətini üzə çıxarır: bu, müvəqqəti çatışmazlıq deyil, ideal məlumatlar və mürəkkəb təlim üsulları tətbiq olunduqda belə qalan qaçılmaz riyazi problemdir. Texniki cəhətdən süni intellektin özünə inam səviyyəsini qiymətləndirməsinə və şübhə yarandıqda cavab verməkdən çəkinməsinə imkan yaradaraq səhvlərin sayını azaltmaq mümkün olsa da, bu həll iqtisadi baxımdan sərfəli və praktik deyil. İstifadəçilər daim “bilmirəm” deyən süni intellektlə barışmağa hazır deyillər. Buna görə də yaxın gələcəkdə hallüsinasiyalar yəqin ki, dil modellərinin ayrılmaz xüsusiyyəti olaraq qalacaq. Səbəb qismən modellərin iş prinsipində gizlənir: süni intellekt ehtimallara əsaslanaraq mətni hər dəfə bir söz proqnozlaşdırmaqla yaradır. Bu üsul uzun mətnlər generasiya edilərkən səhvlərin toplanmasına təbii şəkildə gətirib çıxarır və nəticədə hallüsinasiyaların səviyyəsi sadə “bəli/xeyr” suallarına cavablarla müqayisədə ən azı 2 dəfə yüksək olur.
         Bundan əlavə, model öyrənmə zamanı hər hansı fakta nə qədər az rast gəlsə, səhv ehtimalı bir o qədər çox olur. Məsələn, məşhur şəxslərin ad günlərinin 20%-i təlim məlumatlarında cəmi bir dəfə rast gəlinirsə, modellər ən azı həmin halların 20%-də səhv etməlidirlər. Mövcud post-treninq yanaşmaları, o cümlədən insanların geribildirimləri problemi tam həll etmir. Süni intellektin 10 məşhur bençmarkının təhlili göstərib ki, onların əksəriyyəti binar qiymətləndirmə sistemi istifadə edir və burada “bilmirəm” cavabı yanlış cavabla eyni dərəcədə cəzalandırılır. Bu isə modelləri qeyri-müəyyənliyi etiraf etmək əvəzinə “təxmin etməyə” sövq edir. OpenAI-nin məqaləsində həll yolu təklif olunur: süni intellekt cavab verməzdən əvvəl öz inam səviyyəsini qiymətləndirməlidir. Model yalnız 75%-dən çox əmin olduqda cavab verə bilərdi. Bu halda hər bir səhv cəhd üçün 3 bal “cərimə” tətbiq ediləcək, düzgün cavab isə cəmi 1 balla qiymətləndiriləcəkdi.
         Nəzəri olaraq bu, hallüsinasiyaların sayını azalda bilər, lakin praktikada istifadəçilərin tez-tez “bilmirəm” cavabı verən sistemdən imtina etmələri ehtimal olunur. Problemi hesablama iqtisadiyyatı daha da gücləndirir. Qeyri-müəyyənliyi nəzərə alan modellər mümkün variantları dəfələrlə analiz etməyə və onların etibarlılığını qiymətləndirməyə məcbur qalır, bu isə hesablama resurslarına böyük yük yaradır. Xüsusilə də söhbət gündə milyonlarla sorğunu emal edən sistemlərdən gedirsə. Daha inkişaf etmiş üsullar, məsələn, qeyri-müəyyənliyi azaltmaq üçün süni intellektin dəqiqləşdirici suallar verdiyi aktiv öyrənmə modellərin dəqiqliyini artıra bilər, lakin eyni zamanda hesablama tələblərini də yüksəldir. Bu cür yanaşmalar səhvin milyonlarla dollara başa gəldiyi ixtisaslaşmış sahələrdə - məsələn, mikrosxemlərin layihələndirilməsi, maliyyə ticarəti və ya tibbi diaqnostika zamanı - əsaslı sayıla bilər.
         Lakin istehlakçı tətbiqləri üçün hələ ki, iqtisadi baxımdan sərfəli deyil. Hallüsinasiyaları azaltmaq üçün texniki imkanlar mövcud olsa da, mövcud biznes stimulları buna ziddir. Süni intellektin hazırlanmasında prioritetlər arasında istehlakçı tətbiqləri hələ də üstünlük təşkil edir. İstifadəçilər sürətli və inamlı cavablar istəyirlər, testlər və metriklər isə hətta yanlış olsa belə, hər hansı cavab verən sistemləri təşviq edir. Bu isə hallüsinasiyaların qaçılmaz yan təsir kimi qalmasına şərait yaradır. Nəticədə, OpenAI-nin araşdırması xoşagəlməz bir həqiqəti üzə çıxarır: prioritet istehlakçı tətbiqləri olduqca, hallüsinasiyalar qalacaq. Onların tam aradan qaldırılması yalnız süni intellektin hazırlanmasında stimulların və yanaşmaların yenidən nəzərdən keçirilməsi ilə mümkündür, lakin mövcud hesablama iqtisadiyyatı və istifadəçi gözləntiləri bunu olduqca az ehtimal edilən edir.
    Paylaş