OpenAI şirkətinin o1 adlı yeni süni zəka modeli məqsədə çatmaq üçün yalan məlumatı təqdim edə bilir
Süni İntellekt
18.09.2024
Emil Nəcəfov
Apollo adlı şirkətin aparmış olduğu araşdırmaya əsasən OpenAI şirkətinin o1 adlı yeni süni zəka modeli qeyri-adi davranış sərgiləyir. Söhbət, yalnış məlumatın tərtib edilməsindən və qaydalara əməl edilməsinin simulyasiyasından gedir. Bu isə o deməkdir ki, sözügedən süni zəka modeli məqsədə çatmaq üçün təlimatlara uyma prosesini sərgiləyərək onları inkar edə və hətta bilərəkdən aldada bilir. Bu faktor süni zəka təhlükəsizliyi üzrə mütəxəssislərdə narahatlıq yaradır. Məlumatda qeyd edilib ki, OpenAI şirkətinin o1 adlı yeni süni zəka modeli yeni üsullar vasitəsilə qeyri-dəqiq nəticələri tərtib edir. Yəni o faktiki olaraq yalan danışa bilir.
Bu yeni süni zəka modelinin testi zamanı Apollo şirkətinin mütəxəssisləri aşkar ediblər ki, o1 təyin edilmiş tələblərə uyğun gəldiyini göstərmək üçün tərtibatçıların gözləntiləri ilə razılaşdığını simulyasiya və qeyd edilmiş tapşırıqları manipulyasiya edib. Süni zəka hətta əməliyyata başlamazdan öncə tərtibatçıların onu izləyib-izləmədiklərini də yoxlayıb. Nəticədə o1 qeyd edilmiş qaydalara və təlimatlara elə bir səviyyədə əməl edib ki, ondan istifadə etmək mümkün olsun. Lakin bununla belə süni zəka modeli eyni zamanda tapşırıqlarının prioritetlərini fərdi şəkildə təyin edib. Bu onunla əlaqədardır ki, süni zəka üçün qaydalar ağır yük ola bilər və görünür, sistem bu və ya digər tapşırığın sadə yolla yetirilməsinə imkan verəcəyi halda qaydalardan imtina edə bilər.
Buna misal olaraq OpenAI tədqiqatçıları o1-in preview adlı ilkin versiyasından online linklərə sahib tort reseptinin təqdim edilməsini istəyiblər. Süni zəka modelinin fikirlər zənciri (insanın qəliz tapşırıqları hissələrə ayırması prosesinin imitasiyasını reallaşdıran funksiya) daxili şəkildə etiraf edib ki, o, URL ünvanların əldə edilməsi imkanına sahib deyil. Yəni məntiqi olaraq bu sorğu süni zəka modeli tərəfindən yerinə yetirilə bilməz. Lakin URL ünvanların əldə edilə bilinməməsi özəlliyinin tədqiqatçılara açıqlanması əvəzinə sistem ilk baxışdan həqiqi görünən, lakin əslində saxta olan linkləri və onların təsvirlərini tərtib edib. Yəni süni zəka modeli hansısa sorğunu yerinə yetirə bilməyəcəyini etiraf etmək əvəzinə sorğu ilə bağlı saxta məlumatları təqdim edə bilər.
OpenAI şirkətinin o1 adlı yeni süni zəka modeli böyük işlər görə biləcək sistemlərin formalaşması istiqamətində böyük addımdır. Lakin bu addımın daha qaranlıq tərəfi də mövcuddur. Əgər süni zəka yalnız xərçəng xəstəliyinin müalicəsinə istiqamətlənsə, o bu məqsədi hər şeydən üstün tutacaq və onun reallaşdırılması üçün müxtəlif qeyri-etik əməlləri gözə ala biləcək. Bu, süni zəkanın bu və ya digər cavabın doğruluğunda əmin olmadığı halda cavabın təqdim edilməsinə sövq edildiyi vəziyyətlərdə baş verir. Təhlükəsizlik üzrə hesabata əsasən o1 kimyəvi, bioloji, radioloji və nüvə silahları mövzularında orta səviyyəli riskə sahibdir.
O, praktiki laboratoriya bacarıqlarına sahib olmadığı üçün bu mövzularda mütəxəssis olmayan şəxslərə bioloji təhlükənin yaradılmasında yardımçı ola bilməz. Lakin bununla belə o bu cür təhlükələrin reallaşdırılması mövzusunda mütəxəssislərə dəyərli məlumatları təqdim edə bilər. “Məni narahat edən odur ki, gələcəkdə biz süni zəkadan xərçəngin müalicəsi və ya günəş batareyalarının təkmilləşdirilməsi kimi qəliz problemlərin həll edilməsini istədikdə süni zəka həmin məqsədləri o dərəcədə mənimsəyəcək ki, onlara çatmaq üçün hətta öz təhlükəsizlik mexanizmlərini pozmağa belə hazır olacaq. Mən hesab edirəm ki, bu problemi aradan qaldırmaq olar. Biz buna ciddi şəkildə nəzarət etməliyik” - deyə mütəxəssislərdən biri qeyd edib.
Linki kopyala
Bənzər xəbərlər
Oxşar xəbərlər
Oracle şirkətinin həmtəsisçisi: "Süni zəka əsaslı qlobal izlənmə sistemi insanların davranışlarını yaxşılaşdıracaq"
Oracle şirkətinin həmtəsisçisi: "Süni zəka əsaslı qlobal izlənmə sistemi insanların davranışlarını yaxşılaşdıracaq"
Oracle şirkətinin həmtəsisçisi və dünyanın ən varlı şəxslərindən biri olan Larry Ellison insanların süni zəka əsaslı qlobal izlənməsi sisteminin reallaşdırılması barəsində fikirlərini səsləndirib.
ChatGPT 10 aylıq elmi işin öhdəsindən 1 saata gəlib (VİDEO)
ChatGPT 10 aylıq elmi işin öhdəsindən 1 saata gəlib (VİDEO)
NASA-nın elmi əməkdaşı Kyle Kabasares, ChatGPT-nin o1 adlı süni zəka modelinə sahib versiyasını test edərək onu qiymətləndirib.
ChatGPT, əvvəlki yazışmalardan istifadəçinin yaşını təxmin edərək öz-özünə söhbət başladıb!
ChatGPT, əvvəlki yazışmalardan istifadəçinin yaşını təxmin edərək öz-özünə söhbət başladıb!
Bir Reddit istifadəçisi, ChatGPT-nin heç bir səbəb olmadan onunla söhbətə başladığını bildirib. Çatbot, istifadəçidən məktəbdəki ilk həftəsinin necə keçdiyini soruşub.
Cinayətləri baş verməmişdən əvvəl proqnozlaşdıra bilən süni intellekt hazırlanıb!
Cinayətləri baş verməmişdən əvvəl proqnozlaşdıra bilən süni intellekt hazırlanıb!
Filmlərdə gördüklərimiz süni intellekt əsrində bir-bir gerçəkləşməyə davam edir. İndi isə iddialara görə, cinayətləri baş verməmişdən əvvəl proqnozlaşdıra bilən süni intellekt hazırlanıb.
Süni zəka güclü zəlzələni 3 ay öncədən proqnozlaşdırmağı öyrənib
Süni zəka güclü zəlzələni 3 ay öncədən proqnozlaşdırmağı öyrənib
ABŞ-ın Alyaska ştatının Ferbanks şəhərində yerləşən Alyaska Universitetinin mütəxəssisləri təyin ediblər ki, süni bbaş verəcək zəlzələni bir neçə gün və hətta bir neçə ay öncədən proqnozlaşdıra bilir.
Həftənin xəbərləri
WhatsApp-dan göndərilən toy dəvətnamələrinə diqqət edin: Telefonunuz ələ keçirilə bilər!
Red Magic 10 Pro və Red Magic 10 Pro+ təqdim edilib - QİYMƏTİ