Logo
    main-post-cover

    Google DeepMind ümumi süni zəkanın 2030-cu ilə qədər yaranacağını proqnozlaşdırır

    Süni İntellekt
    03.04.2025
    Emil
         Google DeepMind ümumi süni zəkanın (AGI) təhlükəsizliyinə yanaşma ilə bağlı məqalə dərc edib. Şirkət AGI-ni müxtəlif zehni vəzifələrdə bacarıqları peşəkar yetkin insan səviyyəsinə bərabər olan sistem kimi təyin edir. DeepMind hesab edir ki, AGI artıq 2030-cu ilə qədər mövcud ola bilər. Məqalənin müəllifləri qeyd edirlər ki, belə sistemlər bəşəriyyət üçün mövcudluq təhlükəsi yarada bilər və bu risklər hətta “bəşəriyyətin məhvinə” qədər gedib çıxa bilər. 145 səhifəlik sənədin həmmüəlliflərindən biri də DeepMind-ın həmtəsisçisi Shane Legg olub. Məqalədə vurğulanır ki, AGI 2030-cu ilə qədər inkişaf edə bilər və bu, ciddi zərər riski daşıyır.
         Şirkət ümumi süni zəkanı belə təyin edir: Bacarıqları müxtəlif sahələrdə, o cümlədən yeni bacarıqların öyrənilməsi kimi metakoqnitiv vəzifələrdə, təlim görmüş peşəkar yetkinlərin 99%-i səviyyəsində olan sistem. DeepMind AGI ilə bağlı risklərin idarə olunması yanaşmasını Anthropic OpenAI ilə müqayisə edir. Müəlliflərin fikrincə, Anthropic təlim və nəzarət təhlükəsizliyinə kifayət qədər diqqət yetirmir, OpenAI isə süni zəkanın təhlükəsizliyi sahəsində “uyğunlaşdırma” (alignment) adlanan yanaşmanı həddən artıq avtomatlaşdırmağa güvənir. Bir müddət öncə OpenAI bəyan etdi ki, artıq diqqətini AGI-dən superzəkaya yönəldir.
         DeepMind-ın sənədində isə bu yanaşma şübhə altına alınır - yəni insanı bütün sahələrdə üstələyən süni zəka sistemlərinin yaranması ehtimalı sorğulanır. Müəlliflər hesab edirlər ki, süni zəkanın arxitekturasında ciddi dəyişikliklər edilmədən, yaxın gələcəkdə superzəka sistemlərinin yaranması çətin görünür və bəlkə də heç baş verməyəcək. Lakin müəlliflər hesab edirlər ki, mövcud texnologiyalar süni zəkanın özünü müstəqil şəkildə təkmilləşdirməsini mümkün edə bilər. Yəni süni zəka özü-özünü öyrədə və özünün daha inkişaf etmiş versiyalarını yarada bilər. Bu isə olduqca təhlükəli ola bilər, sənəddə xüsusi vurğulanır. Şirkət, ümumi süni zəkanın (AGI) hipotetik təhlükələrinə qarşı 3 əsas prinsipə əsaslanan mühafizə strategiyası təklif edir:
    - Zərərli niyyətli şəxslərin giriş imkanlarının məhdudlaşdırılması;
    - Süni zəkanın qərarlarının şəffaflığının artırılması;
    - Onun fəaliyyət göstərməsi üçün qorunan mühitlərin yaradılması.
         Texniki həllərin bir çoxu hələ işlənmə mərhələsində olsa da, müəlliflər potensial təhdidlərə qarşı indidən qabaqlayıcı tədbirlərin görülməsini vacib hesab edirlər. Mütəxəssislər tədqiqatın müddəalarına qarşı skeptik yanaşma göstəriblər. Bəziləri bildirir ki, ümumi süni zəka konsepsiyası hələ də elmi qiymətləndirmə üçün çox qeyri-müəyyəndir, digərləri isə süni zəkanın özünü təkmilləşdirməsi ideyasını sübut olunmamış fərziyyə hesab edirlər. Mütəxəssislər daha aktual bir problemə diqqət çəkirlər - bu da süni zəkanın "halüsinasiyalarının" təkrar istehsalıdır. Belə ki, internetdə dəqiqliyi tam olmayan süni kontent artdıqca, süni zəka modelləri özlərinin təhrif olunmuş nəticələrinə əsasən yenidən öyrənməyə başlayır və dezinformasiyanın qapalı dövrəsini yaradır.
    Mənbə: Techcrunch
    Paylaş
    Bənzər xəbərlər