
Süni intellekt üzərində idarəetmənin itirilməsinin riskləri açıqlanıb
Süni İntellekt
24.09.2025
Emil
Süni intellekt biznesdə və hətta dövlət qurumlarında istifadə olunur, baxmayaraq ki, o hələ mükəmməllikdən uzaqdır. Amma belə sistemlər nəzərdə tutulduğu kimi işləməsə, nə baş verəcək? Google DeepMind tədqiqatçıları Frontier Safety Framework sənədinin üçüncü versiyasını təqdim ediblər. Bu sənəd süni intellekt istifadəsi zamanı əsas riskləri və ehtiyat tədbirlərini təsvir edir. Mütəxəssislər risklər arasında modellərin zərərli proqram təminatı yaratmaq üçün istifadəsi ehtimalını, insanların inanclarını manipulyasiya etmə imkanlarını, eləcə də “uyğunsuz süni intellekt” adlandırılan - təlimatları nəzərə almayan və ya insanın maraqlarına zidd hərəkət edən sistemlərin yaranmasını vurğulayırlar. DeepMind-ın təhlükəsizlik sisteminin əsasını “kritik imkan səviyyələri” (CCL) anlayışı təşkil edir. Bu, süni intellekt modelinin davranışının təhlükə yarada biləcəyi halları qiymətləndirmək üçün istifadə olunan meyarlar toplusudur, məsələn, kibertəhlükəsizlik və ya biotexnologiyalar sahəsində.

DeepMind belə ssenariləri sadalamaqla kifayətlənmir, həm də onların aşkar edilməsi və aradan qaldırılması yollarını təklif edir. Mütəxəssislərin əsas risklərdən biri kimi göstərdikləri məsələ modellərin çəkilərinin (weight) sızmasıdır. Əgər kibercinayətkarlar çəkilərə çıxış əldə etsələr, qoruma mexanizmlərini keçərək süni intellektdən zərərli proqram təminatı yaratmaq və ya bioloji silahların hazırlanmasına yardım etmək üçün istifadə edə bilərlər. Buna görə də şirkət yeni nəsil modellərin parametrlərinin daha etibarlı qorunmasına çağırır. DeepMind həmçinin insanların manipulyasiyası riskinə diqqət çəkir.

Süni intellekt istifadəçilərin inanclarına sistematik təsir göstərə bilər, üstəlik insanlar tez bir zamanda çat-botlara öyrəşirlər. Hazırda tədqiqatçılar bu təhlükəni nisbətən aşağı hesab edir və sosial müdafiə mexanizmlərinə güvənirlər, lakin onun nəticələrini tamamilə istisna etmək olmaz. Nəhayət, süni intellekt daha güclü sistemlərin hazırlanmasını sürətləndirə bilər. Hazırlıqsız mütəxəssislərin əlində isə bu, cəmiyyətin öhdəsindən gələ bilməyəcəyi modellərin yaranmasına gətirib çıxara bilər. Ayrı bir problem - “uyğunsuz süni intellekt” adlandırılan haldır. Bu, sistemin təlimatları görməməzliyə vurması, yalnış cavablar verməsi və ya istifadəçinin tələbini nəzərə alaraq dayanmamasıdır.

Belə nasazlıqlar adi hallüsinasiyalardan fərqlənir və başqa nəzarət metodları tələb edir. Hazırda modelin məntiqi gedişatını avtomatlaşdırılmış monitorinq vasitəsilə izləmək təklif olunur. Lakin Google xəbərdarlıq edir ki, gələcəkdə bu vəzifə daha da çətinləşə bilər: daha inkişaf etmiş modellər yoxlanıla bilən “düşüncə zənciri” yaratmadan məntiqi düşünməni imitasiya edə bilərlər. Bu halda müşahidəçi onların iş gedişatını izləyə bilməyəcək və deməli - süni intellektin insanın maraqlarına zidd hərəkət etməsi ehtimalını istisna etmək mümkün olmayacaq. DeepMind hələlik bu problemin həlli üçün variantlara malik deyil.
Paylaş