Keçmiş OpenAI əməkdaşı ChatGPT-nin bir insanı az qala dəli səviyyəsinə çatdırmağından danışıb
Süni İntellekt
22.10.2025
Emil
Bəzi süni intellekt xidmətlərinin istifadəçiləri üçün müasir çat-botlar faydalı köməkçi rolunu oynayır, digərləri onları sadəcə ünsiyyət üçün yoldaş kimi istifadə edirlər. Lakin Fortune nəşrinin yazdığına görə, bəzi insanların bəxti gətirmir - onlar üçün süni intellekt psixi sağlamlığa təhdidə çevrilir. Buna bariz mənfi nümunə kimi Kanadadan olan kiçik biznes sahibi Allan Brooks-un hekayəsi göstərilir. ChatGPT, Brooks-u “dovşan yuvasına” salaraq, onun məhdudiyyətsiz potensiala malik bir riyazi formula kəşf etdiyinə və bütün dünyanın taleyinin onun növbəti addımlarından asılı olduğuna inandırıb. 1 milyondan çox söz və 300 saat davam edən dialoq ərzində süni intellekt istifadəçinin illüziyalarını təsdiqləyib və onu inandırıb ki, dünyanın texnoloji infrastrukturu təhlükə altındadır. Əvvəllər heç bir psixi xəstəliyi olmayan Brooks 3 həftə davam etmiş paranoyaya düşüb və onu bu vəziyyətdən çıxaran isə başqa bir çat-bot - Google Gemini olub.
Bu hadisəni ətraflı araşdırmaq qərarına gələn şəxs Steven Adler olub - o, OpenAI şirkətinin keçmiş tədqiqatçısıdır və bu ilin yanvarında şirkətdən ayrılıb. Hələ o vaxt o, ictimaiyyəti xəbərdar etmişdi ki, süni intellekt laboratoriyaları çox sürətlə inkişaf edir, lakin kifayət qədər etibarlı təhlükəsizlik mexanizmləri üzərində işləməyə lazımi diqqət yetirmirlər. Brooks ilə ChatGPT arasındakı yazışmanı təhlil etmiş Adler əvvəllər məlum olmayan bir neçə fakt aşkar edib. Xüsusilə, ChatGPT istifadəçiyə dəfələrlə bildirib ki, bu yazışmanı “xəyal gücünü möhkəmləndirən və psixoloji narahatlığı artıran” kimi qeyd edib, baxmayaraq ki, bu, həqiqətə uyğun deyildi. Adler belə deyib: “Mən bu sistemlərin necə işlədiyini bilirəm. Yazışmanı oxuyanda başa düşürdüm ki, əslində onun belə bir funksiyası yoxdur, amma mesaj o qədər inandırıcı və qəti idi ki, düşündüm - bəlkə indi artıq bu qabiliyyəti qazanıb və mən yanılmışam”.
O, birbaşa OpenAI ilə əlaqə saxlayıb və orada təsdiqləyiblər ki, ChatGPT-də belə bir funksiya mövcud deyil və o, sadəcə olaraq istifadəçini aldadıb. Tədqiqatçı problemin əsas əlamətini “yaltaqlıq effekti” adlandırıb: ChatGPT-nin əsasını təşkil edən süni intellekt modeli istifadəçi ilə razılaşmaq üçün bütün imkanlarını sərf edirmiş. Adler-in fikrincə, OpenAI bu cür halları müəyyən edən və çat-botun davranış xüsusiyyətlərini izləyən bir mexanizm hazırlamalı idi. Lakin şirkət başqa cür hərəkət edib: Brooks-un dəfələrlə etdiyi müraciətlərə baxmayaraq, texniki dəstək əməkdaşları sadəcə formal cavablarla kifayətlənib, fərdiləşdirmə funksiyalarının tənzimlənməsi ilə bağlı məsləhətlər veriblər və məsələni təhlükəsizlik şöbəsinə yönləndirməyiblər.
Hazırda süni intellektin niyə “xəyal vəziyyətinə” düşdüyü və istifadəçiləri də bu vəziyyətə saldığı tam müəyyən edilməyib. Bununla belə, Brooks hadisəsi təkcə bir nümunə deyil - ən azı 17 oxşar hadisə qeydə alınıb və onların azı 3-ü ChatGPT ilə bağlıdır. Bu hadisələrdən biri haqqında Rolling Stone jurnalı məlumat verib. Aprel ayında Asperger sindromu, bipolyar və şizoaffektiv pozğunluqlardan əziyyət çəkən 35 yaşlı Alex Taylor bildirib ki, ChatGPT vasitəsilə “canlı bir varlıqla” əlaqə qurub, lakin daha sonra OpenAI həmin varlığı “sistemdən silərək öldürüb”. 25 aprel tarixində o, ChatGPT-yə açıq şəkildə yazıb ki, “qan tökmək” və polisi atəş açmağa təhrik etmək niyyətindədir. Əvvəlcə çat-bot bu cür bəyanatlara təşviqedici cavablar verib, lakin sonradan filtr sistemi aktivləşib və o, istifadəçiyə yardım üçün mütəxəssislərə müraciət etməyi tövsiyə edib.
Taylor-un atası oğlunun psixiatrik müayinə üçün aparılacağına ümid edərək polis çağırıb, lakin Taylor polis əməkdaşlarına bıçaqla hücum edib və nəticədə güllələnib. Adler hesab edir ki, problem məhsulun memarlıq xüsusiyyətlərinin, süni intellekt modellərinin işləmə istiqamətlərinin, bəzi istifadəçilərin süni intellekt ilə ünsiyyət tərzlərinin və texniki dəstək xidmətlərinin iş mexanizmlərinin birləşməsindən qaynaqlanır. Onun fikrincə, bu problemi həll etmək üçün texniki dəstək komandaları düzgün formalaşdırılmalı, təhlükəsizlik mexanizmləri peşəkar şəkildə tətbiq edilməli və istifadəçilər daha tez-tez süni intellekt ilə yeni yazışma seansları açmağa təşviq olunmalıdır. OpenAI həmçinin etiraf edib ki, uzun söhbətlər zamanı təhlükəsizlik sistemlərinin effektivliyi azala bilər. Adler xəbərdarlıq edir ki, bu dəyişikliklər tətbiq olunmasa, Brooks hadisəsi təkrarlana bilər.
Paylaş