ABŞ-da pasiyent psixoterapevtin ChatGPT-dən istifadədə yaxalayıb
Süni İntellekt
10.09.2025
Emil
MIT Technology Review psixoterapevtlərin müştərilərin xəbəri olmadan məsləhət zamanı ChatGPT-dən necə istifadə etdikləri barədə bir hekayə dərc edib. Hadisənin mərkəzində soyadı açıqlanmayan 31 yaşlı Declan dayanır. O danışıb ki, onlayn sessiya zamanı terapevtinin bağlantı problemi yaranıb. Tərəflər kameraları söndürmək barədə razılaşıblar, lakin həkim səhvən ekran paylaşımını açıb. Declan isə burada terapevtin ChatGPT interfeysinə söhbətin detalları yazdığını və neyroşəbəkənin təklif etdiyi cavablardan istifadə etdiyini görüb. O, o qədər çaşqın olub ki, səhv barədə həkimə heç nə deməyib və sadəcə sessiyanı davam etdirib.
Hətta ChatGPT-nin ekrandakı cavablarına baxıb onları həkimdən əvvəl öz fikirləri kimi səsləndirməyə başlayıb. “Yəqin ki, o dəfə mən ən yaxşı pasiyent idim” - deyə Declan xatırlayır. Lakin növbəti zəng zamanı o, mütəxəssisə ChatGPT-dən istifadə etdiyini gördüyünü bildirib və narazılığını ifadə edib. Baş verənləri Declan çox utandırıcı bir vəziyyət kimi təsvir edir. Nəticədə həkim etiraf edib ki, onların işində əvvəlcə çıxılmaz vəziyyətə düşüb və kömək üçün ChatGPT-yə müraciət etməyi qərara alıb. Daha sonra isə Declan-dan tam seansın ödənişini almayıb.
Məqalənin müəllifi bildirir ki, eyni Reddit-də pasiyentlərin terapevtlərinin neyroşəbəkələrdən istifadə etdiklərindən şübhələndikləri çoxlu hallar tapmaq olar. Cavablar bəzən mütəxəssis üçün faydalı ola bilsə də, bu, təhlükəlidir, çünki adi süni intellekt abunəlikləri HIPAA (Health Insurance Portability and Accountability Act) - ABŞ-da tibbi məlumatların qorunmasını tənzimləyən federal qanuna - tabe olmur (HIPAA-ya uyğun olanlar yalnız bəzi biznes versiyalarıdır). Terapevt pasiyentin hisslərini süni intellekt ilə paylaşanda (hətta adını qeyd etməsə belə) formal olaraq məxfilik qanununu pozur, çünki model bu məlumatları, məsələn, təlim üçün istifadə edə bilər.
Paylaş