Logo
    main-post-cover

    Tibbi süni intellekt qadınlarda diskriminasiyaya və rasizmə meyillidir

         Süni intellekti tibb sahəsinə cəlb etmək üçün ilk cəhdlər hələ illər əvvəl IBM şirkəti və onun Watson sistemi ilə edilmişdi. Lakin sənayenin inkişafı ilə kompüter texnologiyalarının bu tətbiq sahəsi daha da genişləndi. Alimlər bildirirlər ki, tibbdə böyük dil modellərinin mövcud öyrədilmə yanaşması qadınlar və müəyyən irqlərin nümayəndələri üçün diaqnostikanı daha keyfiyyətsiz edir. Financial Times, mövcud dil modellərinin niyə səhiyyə sahəsində ağdərili kişi pasiyentlərə daha keyfiyyətli tövsiyələr verməyə meylli olduğunu izah etməyə çalışan mütəxəssislərin fikirlərini ümumiləşdirib. Əslində, tarixən bütün tibbi araşdırmaların əsasən bu kateqoriyaya aid pasiyentlərin ehtiyaclarına yönəldilməsi səbəbindən məhz bu qrup üzrə ən çox tibbi məlumat formalaşıb. Məhz həmin məlumatlar əsasında müasir böyük dil modelləri öyrədilib.
         Bundan əlavə, OpenAI özü də etiraf edib ki, bir sıra tibbi təşəbbüslərdə mövcud olanlardan daha az mükəmməl dil modellərindən istifadə edib - sadəcə o layihələrin icrası zamanı daha yaxşı alternativlərin mövcud olmaması səbəbindən. Hazırda isə startapın mütəxəssisləri tibb işçiləri ilə birgə profil sistemlərinin fəaliyyətinə uyğun düzəlişlər etməyə məcbur olurlar. Bəzi hallarda böyük dil modelləri tibbi tövsiyələri kifayət qədər dəqiq və düzgün təqdim etmirlər. Bunun səbəbi onların öyrədilməsi üçün həddindən artıq geniş mənbə spektrindən istifadə olunmasıdır. Əslində, əgər öyrədilmə seçiminə Reddit səhifələrindəki qeyri-peşəkarların məsləhətləri də daxil olubsa, peşəkar tibb işçilərinin baxış bucağından belə tövsiyələrin keyfiyyəti artıq şübhə altına düşür.
         Mütəxəssislər tibbi sistemlərin öyrədilməsi üçün materialların daha məsuliyyətli şəkildə formalaşdırılmasını, həmçinin bir ölkə və ya hətta müəyyən bir bölgə daxilində daha lokal məlumatlardan istifadə edilməsini təklif edirlər. Bu, səhiyyə baxımından yerli spesifikliyi daha yaxşı nəzərə almağa imkan verəcək. Böyük dil modellərindən istifadə edərək səhiyyə ilə bağlı məsləhətlər almağa çalışan müştərilər üçün ayrıca problem odur ki, savadsız və ya nizamsız tərtib olunmuş sorğuların emalı zamanı onlar aşağı prioritet daşıyır. Əgər sorğuda qrammatik və ya orfoqrafik səhvlər varsa, sistemin düzgün tövsiyə vermə ehtimalı, həmin baxımdan qüsursuz şəkildə yazılmış sorğuya nisbətən daha az olur.
         Çox vaxt sistemlər elə qurulub ki, sorğunun keyfiyyəti müəyyən kriteriyalara uyğun gəlmədikdə, sadəcə sorğu müəllifinə həkimə müraciət etməyi tövsiyə edirlər. Şəxsi məlumatların və tibbi sirrin qorunması böyük dil modellərinin öyrədilməsi zamanı ciddi problem olaraq qalır və bu sahədə artıq məhkəmə iddiaları üzrə nümunələr yaranmaqdadır. Dil modellərinin hallüsinasiyalara meyilli olmaları, tibbi məlumatların emalı zamanı insanların sağlamlığı və həyatı üçün real təhlükə yaradır. Hər halda, ekspertlərin ortaq fikrinə görə, səhiyyə sahəsində süni intellektin tətbiqi zərərdən daha çox fayda gətirir, sadəcə bu istiqamətdə düzgün inkişaf prioritetləri müəyyən edilməlidir.
    Paylaş