main-post-cover

    GPT-4 dil modeli həkim imtahanından keçib və pasientin diaqnozunu sürətlə təyin edib

    Süni İntellekt
    10.04.2023
    Farid Pardashunas
        İnformasiya texnologiyaları və tibb üzrə mütəxəssis olan Isaac Kohane iki nəfər həmkarı ilə birlikdə süni zəkanın tibb sahəsində istifadə mümkünlüyünü yoxlamaq üçün GPT-4 dil modelini test edib. Mütəxəssisin sözlərinə əsasən süni zəka əsaslı dil modeli özünü bir çox həkimdən daha yaxşı sərgiləyib. Kohane aparılmış testlərin nəticələrini “The AI Revolution in Medicine” adlı kitabda dərc edib. Beləliklə verilmiş məlumata əsasən OpenAI tərəfindən mart ayında istifadəyə verilmiş GPT-4 dil modeli həkim lisenziyasını əldə etmək üçün nəzərdə tutulmuş imtahanın suallarına 90% hallarda doğru cavab verib. Bu məsələdə süni zəka əsaslı dil modeli hətta GPT-3GPT-3.5 əsasında çalışan ChatGPT çat-botundan və həkim lisenziyasına sahib bir çox həkimdən daha yaxşı nəticələr sərgiləyib. GPT-4 özünü təkcə imtahan verən və faktları yaxşı bilən kimi deyil, həmçinin yaxşı tərcüməçi kimi də sərgiləyib.

    Belə ki, o, pasientin portuqal dilində olmuş tibbi çıxarışını anlayıb və texniki terminlərə sahib mətni 6-cı sinif şagirdinin belə anlaya biləcəyi materiala çevirib.

        Süni zəka əsaslı dil modeli pasientin yanında necə davranmalı və onunla onun vəziyyəti barəsində necə danışmalı lazım olduğu mövzusunda həkimlərə faydalı məsləhətlər verib. GPT-4 həmçinin tədqiqatlarla bağlı iri həcmli hesabatların emal edilməsinin öhdəsindən gəlib və onların tərkib hissələrini sürətlə ümumiləşdirə bilib. GPT-4 öz cavablarını elə bir formatda təqdim edib ki, sanki həmin cavablar insan zəkası səviyyəsinə yaxın səviyyəyə sahib təmsilçi tərəfindən tərtib edilib. Lakin bununla belə tədqiqatçılar belə bir qənaətə gəliblər ki, süni zəka əsaslı dil modeli öz fikirlərində şablonlarla məhdudlaşdırılıb. Bu səbəbdən də GPT-4 hələ ki, səbəb-nəticə əlaqələri üzrə tam əsaslandırmaya keçid edə bilmir.

    Buna baxmayaraq süni zəka sisteminə real tibbi hadisə ilə bağlı müraciət edildiyi zaman o, nadir xəstəliyi dəqiq şəkildə təyin edə bilib.

        Isaac Kohane bir tərəfdən yaxın gələcəkdə bu cür alətin milyonlarla istifadəçilərə təqdim ediləcəyinə çox sevinir. Digər tərəfdən o bu texnologiyanın istifadəçilər üçün necə təhlükəsiz etmək lazım olduğunu bilmir. GPT-4 öz cavablarında heç də həmişə etibarlı deyil və mütəxəssislər sistemin səhvlərə yol verdiyi hallara misallar gətiriblər. Maraqlısı ondadır ki, sistemə edilmiş hansısa səhvi göstərən zaman o yenə də səhv etmədiyini təkid edir. Texniki mühitdə bu cür hala artıq halüsinasiya deyirlər. Aparılmış testlərin birində GPT-4 öz müdafiəsi üçün belə bir cavab təqdim edib. “Mənim kimisə aldatmaq və ya yanıltmaq kimi bir niyyətim yoxdur. Lakin mən bəzən səhvlər edir və tam və ya dəqiq olmayan məlumatlar əsasında fərziyyələr qururam. Mən tibbi qiymətləndirmə aparmıram və həkim kimi etik məsuliyyətə sahib deyiləm”. 
    Linki kopyala

    Bənzər xəbərlər

    Oxşar xəbərlər