
Tədqiqatçılar OpenAI-nin tibbdə istifadə olunan alətinin yalan söylədiyi barədə xəbərdarlıq ediblər!
Süni İntellekt
29.10.2024
Aslan
OpenAI-nin səs aləti Whisper, tibb mərkəzlərində xəstə müsahibələrini transkripsiya etmək üçün geniş istifadə olunur. Ancaq yeni hesabata görə, alət bəzən qeydlərdə olmayan ifadələr və səhv məlumatlar əlavə edə bilir.
Whisper-ın “halüsinasiyalar” adlanan yanlış transkripsiyalarının xüsusilə tibbi kimi yüksək riskli sahələrdə ciddi problemlərə səbəb ola biləcəyi bildirilir. OpenAI bu aləti belə riskli sahələrdə istifadə etməməyə dair xəbərdarlıqlar etmiş olsa da, alətin geniş istifadəsi bu xəbərdarlıqlara baxmayaraq davam edir. Məsələn, bir maşın öyrənmə mühəndisi 100 saatlıq bir yazının yarısında yanlış transkripsiyalara rast gəldiyini bildirərkən, digər bir inkişaf etdirici də analiz etdiyi 26 min transkripsiyanın hamısında oxşar səhvlərin olduğunu qeyd edib. Tədqiqatlar, bu tip səhvlərin dünya üzrə milyonlarla yazıda problem yarada biləcəyini göstərir.

Hətta vəziyyət o qədər ciddidir ki, xüsusən də OpenAI-in Whisper alətini Oracle və Microsoft Cloud kimi böyük platformalarla inteqrasiya etməsi ilə bu risk daha da artır. Dünyada minlərlə istifadəçiyə xidmət göstərən bu bulud xidmətləri, yanlış transkripsiyaların geniş yayılmasına səbəb olub.
Bundan əlavə, Allison Koenecke və Mona Sloane kimi akademiklərin apardığı araşdırmalar göstərir ki, Whisper tərəfindən yaradılan yanlış məlumatların 40%-i zərərli ola bilər. Məsələn, adi bir ifadəni “böyük bir xaç parçası aldı və insanları öldürdü” kimi yanlış şəkildə ifadə etdiyi müşahidə olunub. OpenAI, bu hesabatları nəzərdən keçirib, gələcək yeniləmələrdə bu rəyləri diqqətə alacağını bildirib.
Paylaş
Ən çox oxunanlar

Qatlana bilən Huawei MateBook Fold ULTIMATE noutbuku təqdim edilib - QİYMƏTİ
