Tez No İndirme Tez Künye Durumu
766118
Derin öğrenme ile paratüberküloz hastalığının patolojik görüntüler üzerinden tanı sisteminin geliştirilmesi / Deep learning based development of diagnostic system of paratuberculosis disease through pathological images
Yazar:NİLGÜN ŞENGÖZ
Danışman: PROF. DR. TUNCAY YİĞİT ; PROF. DR. ALİ HAKAN IŞIK
Yer Bilgisi: Süleyman Demirel Üniversitesi / Fen Bilimleri Enstitüsü / Bilgisayar Mühendisliği Ana Bilim Dalı / Bilgisayar Mühendisliği Bilim Dalı
Konu:Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol = Computer Engineering and Computer Science and Control
Dizin:
Onaylandı
Doktora
Türkçe
2022
95 s.
Yapay Zeka, tıbbi görüntüleme alanlarında, özellikle histopatolojik görüntüleme düzeyinde büyük umut vaat ediyor. Yine de Yapay Zeka algoritmaları kararlarının ardındaki düşünce süreçlerini tam olarak açıklayamıyor. Bu durum Yapay Zeka uygulamalarının açıklanabilirliği sorununu gündeme getirmiştir. 'Kara Kutu' olarak adlandırılan bu durum sonucunda, verilen görüntülerin nedenlerini belirtmeden basitçe yanıt veren bir algoritmaya dönüşmüştür. Bunu aşmak ve açıklanabilirlik düzeyini artırmak için Açıklanabilir Yapay Zeka (AYZ) konusu gündeme gelmiş ve birçok araştırmacı bu konuda çeşitli çalışmalar yapmıştır. Bu çalışma kapsamında patologlara yardımcı olmak amacıyla Derin Öğrenme algoritması kullanılarak yeni ve orijinal bir veri seti üzerinde çalışılmış ve AYZ uygulamalarından Grad-CAM kullanılarak çıktı sonuçları görselleştirilmiştir. Bu bağlamda çalışılan Derin Öğrenme algoritmalarından VGG-16 %98 oranla ResNet ve ESA ağlarına göre en iyi sınıflandırma doğruluğuna ulaştığından ötürü Açıklanabilir Yapay Zeka algoritması, VGG-16 mimarisi üzerinden gerçekleştirilmiştir. Daha sonra bu görüntüler üzerinde patologlarla detaylı bir anket çalışması yapılmıştır. Hem karar verme süreçleri hem de açıklamalar doğrulanıp, çıktıların doğruluğu test edilmiştir. Bu bağlamda yeni ve orijinal bir veri kümesinde çalışılmıştır ve bu konu üzerinde çalışan patologlara yardımcı bir sistem sunulmuş olup kara verme süreçlerinde etkili ve güvenilir bir algoritma ile destek mekanizması oluşturulmuştur.
Artificial Intelligence holds great promise in medical imaging fields, especially at the level of histopathological imaging. And yet, Artificial Intelligence algorithms still cannot fully explain the thought processes behind their decisions. This situation has brought the problem of explainability of Artificial Intelligence applications to the agenda. As a result of this situation, which is called the 'Black Box', it has turned into an algorithm that simply responds without stating the reasons for the images given. In order to overcome this and increase the level of explainability, the subject of Explainable Artificial Intelligence (XAI) has come to the fore and many researchers have conducted various studies on this subject. In the context of this study, in order to help pathologists, a new and original dataset was studied using the Deep Learning algorithm, and the output results were visualized using Grad-CAM, one of the XAI applications. In this context, the Explainable Artificial Intelligence algorithm was implemented over the VGG-16 architecture, since VGG-16, one of the Deep Learning algorithms studied, achieved the best classification accuracy with 98% compared to ResNet and CNN networks. Afterward, a detailed questionnaire study was conducted with the pathologists on these images. Both the decision-making processes and the explanations were verified, and the output's accuracy was tested. In this context, it has been studied on a new and original dataset, and a helpful system has been presented to pathologists working on this subject, and an effective and reliable algorithm and support mechanism has been established in decision-making processes.