Tez No İndirme Tez Künye Durumu
479159
Enhanced generalized regression neural network for large datasets / Büyük veri setleri için geliştirilmiş genelleştirilmiş regresyon yapay sinir ağı
Yazar:SERKAN KARTAL
Danışman: DOÇ. DR. MUSTAFA ORAL
Yer Bilgisi: Çukurova Üniversitesi / Fen Bilimleri Enstitüsü / Bilgisayar Mühendisliği Ana Bilim Dalı
Konu:Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol = Computer Engineering and Computer Science and Control
Dizin:
Onaylandı
Doktora
İngilizce
2017
134 s.
Genelleştirilmiş Regresyon Yapay Sinir Ağı (GRYSA), fonksiyon yaklaştırma ve tahmin işlemleri için kullanılan, radyal tabanlı fonksiyon yapay sinir ağlarından biridir. Birçok uygulamada Çok Katmanlı Algılayıcı (CKA) ve Destek Vektör Makineleri (DVM) gibi tahmin edici metotlara bir alternatif olarak kullanılabilmesini sağlayan iki önemli özelliğe sahiptir. Bu özellikler, kolay modellenebilmesi ve tek geçişte öğrenebilmesidir. GRYSA'nın örüntü katmanında bulunan nöron sayısının veri setindeki eğitim verisi sayısına eşit olmasından dolayı, büyük veri setlerinde bellek kullanımında ve hesaplama zamanlarında artış meydana gelmektedir. Bu yüzden, örüntü katmanı yapısının küçültülmesine önemli bir ihtiyaç vardır. Bu yalnızca yapıyı basitleştirmekle kalmayacak, aynı zamanda tahmin tutarlılığını da arttıracaktır. Bu çalışmada, örüntü katmanı boyutu problemini çözmek için üç farklı metot önerilmiştir. Önerilen metotların performansı 15 test fonksiyonu ve 8 farklı UCI veri seti ile değerlendirilip sonuçlar standart GRYSA ve literatürde kullanılan popüler karma yöntemler ile karşılaştırılmıştır.
Generalized Regression Neural Network (GRNN) is a kind of radial basis function neural networks used for function approximation and prediction. It has two important properties that make it alternative to other prediction methods such as MultiLayer Perceptron (MLP) and Support Vector Machines (SVM) in many applications. These are easy modelling structure, and one pass learning. Since the number of neurons at GRNN's pattern layer is proportional to the number of training samples in dataset, increase in memory usage and computational time will emerge for huge datasets. Therefore, there is a strong need for pattern layer size reduction. It may provide not only simplification in structure but also increase in prediction accuracy. In this study, three different methods are proposed to solve pattern layer size problem. Performances of the proposed methods were evaluated by using fifteen benchmark test functions and eight different UCI datasets and compared with that of standard GRNN as well as popular hybrid methods used in literature.