Tez No İndirme Tez Künye Durumu
170851
Tuning model complexity using cross-validation for supervised learning / Gözetimli öğrenmede çapraz geçerleme ile model karmaşıklığının ayarlanması
Yazar:OLCAY TANER YILDIZ
Danışman: PROF.DR. ETHEM ALPAYDIN
Yer Bilgisi: Boğaziçi Üniversitesi / Fen Bilimleri Enstitüsü / Bilgisayar Mühendisliği Ana Bilim Dalı
Konu:Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol = Computer Engineering and Computer Science and Control
Dizin:
Onaylandı
Doktora
İngilizce
2005
209 s.
ÖZET gözetimli öğrenmede çapraz geçerleme ile model karmaşıklığının ayarlanması Bu tezde, model seçiminde çapraz geçerleme kullanımını gözden geçirerek gözetimli modellerden en iyisini bulan MultiTest metodunu önerdik. MultiTest algoritması, gözetimli öğrenme algoritmalarını beklenen hata üzerindeki ikili istatistiksel testlerin sonuçlarına ve algoritmanın karmaşıklığı gibi önceliklere göre sıralar. MultiTest meto dunu geçerlemek için ANOVA ve Newman-Keuls algoritmalarıyla karşılaştırdık. Bu algoritmalar metodların hata oranlarının aynı olup olmadığını kontrol eder. En iyi al goritmayı bulmak için kullanılabilseler bile, bu her zaman çalışmayabilir. Oysa, bizim önerdiğimiz metod her zaman en iyiyi bulabilir. MultiTest metodunu model karmaşıklığını eniyilemede kullanmaya çalıştık. Bunun için ya tüm olası modelleri MultiTest'le karşılaştırdık ve en iyi modeli seçtik ya da (model uzayı genişse) MultiTest'i kullanarak model uzayında etkili bir arama yaptık. Tüm modeller aranabildiğinde, MultiTest diğerlerinden anlamlı bir şekilde kötü ol mayan en basit modeli seçer. Tezde, ayrıca karar ağacı ve kural çıkarımı için karma, tüm değişkenli bir yapı önerdik. Bu yapı, modelin karmaşıklığını oraya ulaşan verinin karmaşıklığına uyduran, farklı yerlerde farklı modellerin olabildiği karma bir yapıdır. Önerdiğimiz Multi- Test'e dayalı, çok değişkenli yapıyı çok bilinen model seçme teknikleriyle standart veri kümeleri üzerinde karşılaştırdık.
IV ABSTRACT TUNING MODEL COMPLEXITY USING CROSS-VALIDATION FOR SUPERVISED LEARNING In this thesis, we review the use of cross-validation for model selection and pro pose the MultiTest method which solves the problem of choosing the best of multiple candidate supervised models. The MultiTest algorithm orders supervised learning algo rithms (for classification and regression) taking into account both the result of pairwise statistical tests on expected error, and our prior preferences such as complexity of the algorithm. In order to validate the MultiTest method, we compared it with Anova, Newman-Keuls algorithms which check whether multiple methods have the same ex pected error. Though Anova and Newman-Keuls results can be extended to find a "best" algorithm, this does not always work. On the other hand, our proposed method is always able to find an algorithm as the "best" one. By using MultiTest method, we try to solve the problem of optimizing model complexity. For doing this, either we compare all possible models using MultiTest and select the best model or if the model space is very large, we make an effective search on the model space via MultiTest. If all possible models can be searched, MultiTest-based model selection always selects the simplest model with expected error not significantly worse than any other model. We also propose a hybrid, omnivariate architecture, for decision tree induction and rule induction. This is a hybrid architecture that contains different models at different places matching the complexity of the model to the complexity of the data reaching that model. We compare our proposed MultiTest-based omnivariate architec ture with the well-known techniques for model selection on standard datasets.