Tez No İndirme Tez Künye Durumu
238272
Simultaneous bottom-up/top-down processing in early and mid level vision / Erken ve orta düzey görmede alttan üste/yukarıdan aşağı eşzamanlı işleme
Yazar:MEHMET ERKUT ERDEM
Danışman: DOÇ. DR. SİBEL TARI
Yer Bilgisi: Orta Doğu Teknik Üniversitesi / Fen Bilimleri Enstitüsü / Bilgisayar Mühendisliği Bölümü / Bilgisayar Mühendisliği Ana Bilim Dalı
Konu:Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol = Computer Engineering and Computer Science and Control
Dizin:Bilgisayarla görme = Computer vision
Onaylandı
Doktora
İngilizce
2008
203 s.
Marr'dan bu yana bilgisayarlı görmeye hakim olan genel kanı, görsel algının veri güdümlü, alttan üste doğru işleyen bir süreç olduğu yönündedir. Bu kapsamda imge verisi ileri beslemeli bir biçimde işlenirken ard arda gelen birbirlerinden bağımsız alt modüller basit, düsük düzey ipuçlarını daha karmaşık, soyut algı birimlerine dönüştürürler. Yıllar boyu bu model kullanılarak çok çeşitli sayıda yöntem geliştirilmiştir. Oysa önemli bir nokta, düşük düzey ipuçlarının genelde belirsiz bir yapıda olmasıdır ki bu tümüyle alttan üste doğru işleyen yöntemleri bir hayli başarısız yapmaktadır. Bu belirsizlikler yüksek düzey bağlamsal bilgi kaale alınmadan giderilemez. Bu tezde erken ve orta düzey bilgisayarlı görme modüllerinin farklı biçimlerde bağlamsal bilgi çıkarma ve kullanma yetisiyle kuvvetlendirilmesi incelenmektedir. Esas olarak, düşük düzey imge öznitelikleri bağlamsal bilgi ile alttan üste ve yukarıdan aşağıya doğru işlemenin eşzamanlı yeraldığı birleştirilmiş formülasyonların bünyesinde bütünleştirilmektedir.
The prevalent view in computer vision since Marr is that visual perception is a data-driven bottom-up process. In this view, image data is processed in a feed-forward fashion where a sequence of independent visual modules transforms simple low-level cues into more complex abstract perceptual units. Over the years, a variety of techniques has been developed using this paradigm. Yet an important realization is that low-level visual cues are generally so ambiguous that they could make purely bottom-up methods quite unsuccessful. These ambiguities cannot be resolved without taking account of high-level contextual information. In this thesis, we explore di ? erent ways of enriching early and mid-level computer vision modules with a capacity to extract and use contextual knowledge. Mainly, we integrate low-level image features with contextual information within uni ? ed formulations where bottom-up and top-down processing take place simultaneously.