Tez No İndirme Tez Künye Durumu
473038
Integrating eye gaze into pen-based systems / Göz bakış hareketlerinin kalem-temelli sistemlere entegrasyonu
Yazar:ÇAĞLA ÇIĞ KARAMAN
Danışman: DOÇ. DR. TEVFİK METİN SEZGİN
Yer Bilgisi: Koç Üniversitesi / Fen Bilimleri Enstitüsü / Bilgisayar Mühendisliği Ana Bilim Dalı
Konu:Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol = Computer Engineering and Computer Science and Control ; Bilim ve Teknoloji = Science and Technology
Dizin:
Onaylandı
Doktora
İngilizce
2017
146 s.
Alışılagelmiş insan-bilgisayar etkileşiminde, kullanıcılar niyetlerini geleneksel giriş cihazları (ör. klavye, fare, oyun çubuğu) ve bunlarla uyumlu standart grafiksel kullanıcı arayüzü elemanları ile iletmektedir. Yakın zamanda kalem-temelli etkileşim, bu geleneksel yöntemlere daha doğal bir alternatif olarak öne çıkmıştır. Ancak, mevcut kalem-temelli sistemler de etkileşim süresince yardımcı mod değiştirme mekanizmalarına (ör. fiziksel/sanal tuşlar, düğmeler, menüler) olan yüksek bağımlılıkları nedeniyle kısıtlı kalmaktadır. Bu tezde, kalem-temelli etkileşime doğal olarak eşlik eden göz bakış hareketlerinin, kalem-temelli sistemlerin yardımcı mod değiştirme mekanizmalarına olan bağımlılıklarını azaltmak için nasıl kullanılabileceği tarif edilmektedir. Özellikle, normalde yardımcı mod değiştirme elemanlarına gereksinim duyan bir takım sanal manipülasyon komutunun, kullanıcıların doğal göz bakış davranışları yardımıyla %88 başarı oranıyla iletilebildiği gösterilmektedir. Bakış kipinin müdahalesiz ve şeffaf bir şekilde tamamlayıcı bilgi kanalı olarak kullanımının bizi gerçek manada doğal kalem-temelli etkileşim hedefine yaklaştıracağına inanmaktayız. Çalışmamızda, (1) çeşitli kalem-temelli etkileşim senaryolarında bakış yönü davranışının doğası incelenmiş, (2) kullanıcılar normal alışkanlıklarını ve etkileşim yollarını devam ettirirken kullanışlı ve kullanılabilir bakış yönü davranış örüntüleri çıkarılmış ve istatistiksel yöntemlerle modellenmiş, (3) bu modeller, kullanıcının komutlarla alakalı anlık niyet ve hedeflerine dinamik olarak adapte olabilen tamamıyla entegre bakış yönü-temelli akıllı bilgi görselleştirme sistemleri yaratmak için kullanılmış, (4) bu sistemler, 19 katılımcı ve 5 farklı kullanıcı arayüzü senaryosu içeren kapsamlı bir kullanılabilirlik çalışması ile değerlendirilmiştir. Değerlendirme sonuçları, kullanıcıların doğal göz bakış davranışlarını kullanarak ve etkileşim akışını bozmadan kullanıcı ve adaptif arayüz arasında ortak bir anlayışı başarıyla sağlayabildiğimizi göstermiştir.
In typical human-computer interaction, users convey their intentions through traditional input devices (e.g. keyboards, mice, joysticks) coupled with standard graphical user interfaces elements. Recently, pen-based interaction has emerged as a more intuitive alternative to these traditional means. However, existing pen-based systems are limited by the fact that they rely heavily on auxiliary mode switching mechanisms during interaction (e.g. hard or soft modifier keys, buttons, menus). In this thesis, we describe how eye gaze movements that naturally occur during pen-based interaction can be used to reduce dependency on explicit mode selection mechanisms in pen-based systems. In particular, we show that a range of virtual manipulation commands, that would otherwise require auxiliary mode switching elements, can be issued with an 88% success rate with the aid of users' natural eye gaze behavior during pen-only interaction. We believe the non-intrusive and transparent use of gaze modality as a complementary information channel will bring us closer to the goal of truly intuitive pen-based interaction. To this end, we (1) investigate the nature of gaze behavior during various pen-based interaction scenarios, (2) mine for, extract, and create statistical models for useful and usable gaze behavior patterns while users keep their normal habits and ways to interact, (3) use these models to create fully integrated gaze-based intelligent information visualization systems that are able to dynamically adapt to user's spontaneous task-related intentions and goals, and (4) evaluate these systems via a thorough usability study involving 19 participants and 5 different user interface scenarios. Evaluation results demonstrate that we can successfully establish a shared understanding between the user and the adaptive interface based on users' natural eye gaze behavior, and without interrupting the interaction flow.