Tez No İndirme Tez Künye Durumu
360832
Ayrıklaştırılmış durum uzayı ile öğrenme tabanlı görev atama yaklaşımı / Learning-based task allocation approach with discretized state space
Yazar:HATİCE HİLAL EZERCAN KAYIR
Danışman: PROF. DR. OSMAN PARLAKTUNA
Yer Bilgisi: Eskişehir Osmangazi Üniversitesi / Fen Bilimleri Enstitüsü / Elektrik-Elektronik Mühendisliği Ana Bilim Dalı / Kontrol ve Kumanda Bilim Dalı
Konu:Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol = Computer Engineering and Computer Science and Control ; Elektrik ve Elektronik Mühendisliği = Electrical and Electronics Engineering
Dizin:Akıllı ajanlar = Intelligent agents ; Görev atama = Task mapping ; Hareketli robotlar = Mobile robots ; Takviyeli öğrenme = Reinforced learning
Onaylandı
Doktora
Türkçe
2014
125 s.
Bu çalışmada, çok robotlu sistemlerde görev atama problemlerinin çözümünde sistem performansının artırılması amacıyla öğrenme tabanlı görev atama yaklaşımı önerilmiştir. Bu amaçla Q-öğrenme yöntemi kullanılmıştır. Teorik olarak tek erkinli yapılar üzerinde tanımlanmış olan Q-öğrenme yönteminin çok robotlu sistemlerde uygulanması araştırılmıştır. Çok erkinli sistemlerde Q-öğrenme yönteminin uygulanmasına dair mevcut yaklaşımlar olan dağıtık ve merkezi öğrenme yaklaşımları ele alınmıştır. Bu iki temel yaklaşımın avantajlarını birleştirmek üzere Strateji Planlamalı Dağıtık Öğrenme yaklaşımı önerilmiştir. Q-öğrenme yönteminin çok robotlu sistemlerde uygulanmasında ortaya çıkan önemli bir problem ayrık ve sonlu durum ve hareket uzayları belirlenmesidir. Uygulamada kullanılan sistemde sürekli nitelikte olan durum uzayının temsili için Sabit Aralıklı Ayrık Durum Uzayı (SAADU), Dağılım Fonksiyonlu Sürekli Durum Uzayı (DFSDU) ve Değişken Aralıklı Ayrık Durum Uzayı (DAADU) yöntemleri önerilmiştir. Ayrık durum uzayı kullanımı yaklaşımı olan SAADU yöntemi sürekli durum uzayını sabit temsil hassasiyeti kullanarak ayrıklaştırırken, DAADU yönteminde durum uzayı ayrıklaştırma işlemi ardışıl kümeleme tabanlı bir yaklaşım ile adaptif olarak gerçekleştirilmektedir. DFSDU yönteminde ise durum uzayı sürekli bir yapıda temsil edilmektedir. Önerilen yaklaşımların etkinliği gerçekleştirilen uygulamalarda gösterilmiştir.
In this study, a learning-based task allocation approach is proposed in order to increase the overall system performance. For this purpose, Q-learning algorithm is preferred. Theoretically, Q-learning algorithm is defined on single-agent frame. The difficulties of scaling up the multi-agent Q-learning to multi-robot systems are investigated. Two major approaches of multi-agent Q-learning in literature, distributed learning and centralized learning, are examined. To combine the advantages of these approaches, Strategy-Planned Distributed Learning approach is proposed. An important problem that appears in the application of Q-learning algorithm in multi-robot domain is to define discrete and finite state and action spaces. To represent the continuous state space, three methods, Fixed-Interval Discrete State Space (FIDSS), Continuous State Space with Distribution Function (DFCSS) and Variable-Interval Discrete State Space (VIDSS), are proposed. The continuous state space is discretized by using a fixed resolution value in FIDSS, whereas the discretization process is realized by a sequential clustering-based approach in an adaptive manner in VIDSS. DFCSS method represents the continuous state space by distribution functions in continuous way. The effectiveness of proposed approaches on system performance are demonstrated by applications.