Tez No İndirme Tez Künye Durumu
786737
Nicelenmiş derin öğrenme ağları için FPGA tabanlı hızlandırıcı tasarımı / FPGA-based accelerator design for quantized deep learning networks
Yazar:MUSTAFA TAŞCI
Danışman: PROF. DR. AYHAN İSTANBULLU
Yer Bilgisi: Balıkesir Üniversitesi / Fen Bilimleri Enstitüsü / Elektrik-Elektronik Mühendisliği Ana Bilim Dalı
Konu:Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol = Computer Engineering and Computer Science and Control ; Elektrik ve Elektronik Mühendisliği = Electrical and Electronics Engineering
Dizin:Makine öğrenmesi = Machine learning
Onaylandı
Doktora
Türkçe
2022
98 s.
Hayatı kolaylaştıran akıllı mobil cihazların geliştirilmesi günümüz teknolojisinin en önemli uygulama alanlarından biridir. Bu tür teknolojiler geliştirilirken derin öğrenme tekniği oldukça yaygın olarak kullanılmaktadır. Derin öğrenme algoritmaları milyarlarca kayar noktalı (GFLOPS) matematiksel işlem ve yüksek hafıza bant genişliğine ihtiyaç duymaktadır. Sıralı işlem yapan klasik işlemciler derin öğrenme uygulamalarında yetersiz kaldıkları için grafik işleme birimleri (GPU), özel entegre devreler (ASIC) ve alan etkili kapı dizileri (FPGA) gibi donanım hızlandırıcılar derin öğrenme uygulamalarında sıklıkla kullanılmaktadır. Özellikle taşınabilir cihazlarda derin öğrenme uygulamalarının gerçekleştirilmesinde FPGA hızlandırıcılar ön plana çıkmaktadır. Bu çalışmada MLP ve Lenet modelleri için Xilinx PYNQ Z1 geliştirme kartı üzerinde hızlandırıcı donanımlar geliştirilmiştir. Bu tez çalışmasında, farklı niceleme seviyelerinde QNN hızlandırıcı geliştirmek için FINN çerçevesi kullanılmıştır. Farklı niceleme ve katlama kombinasyonları kullanılarak MLP ve Lenet modelleri için 23 hızlandırıcı donanım oluşturulmuştur. Geliştirilen donanımlar, kaynak kullanımı, enerji tüketimleri, alan kullanımları ve başarı oranları açısından kıyaslanmıştır. Lenet modeli için W1A2 niceleme, HM katlama seviyesinde geliştirilen hızlandırıcı FashionMNIST veri setini 6800 FPS hızında sınıflandırmıştır. MLP modeli için W1A1 niceleme seviyesinde geliştirilen donanım MNIST veri setini 950 kFPS hızında sınıflandırmayı başarmıştır. Bu model için saniyede gerçekleştirilen işlem sayısı 1018 GOPs iken tüketilen enerji 2.05 W olarak ölçülmüştür. Güç verimliliği (watt başına işlem sayısı) yaklaşık 496 GOPs/W olarak hesaplanmıştır. Benzer çalışmalarla kıyaslandığında daha iyi performans elde edilmiştir.
The development of smart mobile devices that make life easier is one of the most important application areas of today's technology. While developing such technologies, deep learning (DL) technique is widely used. DL algorithms require billions of floating-point mathematical operations and high memory bandwidth. Hardware accelerators such as graphics processing units (GPU), special integrated circuits (ASIC) and field effect gate arrays (FPGA) are frequently used in DL applications since classical processors with sequential processing are insufficient in DL applications. FPGA accelerators hold a significant part in the realization of DL applications on portable devices. In this thesis, accelerator hardware was developed on the Xilinx PYNQ Z1 development board for multi-layer perception (MLP) and Lenet models. In this study, FINN framework is used to develop QNN accelerator at different quantization levels. Using different combinations of quantization and folding, 23 accelerators were created for the MLP and Lenet models. The accelerators have been compared in terms of resource usage, energy consumption, area usage and success rates. For the Lenet model, a precision of W1A2 classified the accelerator FashionMNIST dataset developed at the CNV high and FC medium folding levels at a speed of 6800 FPS. The hardware developed at the W1A1 quantization level for the MLP model has succeeded in classifying the MNIST dataset at 950 kFPS. The number of operations per second for this model is 1018 GOPs, while the energy consumed is 2,05W. Power efficiency is calculated at approximately 496 GOPs/W, in comparison to existing studies achieving a better performance.