Karabuk University

A NEOTERIC EVALUATION OF DEEP REINFORCEMENT LEARNING ALGORITHMS UTILIZING GAME CONCEPTS

Show simple item record

dc.contributor.author ALI SHER, ZABIULLAH
dc.date.accessioned 2024-08-05T12:40:19Z
dc.date.available 2024-08-05T12:40:19Z
dc.date.issued 2024-06
dc.identifier.uri http://acikerisim.karabuk.edu.tr:8080/xmlui/handle/123456789/3475
dc.description.abstract ABSTRACT This study developed an innovative Deep Reinforcement Learning (DRL) approach applied to the Chrome Dino Run. Unlike traditional methods using pixel-based images, this study transforms the state representation to include x and y coordinates and the width and height of the game obstacles. This departure aims to streamline learning, improve DRL efficiency, and reduce computational costs. By emphasizing essential features in the state representation, such as cacti and birds’ precise coordinates, the model learns more efficiently and generalizes better across various game scenarios. Integrated with DRL algorithms like Deep Q-Network (DQN), the proposed method demonstrates competitive performance while being computationally more efficient. The abstraction of the game state to essential elements, such as object coordinates, not only enhances the efficiency of the learning but also provides a more interpretable representation. This interpretability fosters a deeper understanding of the learned policies, shedding light on the decision-making process of the DRL agent. By concentrating on key features directly influencing decision-making, the study suggests that abstract state representations simplify the learning process and enhance the generalization capabilities of the DRL model. ÖZET Bu çalışma, Chrome Dino Run'a uygulanan yenilikçi bir Derin Güçlendirme Öğrenme (DRL) yaklaşımı geliştirdi. Piksel tabanlı görüntüler kullanan geleneksel yöntemlerden farklı olarak bu çalışma, durum temsilini x ve y koordinatlarını ve oyun engellerinin genişlik ve yüksekliğini içerecek şekilde dönüştürüyor. Bu ayrılma, öğrenmeyi kolaylaştırmayı, DRL verimliliğini artırmayı ve hesaplama maliyetlerini azaltmayı amaçlamaktadır. Model, kaktüsler ve kuşların kesin koordinatları gibi durum temsilindeki temel özellikleri vurgulayarak daha verimli öğrenir ve çeşitli oyun senaryolarında daha iyi genelleme yapar. Deep Q-Network (DQN) gibi DRL algoritmalarıyla entegre edilen önerilen yöntem, hesaplama açısından daha verimli olmasının yanı sıra rekabetçi bir performans sergiliyor. Oyun durumunun nesne koordinatları gibi temel unsurlara soyutlanması yalnızca öğrenmenin verimliliğini arttırmakla kalmaz, aynı zamanda daha yorumlanabilir bir temsil sağlar. Bu yorumlanabilirlik, öğrenilen politikaların daha derinlemesine anlaşılmasını teşvik ederek DRL temsilcisinin karar verme sürecine ışık tutar. Karar almayı doğrudan etkileyen temel özelliklere odaklanan çalışma, soyut durum temsillerinin öğrenme sürecini basitleştirdiğini ve DRL modelinin genelleme yeteneklerini geliştirdiğini öne sürüyor. en_EN
dc.language.iso en en_EN
dc.subject Reinforcement Learning, Double DQN, Chrome Dino Run, Deep Neural Networks, Obstacle Coordinates, Exploration-Exploitation, Bellman Equation. en_EN
dc.subject Takviyeli Öğrenme, Çift DQN, Chrome Dino Koşusu, Derin Sinir Ağları, Engel Koordinatları, Keşif-Kullanım, Bellman Denklemi. en_EN
dc.title A NEOTERIC EVALUATION OF DEEP REINFORCEMENT LEARNING ALGORITHMS UTILIZING GAME CONCEPTS en_EN
dc.title.alternative OYUN KAVRAMLARINDAN YARARLANAN DERİN PEKİŞTİRMELİ ÖĞRENME ALGORİTMALARININ NEOTERİK BİR DEĞERLENDİRMESİ en_EN
dc.type Thesis en_EN


Files in this item

This item appears in the following Collection(s)

Show simple item record

Search DSpace


Advanced Search

Browse

My Account