Por favor, use este identificador para citar o enlazar este ítem:
http://hdl.handle.net/10609/122766
Título : | Aprendiendo de la memoria RAM de la NES |
Autoría: | Barajas Higuera, Daniel |
Director: | Ventura, Carles ![]() |
Tutor: | Kanaan-Izquierdo, Samir ![]() |
Resumen : | En este proyecto se experimentó con algoritmos de aprendizaje por refuerzo jugando Donkey Kong, Ice Climber, Kung Fu, Super Mario Bros y Metroid de la consola NES. El algoritmo DQN y sus variantes como Doble DQN y Dueling DQN fueron usados para experimentar con la representación de estados mediante la RAM. Se proponen algunas estrategias para reducir la dimensionalidad de los estados y las acciones. También se proponen funciones de recompensa para crear un agente fácil de entrenar con pocos recursos computacionales. Se probaron dos maneras de reducir la dimensión de la RAM, el mapa de la RAM funcionó bien sólo en fase de entrenamiento mientras que el método de los bytes activados consiguió mejores resultados. |
Palabras clave : | RAM Q-learning profundo NES |
Tipo de documento: | info:eu-repo/semantics/masterThesis |
Fecha de publicación : | 15-sep-2020 |
Licencia de publicación: | http://creativecommons.org/licenses/by-nc-nd/3.0/es/ ![]() |
Aparece en las colecciones: | Bachelor thesis, research projects, etc. |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
dbarajasTFM0920memoria.pdf | Memoria del TFM | 12,3 MB | Adobe PDF | ![]() Visualizar/Abrir |
Comparte:


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons