Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/10609/99526
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.authorRawal, Niyati-
dc.date.accessioned2019-07-21T11:18:21Z-
dc.date.available2019-07-21T11:18:21Z-
dc.date.issued2019-07-08-
dc.identifier.urihttp://hdl.handle.net/10609/99526-
dc.description.abstractThe processes underlying important decisions in many areas of our everyday lives are getting increasingly automatized. In the near future, as many decisions would be made by autonomous artificial agents, it would be necessary to ensure that these agents do not cause harm to society. Therefore, artificial agents need to be furnished with a way of acknowledging the moral dimension of their actions. In this study, we use a top-down approach to implement and compare two common moral theories, deontology and utilitarianism, in the same setting. While deontology focuses on the intention behind an action and the nature of an act, utilitarianism emphasizes that an action should be judged solely by the consequences it has and that it should maximize overall good. The differences between both theories need to be captured differently when implementing an artificial moral agent. Inspired by the famous Pac-Man game, we computationally model two moral Pac-Man agents based on top-down rules: a deontological one and a utilitarian one. Besides, we also model an amoral Pac-Man agent that does not take into account any ethical theory when guiding its actions. According to the theory of dyadic morality, every moral or immoral act involves an agent and a patient. In our Pac-Man world, we have an agent helping or harming a patient for every moral or immoral act. The amoral Pac-Man agent does not take into account whether its action would help or harm the patient. The deontological Pac-Man agent constrains its behavior depending on a set of prohibited actions and duties. On the contrary, the utilitarian Pac-Man agent evaluates the happiness and pain of the actions at hand to maximize the happiness, while trying to avoid unnecessary evils when possible. After implementing the agents, we compare their behaviour in the Pac-Man world. While the deontological Pac-Man agent may sometimes have to face conflict between succeeding and sticking to its value of always doing the right thing, the utilitarian Pac-Man agent always manages to succeed. In this study, we discuss the conflicts that arise for each moral agent, between their values and the goals of the game in different scenarios.en
dc.description.abstractLos procesos relacionados con nuestra vida cotidiana se están automatizando cada vez más. En un futuro cercano, muchas decisiones serán tomadas por agentes artificiales autónomos, y será necesario asegurar que estos agentes no causen daño a la sociedad. Por lo tanto, éstos necesitarán una forma de reconocer la dimensión moral de sus acciones. En este estudio, implementaremos y compararemos dos teorías morales comunes, la deontología y el utilitarismo en el mismo entorno. Mientras que la deontología se enfoca en la intención detrás de una acción y la naturaleza de un acto, el utilitarismo enfatiza en que una acción debe juzgarse únicamente por las consecuencias que tiene y que debe maximizar el bien general. Las diferencias entre ambas teorías deben ser capturadas de manera diferente al implementar un agente moral artificial. Inspirados en el famoso juego Pac-Man, modelaremos computacionalmente dos agentes morales de Pac-Man: uno deontológico y uno utilitario. Además, también modelaremos un agente amoral de Pac-Man que no tendrá en cuenta ninguna teoría ética al guiar sus acciones. Después de implementar los agentes, compararemos su comportamiento en el mundo de Pac-Man. Si bien el agente deontológico de Pac-Man a veces se tiene que enfrentar en un conflicto entre tener éxito y apegarse a su valor de hacer siempre lo correcto, el agente utilitario de Pac-Man siempre logra tener éxito. En este estudio, discutiremos los conflictos que surgen y los objetivos del juego en diferentes escenarios.es
dc.description.abstractEls processos relacionats amb la nostra vida quotidiana s'estan automatitzant cada vegada més. En un futur pròxim, moltes decisions seran preses per agents artificials autònoms, i caldrà assegurar que aquests agents no causin cap mal a la societat. Per tant, aquests necessitaran una forma de reconèixer la dimensió moral de les seves accions. En aquest estudi, implementarem i compararem dues teories morals comunes, la deontologia i l'utilitarisme; en el mateix entorn. Mentre que la deontologia s'enfoca en la intenció darrere d'una acció i la naturalesa d'un acte, l'utilitarisme emfatitza en què una acció ha de jutjar-se únicament per les conseqüències que té i que ha de maximitzar el bé general. Les diferències entre les dues teories han de ser capturades de manera diferent a l'implementar un agent moral artificial. Inspirats en el famós joc Pac-Man, modelarem computacionalment dos agents morals de Pac-Man: un deontològic i un utilitari. A més, també modelarem un agent amoral de Pac-Man que no tindrà en compte cap teoria ètica en les seves accions. Després d'implementar els agents, compararem el seu comportament en el món de Pac-Man. Si bé l'agent deontològic de Pac-Man de vegades s'ha d'enfrontar en un conflicte entre tenir èxit i apegar al seu valor de fer sempre el correcte, l'agent utilitari de Pac-Man sempre aconseguirà tenir èxit. En aquest estudi, discutirem els conflictes que sorgiran i els objectius del joc en diferents escenaris.ca
dc.format.mimetypeapplication/pdf-
dc.language.isoeng-
dc.publisherUniversitat Oberta de Catalunya (UOC)-
dc.rightsCC BY-NC-ND-
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/es/-
dc.subjectartificial moralityen
dc.subjectknowledge representationen
dc.subjectinformation processingen
dc.subjectmoral artificiales
dc.subjectmoral artificialca
dc.subjectrepresentación del conocimientoes
dc.subjectrepresentació del coneixementca
dc.subjectprocesamiento de la informaciónes
dc.subjectprocessament de la informacióca
dc.subject.lcshKnowledge representation (Information theory) -- TFMen
dc.titleTop-down approach to compare the moral theories of deontology and utilitarianism in Pac-Man game setting-
dc.typeinfo:eu-repo/semantics/masterThesis-
dc.audience.educationlevelEstudis de Màsterca
dc.audience.educationlevelEstudios de Másteres
dc.audience.educationlevelMaster's degreesen
dc.subject.lemacRepresentació del coneixement (Teoria de la informació) -- TFMca
dc.subject.lcshesRepresentación del conocimiento (Teoría de la información) -- TFMes
dc.contributor.tutorCasas-Roma, Joan-
dc.rights.accessRightsinfo:eu-repo/semantics/openAccess-
Aparece en las colecciones: Bachelor thesis, research projects, etc.

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
nrawalTFM0719memory.pdfMemory of TFM209,02 kBAdobe PDFVista previa
Visualizar/Abrir
nrawalTFM0719presentation.pdfPresentation of TFM4,05 MBAdobe PDFVista previa
Visualizar/Abrir