Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/10609/151014
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.authorBallarín, P.-
dc.date.accessioned2024-07-23T08:18:34Z-
dc.date.available2024-07-23T08:18:34Z-
dc.date.issued2024-06-17-
dc.identifier.urihttp://hdl.handle.net/10609/151014-
dc.description.abstractLa Inteligencia Artificial (IA) no sólo representa una de las tecnologías más decisivas, también ha supuesto la irrupción de nuevos impactos sociales, políticos y medioambientales. En los últimos años los gobiernos han desarrollado legislaciones con el objetivo de controlar dichos impactos, incluyendo aspectos éticos. El presente trabajo analiza la forma en la que se lleva a cabo el proceso creación de marcos éticos de la IA mediante un análisis comparativo de las legislaciones desarrolladas en China, Estados Unidos y la Unión Europea. Existen tres factores sociales que son decisivos a la hora de interpretar los principios éticos que son comunes a todas ellas: la visión que cada contexto tiene de la naturaleza de la IA, los factores culturales y la política. En todos estos contextos se extraen principios a partir de las teorías éticas normativas que más influencia tienen (confucianismo, utilitarismo, deontología), dichos principios se modulan en base a factores locales, y para terminar se busca un equilibrio entre su desarrollo y control regulatorio según los objetivos económicos y militares de cada estado. Esta forma de proceder deja al descubierto vacíos importantes en las legislaciones ya que en todas ellas se omiten aspectos éticos fundamentales, y pone de manifiesto las dificultades por parte de los desarrolladores a la hora de integrar los principios en los algoritmos. Si bien pudiera parecer que la ética no tiene razón de ser, en realidad cumple un papel fundamental de legitimación del desarrollo de esta tecnología, lo cual puede interpretarse en clave de la teoría del actor-red de Bruno Latour. Para terminar, se exploran alternativas al modelo actual de legislación imperante, a través de visiones más holísticas como las de Bruno Latour o Donna Haraway que integran actores no humanos y promuevan una cultura ética tanto en los gobiernos como en las empresas.es
dc.format.mimetypeapplication/pdfca
dc.language.isospaca
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/es/-
dc.subjectInteligencia Artificiales
dc.subjectéticaes
dc.subjectlegislaciónes
dc.subjectfactores socialeses
dc.subjectactores
dc.titleLos factores sociales en la construcción de la ética de la Inteligencia Artificialca
dc.title.alternativeCausas e implicaciones de las estrategias regulatorias de la IA en China, Estados Unidos y la Unión Europeaca
dc.typeinfo:eu-repo/semantics/masterThesisca
dc.contributor.directorTabarés, R.-
dc.contributor.tutorAibar, E.-
Aparece en las colecciones: Trabajos finales de carrera, trabajos de investigación, etc.

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
PabloBallarin_TFM.pdfLos factores sociales en la construcción de la ética de la Inteligencia Artificial. Causas e implicaciones de las estrategias regulatorias de la IA en China, Estados Unidos y la Unión Europea1,52 MBAdobe PDFVista previa
Visualizar/Abrir
Comparte:
Exporta:
Consulta las estadísticas

Los ítems del Repositorio están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.