Muñoz Fernandez, Natalia2024-12-212024-12-212024-07-03https://hdl.handle.net/10609/151694Con la popularización de los dispositivos móviles, la capacidad de creación y viralización de contenidos en las redes sociales, y el despegue exponencial de la inteligencia artificial generativa, la desinformación se ha convertido en una de las mayores amenazas actuales para el derecho a una información veraz de la ciudadanía, garante imprescindible de la democracia. Ante las dificultades de abordar mediante legislación este problema de dimensiones globales, el presente trabajo pretende aportar una visión de las posibilidades y limitaciones de las tecnologías emergentes para detectar contenidos falsos de forma automática. Para ello, se ha aplicado una metodología en diferentes pasos. En primer lugar, se aplican métodos de revisión de la literatura para recoger una muestra significativa de trabajos académicos que hayan abordado el tema en los últimos años (n = 131 artículos). Posteriormente, se clasifica cada uno de los artículos en función de diferentes parámetros como la tecnología y los métodos aplicados para obtener datos cuantitativos sobre los que extraer conclusiones. Los resultados revelan un predominio rotundo de los estudios basados en inteligencia artificial, concretamente en modelos de aprendizaje automático, aprendizaje profundo y procesamiento del lenguaje natural, con un enfoque mayoritariamente centrado en el contenido textual. Las limitaciones de estas propuestas residen en la necesidad de grandes volúmenes de datos para entrenar a los modelos y los consecuentes sesgos de contar mayoritariamente con datasets limitados en idioma, actualidad y temática, además de la necesidad de abordar enfoques multimodales, tendencia en el consumo informativo actual.With the popularization of mobile devices, the capacity for content creation and virality on social networks, and the exponential rise of generative artificial intelligence, misinformation has become one of the greatest current threats to the public's right to truthful information, an essential guarantor of democracy. Given the difficulties of addressing this global issue through legislation, this work aims to provide an overview of the possibilities and limitations of emerging technologies for automatically detecting false content. To this end, a multi-step methodology was applied. First, literature review methods were used to collect a significant sample of academic works that have addressed the topic in recent years (n = 131 articles). Subsequently, each article was classified based on various parameters such as the technology and methods applied to obtain quantitative data from which to draw conclusions. The results reveal a clear predominance of studies based on artificial intelligence, specifically in machine learning models, deep learning, and natural language processing, with a focus mainly on textual content. The limitations of these approaches lie in the need for large volumes of data to train the models and the consequent biases of predominantly having datasets limited in language, relevance, and topic, in addition to the need to address multimodal approaches, a trend in current information consumption.application/pdfspaCC BY-NC-NDhttp://creativecommons.org/licenses/by-nc-nd/3.0/es/procesamiento del lenguaje naturalmisinformationnatural language processingaprendizaje automáticomachine learningdesinformaciónfake newsinteligencia artificialartificial intelligencefake newsDisinformation -- TFMTecnologías emergentes para la detección de la desinformación digital. Propuestas actuales y desafíosinfo:eu-repo/semantics/masterThesisDesinformació -- TFMinfo:eu-repo/semantics/openAccess