Empreu aquest identificador per citar o enllaçar aquest ítem:
http://hdl.handle.net/10609/152174
Títol: | Agentes de Inteligencia Artificial en Seguridad Ofensiva |
Autoria: | Perez Gallardo, Juan |
Director: | Andreu Pere, Isern-Deya |
Tutor: | Pau, Perea Paños Jorge Miguel, Moneo |
Resum: | En un mundo cada vez más conectado, la ciberseguridad se ha convertido en un pilar fundamental para proteger los sistemas de información y los datos que manejan. La creciente sofisticación de las amenazas requiere enfoques innovadores que aseguren la integridad y confidencialidad de la información. La seguridad ofensiva, a través de técnicas como el pentesting o prueba de penetración, permite identificar posibles vectores de ataque mediante simulaciones controladas, reforzando la postura de seguridad de organizaciones y sistemas.
Al mismo tiempo, los avances recientes en inteligencia artificial, especialmente en los grandes modelos de lenguaje (LLMs), están abriendo nuevas posibilidades para optimizar y automatizar tareas complejas en numerosos sectores, incluyendo la ciberseguridad. Estos modelos, con su capacidad de razonar y generar texto, pueden revolucionar la detección de vulnerabilidades y la automatización de pruebas de seguridad, reduciendo significativamente la dependencia de procesos manuales.
El objetivo de este trabajo es investigar la aplicabilidad y el impacto de los LLMs en el pentesting, evaluando la efectividad, facilidad de uso y coste de diversas herramientas asistidas por LLM en la detección de vulnerabilidades dentro de un entorno controlado. Además, se analiza su potencial como recurso educativo para la formación en hacking ético, junto con las implicaciones éticas, sociales y ambientales asociadas al uso de estas tecnologías.
Con este estudio, se busca ofrecer una perspectiva crítica y contribuir al avance de la investigación sobre la integración de inteligencia artificial en la seguridad ofensiva, explorando las fortalezas y limitaciones de los LLMs en este ámbito. In an increasingly connected world, cybersecurity has become a cornerstone for protecting information systems and the data they handle. The growing sophistication of threats demands innovative approaches that ensure the integrity and confidentiality of information. Offensive security, through techniques such as penetration testing (pentesting), enables the identification of potential attack vectors via controlled simulations, strengthening the security posture of organizations and systems. Simultaneously, recent advances in artificial intelligence, particularly in large language models (LLMs), are opening new opportunities to optimize and automate complex tasks across various sectors, including cybersecurity. These models, with their ability to reason and generate text, have the potential to revolutionize vulnerability detection and the automation of security tests, significantly reducing reliance on manual processes. The objective of this work is to investigate the applicability and impact of LLMs in pentesting, evaluating the effectiveness, usability, and cost of various LLM-assisted tools for detecting vulnerabilities within a controlled environment. Additionally, it examines their potential as an educational resource for ethical hacking training, along with the ethical, social, and environmental implications associated with the use of these technologies. Through this study, the aim is to provide a critical perspective and contribute to advancing research on the integration of artificial intelligence in offensive security, exploring the strengths and limitations of LLMs in this domain. |
Paraules clau: | Pentesting Agente LLM Seguridad Ofensiva Inteligencia Artificial Hacking Ético |
Tipus de document: | info:eu-repo/semantics/bachelorThesis |
Data de publicació: | 7-gen-2025 |
Llicència de publicació: | http://creativecommons.org/licenses/by-nc-nd/3.0/es/ ![]() |
Apareix a les col·leccions: | Treballs finals de carrera, treballs de recerca, etc. |
Arxius per aquest ítem:
Arxiu | Descripció | Mida | Format | |
---|---|---|---|---|
jperezgallaTFG0125.pdf | Trabajo Final de Grado | 2,35 MB | Adobe PDF | ![]() Veure/Obrir |
Comparteix:


Els ítems del Repositori es troben protegits per copyright, amb tots els drets reservats, sempre i quan no s’indiqui el contrari.