Por favor, use este identificador para citar o enlazar este ítem:
http://hdl.handle.net/10609/151549
Título : | ¿Discriminadas sistemáticamente por los algoritmos? Un estudio preliminar del impacto del uso de herramientas de selección de talento alimentadas/potenciadas por IA (Inteligencia Artificial) |
Otros títulos : | Systematically discriminated by algorithms? A preliminary study on the impact of AI-powered hiring tools |
Autoría: | Martinez Elmasri, Azahar |
Tutor: | Palmen, Rachel ![]() |
Resumen : | Desde la explosión de la IA generativa con el lanzamiento de ChatGPT, la actividad económica que ya estaba en proceso de digitalización, automatización y robotización ha vuelto a revolucionarse. La expansión e implicaciones de esta nueva tecnología disruptiva se han notado en sectores muy diversos y los departamentos de gestión de personas no son ajenos a estas transformaciones. En el presente estudio nos cuestionamos e indagamos sobre la utilidad y potencialidad de las herramientas con IA empleadas en atracción y selección de personas, sirviéndonos de la metodología cualitativa. Ante el previsible aumento exponencial de la oferta de servicios y productos con IA que, bajo el pretexto de agilizar y optimizar la selección y proporcionar una mayor diversidad, combatiendo los sesgos inconscientes, tienten a los departamentos a adquirir este tipo de herramientas, invitamos a reflexionar de manera crítica, con perspectiva de género e interseccionalidad acerca del impacto de estas tecnologías. Con este fin, analizamos desde una óptica tecno-feminista y constructivista la emergencia de la IA, cómo las discriminaciones permean los diseños y datasets, el marco normativo existente y su potencialidad como herramienta que fomente la diversidad en las organizaciones. Ahondamos de la mano de colaboradores/as clave tanto del mundo del diseño de la IA y la gestión de datos, como del área de People & Culture, realizando un Focus Group y nueve entrevistas en profundidad. Estas dinámicas nos ayudan a alcanzar unas conclusiones y recomendar una serie de buenas prácticas, entre las que destacan el empleo de IA Explicable, o IAs generadas en el marco del Design Thinking/Justice, al igual que prestar especial atención y auditar el procesado de los datos que la IA ingesta. |
Palabras clave : | IA ética; sesgo género; DEI; selección; cualitativa; interseccionalidad |
Tipo de documento: | info:eu-repo/semantics/masterThesis |
Fecha de publicación : | 25-feb-2024 |
Licencia de publicación: | http://creativecommons.org/licenses/by-nc-nd/3.0/es/ ![]() |
Aparece en las colecciones: | Treballs finals de carrera, treballs de recerca, etc. |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
azaharmeTFM0624memoria.pdf | Memoria del TFM | 8,18 MB | Adobe PDF | ![]() Visualizar/Abrir |
azaharmeTFM0624abstract.pdf | Abstract aprobado del TFM | 465,55 kB | Adobe PDF | ![]() Visualizar/Abrir |
azaharmeTFM0624poster.pdf | Poster del TFM | 667,47 kB | Adobe PDF | ![]() Visualizar/Abrir |
Comparte:


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons