Revista Científica Ciencia y Método | Vol.02 | Núm.04 | OctDic | 2024 | www.revistacym.com pág. 50
Estrategias de diversidad e inclusión en procesos de
reclutamiento asistidos por IA
Diversity and inclusion strategies in AI-assisted recruitment
processes
Jara-Álvarez, Gonzalo Xavier
1
Salgado-Ortiz, Patricia Janella
2
https://orcid.org/0009-0003-5151-8432
https://orcid.org/0000-0002-5366-7330
gonzalo.jara.alvarez@utelvt.edu.ec
patricia.salgado@utelvt.edu.ec
Universidad Técnica Luis Vargas Torres de
Esmeraldas, Ecuador, La Concordia.
Universidad Técnica Luis Vargas Torres de
Esmeraldas, Ecuador, La Concordia.
Santander-Salmon, Erika Stephania
3
Quiñonez-Cabeza, Betty Maribel
4
https://orcid.org/0000-0003-3279-5250
https://orcid.org/0000-0002-3964-2153
erika.santander@utelvt.edu.ec
betty.quinonez@utelvt.edu.ec
Universidad Técnica Luis Vargas Torres de
Esmeraldas, Ecuador, La Concordia.
Universidad Técnica Luis Vargas Torres de
Esmeraldas, Ecuador, La Concordia.
Autor de correspondencia
1
DOI / URL: https://doi.org/10.55813/gaea/rcym/v2/n4/53
Resumen: El estudio explora críticamente el impacto de
la inteligencia artificial en los procesos de reclutamiento,
centrándose en su capacidad para reproducir sesgos
históricos que afectan la diversidad laboral. Mediante
una revisión bibliográfica de investigaciones y
documentos normativos entre 2013 y 2024, se
identificaron estrategias orientadas a mitigar el sesgo
algorítmico, incluyendo auditorías de equidad, uso de
datos balanceados, técnicas de desbiasado y formación
de equipos multidisciplinarios. Los hallazgos revelan que
ninguna medida aislada resulta suficiente y que el
despliegue efectivo requiere combinar prácticas técnicas
y marcos organizacionales comprometidos con la
transparencia y la equidad. Se concluye que la adopción
responsable de IA en reclutamiento depende de articular
innovación tecnológica con principios éticos sólidos,
enfatizando la necesidad de políticas inclusivas,
procesos auditables y la integración de perspectivas
diversas para garantizar oportunidades equitativas en la
selección de talento.
Palabras clave: inteligencia artificial; reclutamiento
inclusivo; sesgo algorítmico; auditoría de equidad;
diversidad laboral.
Artículo Científico
Received: 15/Nov/2024
Accepted: 02/Dic/2024
Published: 29/Dic/2024
Cita: Jara-Álvarez, G. X., Salgado-Ortiz, P.
J., Santander-Salmon, E. S., & Quiñonez-
Cabeza, B. M. (2024). Estrategias de
diversidad e inclusión en procesos de
reclutamiento asistidos por IA. Revista
Científica Ciencia Y Método, 2(4), 50-
62. https://doi.org/10.55813/gaea/rcym/v2/n
4/53
Revista Científica Ciencia y Método (RCyM)
https://revistacym.com
revistacym@editorialgrupo-aea.com
info@editoriagrupo-aea.com
© 2024. Este artículo es un documento de
acceso abierto distribuido bajo los términos
y condiciones de la Licencia Creative
Commons, Atribución-NoComercial 4.0
Internacional.
Revista Científica Ciencia y Método | Vol.02 | Núm.04 | OctDic | 2024 | www.revistacym.com pág. 51
OctubreDiciembre 2024
Abstract:
The study critically explores the impact of artificial intelligence on recruitment
processes, focusing on its ability to reproduce historical biases that affect employment
diversity. Through a literature review of research and policy documents between 2013
and 2024, strategies aimed at mitigating algorithmic bias were identified, including
fairness audits, use of balanced data, de-biasing techniques, and multidisciplinary
team building. The findings reveal that no single measure is sufficient and that effective
deployment requires a combination of technical practices and organizational
frameworks committed to transparency and equity. It is concluded that the responsible
adoption of AI in recruitment depends on articulating technological innovation with
sound ethical principles, emphasizing the need for inclusive policies, auditable
processes and the integration of diverse perspectives to ensure equitable opportunities
in talent selection.
Keywords: artificial intelligence; inclusive recruitment; algorithmic bias; equity
auditing; workforce diversity.
1. Introducción
La creciente incorporación de sistemas de inteligencia artificial (IA) en los procesos de
reclutamiento representa uno de los cambios más significativos en la gestión del
talento humano de las últimas décadas. Estas tecnologías prometen optimizar la
identificación y selección de candidatos mediante algoritmos de aprendizaje
automático y procesamiento de lenguaje natural que permiten filtrar grandes
volúmenes de datos en tiempos reducidos (van Esch et al., 2019). No obstante, esta
evolución tecnológica plantea interrogantes sustanciales sobre su impacto en la
promoción de la diversidad y la inclusión laboral, dado que múltiples investigaciones
han evidenciado que los sistemas de IA, al ser entrenados con datos históricos,
pueden perpetuar o incluso amplificar sesgos discriminatorios preexistentes en las
organizaciones (Raghavan et al., 2020). El problema central radica en la tensión entre
la eficiencia que aportan estas herramientas y su potencial para reproducir patrones
de exclusión, limitando el acceso equitativo de grupos tradicionalmente
subrepresentados, tales como mujeres, personas con discapacidades o minorías
étnicas, a oportunidades laborales de calidad (Bogen & Rieke, 2018).
Diversos factores contribuyen a la persistencia de este problema. Entre los más
relevantes se encuentran el sesgo algorítmico, derivado de datos de entrenamiento
no balanceados, y la opacidad de los modelos predictivos empleados, que dificultan
la auditoría y la explicación de las decisiones de selección (Mehrabi et al., 2021).
Asimismo, la falta de regulaciones específicas y de marcos de gobernanza que
orienten el uso ético de la IA en recursos humanos agrava la situación, generando un
entorno de incertidumbre normativa y de escasa rendición de cuentas (Kim, 2022).
Revista Científica Ciencia y Método | Vol.02 | Núm.04 | OctDic | 2024 | www.revistacym.com pág. 52
OctubreDiciembre 2024
Estas afectaciones tienen consecuencias directas sobre la cohesión organizacional,
la percepción de justicia procedimental entre los postulantes y la reputación
corporativa, factores que inciden de manera crítica en la sostenibilidad de las
estrategias de talento a largo plazo (Calvard & Jeske, 2018).
La relevancia de estudiar este fenómeno estriba en su implicancia no solo para la
eficacia de los procesos de reclutamiento, sino para la configuración de culturas
laborales inclusivas que respondan a las demandas sociales de equidad y respeto por
la diversidad. Justamente, la viabilidad de adoptar estrategias que mitiguen el sesgo
algorítmico resulta factible mediante la implementación de metodologías de auditoría
algorítmica, el desarrollo de criterios de transparencia y la aplicación de principios de
diseño centrados en el ser humano (Raji et al., 2020). A su vez, la creciente
disponibilidad de investigaciones empíricas y marcos normativos en desarrollo, como
las directrices de la Unión Europea sobre IA confiable, ofrecen un contexto propicio
para avanzar en la adopción de prácticas responsables (European Commission,
2021). Por ello, resulta oportuno realizar una revisión exhaustiva de la literatura
científica actual que permita identificar, categorizar y analizar críticamente las
estrategias orientadas a promover la diversidad y la inclusión en los procesos de
reclutamiento asistidos por IA.
El objetivo principal de este estudio es sistematizar el conocimiento disponible sobre
las prácticas y enfoques emergentes que buscan equilibrar la eficiencia tecnológica
con el compromiso ético de reducir las desigualdades en el acceso al empleo. Al
compilar y analizar las evidencias existentes, se pretende ofrecer un panorama
comprensivo que facilite el diseño de políticas organizacionales informadas,
contribuyendo así a la consolidación de procesos de selección más transparentes,
inclusivos y justos en entornos mediados por inteligencia artificial.
2. Materiales y métodos
La presente investigación se desarrolló bajo un enfoque exploratorio de revisión
bibliográfica, orientado a identificar, describir y sistematizar las estrategias propuestas
y aplicadas para promover la diversidad y la inclusión en los procesos de reclutamiento
mediados por sistemas de inteligencia artificial. Este enfoque permitió recopilar y
analizar la evidencia científica existente, así como los lineamientos normativos y los
informes técnicos publicados por organismos internacionales, con el propósito de
conformar una visión integradora del estado actual del conocimiento sobre la materia.
Para la selección de la literatura se definieron criterios de inclusión que contemplaron
artículos científicos publicados en revistas indexadas en bases de datos de prestigio,
como Scopus y Web of Science, en el periodo comprendido entre 2013 y 2024. Se
priorizaron estudios empíricos, revisiones sistemáticas, reportes técnicos y
documentos de organismos de regulación tecnológica que abordaran, de manera
explícita, las prácticas orientadas a mitigar sesgos algorítmicos, promover la equidad
Revista Científica Ciencia y Método | Vol.02 | Núm.04 | OctDic | 2024 | www.revistacym.com pág. 53
OctubreDiciembre 2024
de oportunidades y garantizar la transparencia de los procesos de selección asistidos
por inteligencia artificial. Asimismo, se consideraron contribuciones que examinaran
los impactos éticos y organizacionales derivados de la aplicación de dichos sistemas.
La búsqueda bibliográfica se efectuó mediante el uso de palabras clave y operadores
booleanos que combinaron términos relacionados con inteligencia artificial,
reclutamiento, sesgo, diversidad, inclusión y auditoría algorítmica. Entre los
descriptores empleados se incluyeron expresiones como “AI recruitment”, “algorithmic
bias”, “inclusive hiring”, “diversity strategies” y “fairness in machine learning”. Estas
combinaciones se aplicaron en los motores de búsqueda especializados de cada base
de datos, con el fin de maximizar la exhaustividad de los resultados y minimizar la
omisión de publicaciones relevantes.
Una vez obtenidos los registros, se procedió a la depuración y análisis preliminar de
los títulos y resúmenes, descartando aquellos documentos que no se encontraran
directamente relacionados con el objeto de estudio o que carecieran de pertinencia
temática. Posteriormente, se efectuó una lectura integral de los textos completos
seleccionados, lo que permitió clasificar las evidencias conforme a categorías
analíticas predefinidas: estrategias de mitigación del sesgo, prácticas de transparencia
y explicabilidad, mecanismos de evaluación y control, y experiencias organizacionales
en la adopción de tecnologías inclusivas.
El procedimiento de análisis se desarrolló de manera cualitativa, mediante un proceso
de codificación abierta y axial, orientado a identificar patrones recurrentes,
convergencias teóricas y vacíos de conocimiento presentes en la literatura revisada.
Para garantizar la rigurosidad del proceso, se elaboró una matriz de sistematización
de información que permitió organizar los principales hallazgos en relación con los
objetivos del estudio. Finalmente, se realizó una síntesis narrativa de los resultados,
con el propósito de ofrecer una visión comprensiva y argumentada de las principales
estrategias emergentes y de los desafíos asociados a la promoción de la diversidad e
inclusión en entornos de reclutamiento asistidos por inteligencia artificial.
3. Resultados
3.1. Mitigación del sesgo algorítmico
El sesgo algorítmico constituye una de las problemáticas más relevantes en la
adopción de sistemas de inteligencia artificial para el reclutamiento, ya que la
perpetuación de desigualdades históricas a través de modelos predictivos puede
erosionar la confianza pública, afectar la legitimidad de los procesos y desencadenar
consecuencias legales y reputacionales adversas. En este sentido, la literatura
científica y los marcos de gobernanza han propuesto cuatro estrategias esenciales
para reducir estos riesgos: la implementación de auditorías para detectar sesgos, el
uso de datos balanceados, la aplicación de técnicas de desbiasado y la conformación
de equipos multidisciplinarios.
Revista Científica Ciencia y Método | Vol.02 | Núm.04 | OctDic | 2024 | www.revistacym.com pág. 54
OctubreDiciembre 2024
3.1.1. Auditorías para detectar sesgos
Las auditorías algorítmicas son procesos sistemáticos de evaluación cuyo propósito
es identificar y documentar posibles desigualdades en el rendimiento y la toma de
decisiones de los modelos de IA. Este procedimiento se basa en el análisis
comparativo del comportamiento del sistema en distintos subgrupos demográficos, así
como en la verificación de las métricas de equidad definidas previamente (Raji et al.,
2020), la figura 1 nos indica que la auditoría algorítmica es un procedimiento
fundamental para garantizar que los sistemas de inteligencia artificial empleados en
la selección de personal operen de manera justa e inclusiva.
Figura 1
Proceso de Auditoría Algorítmica en Reclutamiento
Nota: La implementación rigurosa de auditorías algorítmicas fortalece la transparencia organizacional
y contribuye a mitigar el sesgo discriminatorio en los procesos de contratación automatizados (Autores,
2024).
Herramientas como Aequitas, desarrolladas por investigadores de Data Science for
Social Good, proporcionan un marco metodológico para calcular indicadores como la
paridad de falsos positivos, la tasa de selección y la equidad predictiva, que permiten
evaluar con rigor la distribución de resultados (Saleiro et al., 2018). Adicionalmente,
en algunos entornos corporativos se han incorporado auditorías externas
independientes con el objetivo de fortalecer la transparencia y la rendición de cuentas
ante posibles cuestionamientos sociales (Raji & Buolamwini, 2019).
Por ejemplo, Raji y colaboradores (2020) destacan que una auditoría robusta no solo
considera la etapa final de predicción, sino que examina todas las fases del pipeline
de datos, incluyendo la recolección, el preprocesamiento, el entrenamiento y la
validación del modelo. Esta perspectiva integral resulta fundamental, pues muchos de
los sesgos más insidiosos emergen en fases tempranas del ciclo de vida de la
inteligencia artificial, donde suelen pasar desapercibidos.
Revista Científica Ciencia y Método | Vol.02 | Núm.04 | OctDic | 2024 | www.revistacym.com pág. 55
OctubreDiciembre 2024
3.1.2. Uso de datos balanceados
Una de las principales causas del sesgo algorítmico radica en la utilización de datos
históricos que reflejan desigualdades sistémicas. Por ello, el uso de datasets
balanceados es un principio esencial para promover la equidad en los sistemas de
reclutamiento automatizado. Buolamwini y Gebru (2018) demostraron que los
sistemas comerciales de reconocimiento facial exhibían tasas de error superiores al
30% en mujeres de piel oscura debido a conjuntos de entrenamiento
desproporcionadamente dominados por rostros masculinos y de tez clara.
Este hallazgo motivó la adopción de estrategias de muestreo estratificado y
enriquecimiento de datos con ejemplos representativos de grupos subrepresentados.
En el ámbito del reclutamiento, se recomienda incorporar registros históricos que
reflejen una variedad demográfica, profesional y geográfica, así como asegurar la
diversidad de variables sociodemográficas relevantes (Ferrara, 2024).
Además, las directrices europeas sobre inteligencia artificial confiable subrayan que
la transparencia en la procedencia de los datos y la documentación de los criterios de
selección constituyen requisitos indispensables para valorar la legitimidad del proceso
(European Commission, 2021). Este enfoque no solo previene la replicación de
sesgos históricos, sino que contribuye a construir modelos más generalizables y
robustos.
3.1.3. Técnicas de desbiasado
El desbiasado algorítmico comprende un conjunto de metodologías orientadas a
reducir la discriminación en los sistemas de IA mediante intervenciones técnicas que
pueden aplicarse antes, durante o después del entrenamiento. Según Mehrabi et al.
(2021), estas técnicas se clasifican en tres categorías principales:
1. Preprocesamiento, que modifica los datos de entrada mediante reweighting, re-
sampling o generación sintética de ejemplos minoritarios.
2. In-training, que introduce restricciones de equidad en la función de pérdida del
modelo, de manera que la optimización considera simultáneamente precisión y
paridad.
3. Postprocesamiento, que ajusta las predicciones finales aplicando
transformaciones para lograr una distribución equitativa.
En particular, los métodos de reweighting consisten en asignar un peso diferencial a
las instancias durante el entrenamiento, favoreciendo la contribución de registros
menos representados a la optimización del modelo (Kamiran & Calders, 2012). Por su
parte, investigaciones recientes exploran técnicas más avanzadas como el affine
concept editing, que interviene en las activaciones internas de los modelos de lenguaje
grande para suprimir relaciones no deseadas entre atributos demográficos y
resultados (Alameda, 2021).
Revista Científica Ciencia y Método | Vol.02 | Núm.04 | OctDic | 2024 | www.revistacym.com pág. 56
OctubreDiciembre 2024
Estas prácticas permiten reducir la brecha de rendimiento entre subgrupos y fortalecer
la credibilidad de las decisiones algorítmicas. Sin embargo, su implementación
requiere un equilibrio cuidadoso para evitar comprometer la validez predictiva y
generar otros tipos de sesgos indirectos.
3.1.4. Equipos multidisciplinarios
La complejidad ética, técnica y normativa que supone la mitigación del sesgo
algorítmico hace imprescindible la participación de equipos multidisciplinarios en el
diseño y validación de estos sistemas. Kuhlman, Jackson y Chunara (2020)
argumentan que la inclusión de perfiles provenientes de ciencias sociales, derecho,
psicología organizacional y análisis de datos facilita la identificación de riesgos
emergentes y fomenta una comprensión contextualizada de los impactos distributivos
de la IA, en la figura 2 indica la composición de los equipos que desarrollan y
supervisan sistemas de inteligencia artificial influye directamente en la capacidad de
detectar y reducir sesgos discriminatorios.
Figura 2
Diversidad de Equipos y su Impacto en la Mitigación del Sesgo Algorítmico
Nota: Promover equipos multidisciplinarios y diversos mejora sustancialmente la detección de sesgos
y fortalece la transparencia en los procesos algorítmicos (Autores, 2024).
En la práctica, esta colaboración se refleja en la creación de comités internos de
revisión de equidad algorítmica, en los que convergen ingenieros de machine learning,
expertos en diversidad e inclusión y responsables de cumplimiento normativo. El
involucramiento de estos actores permite anticipar escenarios problemáticos, definir
umbrales de equidad aceptables y establecer políticas de respuesta frente a hallazgos
adversos.
La literatura subraya que la composición heterogénea de los equipos de desarrollo no
solo incrementa la calidad técnica de las soluciones, sino que también amplía la
Revista Científica Ciencia y Método | Vol.02 | Núm.04 | OctDic | 2024 | www.revistacym.com pág. 57
OctubreDiciembre 2024
legitimidad social del proceso, promoviendo una mayor aceptación entre los
potenciales usuarios (Raji et al., 2020).
4. Discusión
La evidencia recopilada en esta revisión bibliográfica permite sostener que las
estrategias de mitigación del sesgo algorítmico en los procesos de reclutamiento
basados en inteligencia artificial constituyen un campo de estudio en consolidación,
cuya relevancia es innegable en el contexto contemporáneo de digitalización
acelerada y creciente escrutinio ético sobre las tecnologías emergentes. Diversos
autores coinciden en que la aplicación acrítica de modelos predictivos entrenados con
datos históricos tiende a reproducir disparidades estructurales que comprometen el
principio de igualdad de oportunidades, erosionando con ello la legitimidad y la
confiabilidad de las decisiones de contratación (Buolamwini & Gebru, 2018; Raji et al.,
2020). Este fenómeno, conocido como sesgo algorítmico, no se circunscribe
únicamente al ámbito técnico, sino que conlleva implicaciones sociales, jurídicas y
organizacionales que exigen aproximaciones multidimensionales para su abordaje
efectivo.
La implementación de auditorías sistemáticas de equidad se erige como uno de los
mecanismos más relevantes para identificar, documentar y mitigar las disparidades
en el rendimiento de los modelos. Tal como señalan Saleiro et al. (2018), herramientas
como Aequitas posibilitan un análisis detallado de métricas de paridad que permiten
visibilizar patrones de exclusión invisibilizados en etapas iniciales del desarrollo. No
obstante, la eficacia de estas auditorías depende de la voluntad institucional de asumir
sus resultados como insumo para la corrección continua, aspecto que en la práctica
puede enfrentarse a tensiones derivadas de prioridades comerciales o limitaciones
regulatorias (Raji & Buolamwini, 2019).
Por su parte, el uso de datos balanceados ha demostrado ser un componente esencial
en la reducción de sesgos, dado que la calidad y representatividad de los conjuntos
de entrenamiento condicionan de manera determinante la imparcialidad de los
sistemas resultantes (Ferrara, 2024). La experiencia documentada por Buolamwini y
Gebru (2018) en el ámbito del reconocimiento facial evidencia que la ausencia de
diversidad en los datos puede derivar en tasas de error desproporcionadas para
grupos específicos, con consecuencias éticas y legales relevantes. En este sentido,
la transparencia en la documentación de las fuentes de datos y la implementación de
políticas de gobernanza que garanticen la diversidad demográfica constituyen
requisitos sine qua non para la legitimación social de estos sistemas (European
Commission, 2021).
Las técnicas de desbiasado se han consolidado como una vía complementaria de
intervención que permite mitigar las disparidades residuales mediante ajustes
algorítmicos en distintas fases del ciclo de vida del modelo. La literatura coincide en
Revista Científica Ciencia y Método | Vol.02 | Núm.04 | OctDic | 2024 | www.revistacym.com pág. 58
OctubreDiciembre 2024
que metodologías como el reweighting, el re-sampling y las restricciones en la función
de pérdida representan alternativas viables para aproximarse a la equidad sin
sacrificar de manera significativa el rendimiento predictivo (Kamiran & Calders, 2012;
Mehrabi et al., 2021). Sin embargo, estas técnicas no están exentas de controversias,
pues algunos estudios advierten que su aplicación puede introducir nuevas formas de
discriminación indirecta o generar conflictos con los objetivos de eficiencia y
rentabilidad que persiguen las organizaciones (Raji et al., 2020). Este dilema pone en
relieve la necesidad de establecer marcos normativos que delimiten con claridad los
estándares mínimos de equidad que deben observarse en contextos de alto impacto
social (Alameda, 2021).
En relación con la conformación de equipos multidisciplinarios, se observa un
consenso creciente sobre su pertinencia como estrategia para prevenir sesgos y
anticipar riesgos emergentes. La participación de profesionales provenientes de
disciplinas como el derecho, la psicología organizacional y la sociología favorece la
incorporación de perspectivas críticas y la identificación de puntos ciegos que suelen
pasar inadvertidos en entornos predominantemente técnicos (Kuhlman et al., 2020).
Este enfoque inclusivo no solo contribuye a la legitimidad de los procesos, sino que
también amplía la capacidad de respuesta de las organizaciones frente a eventuales
controversias derivadas del uso de IA en recursos humanos (Raji et al., 2020). No
obstante, la evidencia empírica sugiere que el despliegue efectivo de estos equipos
requiere una cultura organizacional orientada a la ética y el compromiso sostenido con
la equidad, condiciones que no siempre se encuentran garantizadas en todos los
contextos (European Commission, 2021).
En suma, los hallazgos de esta revisión ratifican que la mitigación del sesgo
algorítmico en los procesos de reclutamiento asistidos por inteligencia artificial
demanda la articulación de estrategias técnicas, normativas y organizacionales que
trasciendan la mera optimización de métricas de precisión. La convergencia entre
auditorías rigurosas, datasets representativos, técnicas de desbiasado y enfoques
multidisciplinarios emerge como un enfoque integral con potencial para redefinir los
estándares de equidad en la selección de personal. No obstante, persisten retos
significativos en materia de transparencia, rendición de cuentas y gobernanza, que
constituyen líneas prioritarias de investigación y desarrollo en este campo en
evolución.
5. Conclusiones
Las reflexiones derivadas de este estudio permiten reconocer que la adopción de
estrategias de diversidad e inclusión en procesos de reclutamiento asistidos por
inteligencia artificial no constituye únicamente una tendencia tecnológica, sino una
necesidad inaplazable en la construcción de entornos laborales más equitativos y
sostenibles. El análisis exhaustivo de la literatura científica evidencia que, si bien la
inteligencia artificial ha introducido avances sustanciales en términos de eficiencia y
Revista Científica Ciencia y Método | Vol.02 | Núm.04 | OctDic | 2024 | www.revistacym.com pág. 59
OctubreDiciembre 2024
capacidad predictiva en la selección de personal, su implementación conlleva riesgos
latentes de replicar sesgos históricos que afectan de manera desproporcionada a
colectivos tradicionalmente subrepresentados. Esta circunstancia obliga a las
organizaciones a transitar desde una visión instrumental de la IA hacia una
perspectiva crítica que considere las implicaciones éticas, sociales y organizacionales
de su uso.
Los hallazgos ponen de manifiesto que ninguna estrategia aislada resulta suficiente
para garantizar procesos de reclutamiento verdaderamente justos. Las auditorías
periódicas emergen como mecanismos esenciales para identificar disparidades y
documentar los impactos diferenciales que se producen en la clasificación de
candidatos. Sin embargo, su eficacia depende de que las instituciones asuman un
compromiso genuino con la transparencia y la mejora continua. Del mismo modo, la
incorporación de datos balanceados en los conjuntos de entrenamiento constituye un
requisito indispensable para reducir la incidencia de sesgos estadísticos, aunque esta
medida debe complementarse con técnicas de desbiasado que actúen de forma
directa sobre los modelos predictivos.
La conformación de equipos multidisciplinarios se ha revelado como un factor decisivo
para enriquecer los enfoques técnicos con perspectivas éticas y sociológicas,
permitiendo anticipar consecuencias no deseadas y fortalecer la aceptación social de
las soluciones automatizadas. Esta integración de saberes contribuye a construir
marcos de gobernanza interna que trascienden el cumplimiento meramente formal de
las normativas y avanzan hacia una cultura organizacional centrada en la equidad y
la rendición de cuentas.
La discusión desarrollada a lo largo del artículo pone de relieve que los desafíos
asociados a la mitigación del sesgo algorítmico no pueden resolverse exclusivamente
mediante intervenciones técnicas. Si bien las técnicas de reweighting, re-sampling y
ajuste de predicciones representan avances importantes, persisten interrogantes
sobre sus efectos secundarios y su capacidad de generalizar resultados en contextos
laborales diversos. Además, la ausencia de marcos regulatorios específicos en
muchas jurisdicciones limita la estandarización de buenas prácticas, generando un
panorama de incertidumbre normativa que dificulta la adopción generalizada de estas
medidas.
En términos generales, los resultados de esta revisión invitan a repensar el paradigma
de eficiencia que durante años ha orientado la implementación de sistemas de IA en
la gestión del talento. La búsqueda de precisión predictiva debe equilibrarse con la
exigencia de construir procesos inclusivos, transparentes y auditables. Este equilibrio
demanda un liderazgo organizacional capaz de priorizar valores éticos sobre lógicas
puramente económicas y de asignar los recursos necesarios para la investigación, el
monitoreo y la formación de equipos capacitados.
Finalmente, puede afirmarse que el tránsito hacia un reclutamiento basado en
inteligencia artificial más justo y diverso depende de la capacidad de las
Revista Científica Ciencia y Método | Vol.02 | Núm.04 | OctDic | 2024 | www.revistacym.com pág. 60
OctubreDiciembre 2024
organizaciones para integrar de manera coherente la innovación tecnológica con
principios de equidad sustantiva. Esta integración no solo es deseable, sino
imprescindible para responder a las demandas sociales de inclusión y para consolidar
la confianza de los candidatos en los procesos de selección. El reto consiste en asumir
que la inteligencia artificial no es un ente neutro, sino una construcción sociotécnica
cuyas consecuencias dependen en gran medida de las decisiones que adopten
quienes diseñan, implementan y supervisan sus sistemas. En esta convergencia de
responsabilidades, se delinean las oportunidades más prometedoras para transformar
la gestión del talento humano en un ámbito realmente inclusivo y respetuoso de la
dignidad de todas las personas.
CONFLICTO DE INTERESES
“Los autores declaran no tener ningún conflicto de intereses”.
Referencias Bibliográficas
Alameda Castillo, M. T. (2021). Reclutamiento tecnológico: Sobre algoritmos y acceso
al empleo. Temas laborales: Revista andaluza de trabajo y bienestar social,
(159), 11–52. https://dialnet.unirioja.es/servlet/articulo?codigo=8250088
Bravo-Bravo, I. F. (2023). Aplicación de blockchain en la trazabilidad de la cadena de
suministro. Revista Científica Ciencia Y Método, 1(2), 1-14.
https://doi.org/10.55813/gaea/rcym/v1/n2/11
Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy
Disparities in Commercial Gender Classification. En Proceedings of the 1st
Conference on Fairness, Accountability and Transparency (pp. 77–91).
Proceedings of Machine Learning Research, 81.
https://proceedings.mlr.press/v81/buolamwini18a.html
Calvard, T. S., & Jeske, D. (2018). Reporting and recording bias and discrimination in
artificial intelligence recruitment. Employee Relations, 40(6), 1024–1038.
Casanova-Villalba, C. I., Herrera-Sánchez, M. J., Lopez-Pincay, P. R., & Rivera-
Guerrero, A. L. (2024). Transparencia contable y su relación con la confianza
de los inversionistas. Innova Science Journal, 2(2), 1-14.
https://doi.org/10.63618/omd/isj/v2/n2/34
Casanova-Villalba, C. I., Herrera-Sánchez, M. J., Rivadeneira-Moreira, J. C., Ramos-
Secaira, F. M., & Bueno-Moyano, F. R. (2022). Modelo Kaizen en el sector
público. Editorial Grupo AEA. https://doi.org/10.55813/egaea.l.2022.8
Colina-Vargas, A. M., Espinoza-Mina, M. A., & Silva-Garcés, J. F. (2024). Dinámicas
y tendencias de la ciencia ciudadana en América Latina y el Caribe: Un análisis
bibliométrico y temático. Editorial Grupo AEA.
https://doi.org/10.55813/egaea.l.92
Revista Científica Ciencia y Método | Vol.02 | Núm.04 | OctDic | 2024 | www.revistacym.com pág. 61
OctubreDiciembre 2024
Espinosa Vera, A. J., & Mendoza Vargas, E. Y. (2024). Innovación tecnológica para el
desarrollo de los emprendimientos sociales. Editorial Grupo AEA.
https://doi.org/10.55813/egaea.l.85
European Commission. (2021). Proposal for a regulation of the European Parliament
and of the Council laying down harmonised rules on artificial intelligence
(Artificial Intelligence Act) and amending certain Union legislative acts
(COM(2021) 206 final) [Proposal]. EUR-Lex. https://eur-lex.europa.eu/legal-
content/EN/TXT/?uri=CELEX%3A52021PC0206
Ferrara, E. (2024). Fairness and bias in artificial intelligence: A brief survey of sources,
impacts, and mitigation strategies. Sci, 6(1), 3.
https://doi.org/10.3390/sci6010003
Flores-Murillo, C. R., Hoffmann-Jaramillo, K., Vallejo-López, A. B., & Ana María, S.-R.
(2024). Una ventana abierta hacia la calidad total en un mundo globalizado.
Editorial Grupo AEA. https://doi.org/10.55813/egaea.l.73
Galarza-Sánchez, P. C., Boné-Andrade, M. F., & Pinargote-Bravo, V. J. (2023).
Aplicaciones de inteligencia artificial generativa en la transformación digital
empresarial. Revista Científica Ciencia Y Método, 1(1), 28-41.
https://doi.org/10.55813/gaea/rcym/v1/n1/8
Herrera-Sánchez, M. J., Geovely Jaritza, O. J., Quezada Valarezo, Y. D., Rivas Bravo,
A. L., Navarrete-Zambrano, C. M., Boné-Andrade, M. F., Parraga-Pether, P. V.,
Alcívar Vélez, J., Karina Auxiliadora, S. M., Cabrera Aguilar, J. K., Zambrano
Flores, P. A., Puyol-Cortez, J. L., Guevara Salcedo, W. A., Urgiles Medina, E.
A., Pilatasig Vivanco, M. C., López-Pérez, P. J., Moreira Mendoza, M. B., Vélez
Solorzano, B. X., Zambrano Rodríguez, L. A., Solórzano Vélez, H. V. (2022).
Análisis Científico de la Ética desde la Perspectiva Multidisciplinaria. Editorial
Grupo AEA. https://doi.org/10.55813/egaea.l.2022.13
Kamiran, F., & Calders, T. (2012). Data preprocessing techniques for classification
without discrimination. Knowledge and Information Systems, 33(1), 1–33.
https://doi.org/10.1007/s10115-011-0463-8
Kim, P. T. (2022). Data-driven discrimination at work. William & Mary Law Review,
63(1), 1–64.
Kuhlman, C., Jackson, L., & Chunara, R. (2020). No computation without
representation: Avoiding data and algorithm biases through diversity. arXiv
preprint arXiv:2002.11836. https://doi.org/10.48550/arXiv.2002.11836
Macias-Loor, J. M., Prado-Chinga, A. E., Alcívar-Soria, E. E., Solano-Gutiérrez, G. A.,
Quisaguano-Calo, M. F., Cruel-Preciado, M., Endara-Arguello, I. O., Bonilla-
Bonilla, M. A., Paredes-Álvarez, P. L., Murillo-Cusme, M. A., Pita-González, G.
D., Márquez-Montenegro, K. A., Lirio-Moncayo, V. Y., Riofrio-Casa, D. M.,
Canchingre-Suárez, K. M., Corozo-Villacis, M. L., Moreira-Mera, J. V., Angulo-
Quiñonez, A. D., Vergara-Barragan, J. E., Romero-Pin, M. B., Aviles-Barre, D.
A., Quezada-Mazamba, S. N., Rugel-Calderón, F. J., Macías-Alcívar, J. S.,
Yanchaguano-Loor, A. N., Bone-Quiñonez, E. A., Casanova-Villalba, C. I.,
Herrera-Sánchez, M. J., & Casanova-Villalba, L. A. (2024). Gestión Inteligente
Sinergias en la Administración. Editorial Grupo AEA.
https://doi.org/10.55813/egaea.l.106
Revista Científica Ciencia y Método | Vol.02 | Núm.04 | OctDic | 2024 | www.revistacym.com pág. 62
OctubreDiciembre 2024
Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). A survey
on bias and fairness in machine learning. ACM Computing Surveys, 54(6),
Article 115. https://doi.org/10.1145/3457607
Raghavan, M., Barocas, S., Kleinberg, J., & Levy, K. (2020). Mitigating bias in
algorithmic hiring: Evaluating claims and practices. Proceedings of the 2020
Conference on Fairness, Accountability, and Transparency, 469481.
https://doi.org/10.1145/3351095.3372828
Raji, I. D., & Buolamwini, J. (2019). Actionable auditing: Investigating the impact of
publicly naming biased performance results of commercial AI products.
Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society,
429435. https://doi.org/10.1145/3306618.3314244
Raji, I. D., Smart, A., White, R. N., Mitchell, M., Hutchinson, B., Gebru, T., ... & Barnes,
P. (2020). Closing the AI accountability gap: Defining an end-to-end framework
for internal algorithmic auditing. Proceedings of the 2020 Conference on
Fairness, Accountability, and Transparency (FAT* '20), 33–44.
https://doi.org/10.1145/3351095.3372873
Rieke, A., & Bogen, M. (2018). Help wanted: An examination of hiring algorithms,
equity, and bias. Upturn. https://www.upturn.org/reports/2018/hiring-algorithms/
Romero-Reyes, H. D., & Paladines-Torres, L. K. (2024). Análisis Comparativo entre
Instrumentos de Evaluación de Clima Laboral y la Evaluación ECLO. Journal of
Economic and Social Science Research, 4(2), 197–213.
https://doi.org/10.55813/gaea/jessr/v4/n2/107
Saleiro, P., Kuester, B., Hinkson, L., London, J., et al. (2018). Aequitas: A bias and
fairness audit toolkit. arXiv preprint arXiv:1811.05577.
https://doi.org/10.48550/arXiv.1811.05577
Vallejo-Rosero, C. A., Quesada-Paz, M. M., Londoño-Puentes, J. C., & López-
Contreras, J. del R. (2024). Factores que afectan el desempeño laboral en el
personal de la salud en una IPS de primer nivel en el municipio de Candelaria
Valle del Cauca: un análisis para el primer semestre del 2023. Journal of
Economic and Social Science Research, 4(2), 114–139.
https://doi.org/10.55813/gaea/jessr/v4/n2/97
van Esch, P., Black, J. S., & Ferolie, J. (2019). Marketing AI recruitment: The next
phase in job application and selection. Computers in Human Behavior, 90, 215
222. https://doi.org/10.1016/j.chb.2018.09.009
Vernaza-Arroyo, G. D., Mina Bone, S. G., Flores Alvarado, E. A., Rueda Orozco, G.
J., Zambrano Vélez, D. L., Casanova-Villalba, C. I., Intriago Sánchez, J. E.,
Molina Valdez, L. A., Moreira Vera, N. C., Proaño-Gonzalez, E. A., Escobar
Quiña, J. D., Gómez Pacheco, M. I., Cruz Campos, D. C., Salgado Ortiz, P. J.,
Avilés Bravo, V. I., Espín Chila, D. M., Fuentes Mora, A. M., Ruiz Zambrano, L.
G., Benavidez Mendoza, M. G., Pin Zamora, L. F. (2022). Resultados
Científicos de la Investigación Multidisciplinaria desde la Perspectiva Ética.
Editorial Grupo AEA. https://doi.org/10.55813/egaea.l.2022.14