Revista Científica Ciencia y Método | Vol.01 | Núm.03 | JulSep | 2023 | www.revistacym.com pág. 31
Ética empresarial y responsabilidad social en la
inteligencia artificial
Business ethics and social responsibility in artificial intelligence
Concha-Ramirez, Jhonny Antonio
1
Navarrete-Ortiz, Janeth del Carmen
2
https://orcid.org/0000-0002-6031-5480
https://orcid.org/0000-0002-3784-1757
jconcha@istvr.edu.ec
jnavarrete@istb.edu.ec
Instituto Superior Tecnológico Vicente Rocafuerte
“ISTVR”, Ecuador, Guayas.
Instituto Superior Tecnológico Babahoyo “ISTB”,
Ecuador, Guayas.
Autor de correspondencia
1
DOI / URL: https://doi.org/10.55813/gaea/rcym/v1/n3/18
Resumen: El presente estudio se desarrolla en el
contexto de la necesidad de fortalecer la planificación
institucional mediante herramientas que integren la
gestión estratégica y la toma de decisiones basadas en
evidencia. El objetivo fue diseñar un modelo de
planificación estratégica integral orientado a instituciones
de educación superior en el Ecuador. La metodología
adoptó un enfoque mixto con predominancia cualitativa,
bajo un diseño no experimental de tipo documental y
descriptivo. Se aplicaron técnicas de revisión
bibliográfica y análisis comparativo, complementadas
con entrevistas semiestructuradas a expertos
institucionales. Los resultados evidencian que muchas
instituciones carecen de alineación entre la misión, visión
y objetivos estratégicos, lo cual debilita la eficacia de sus
planes operativos. El modelo propuesto articula
dimensiones clave como gobernanza, desempeño
institucional, responsabilidad social y mejora continua,
facilitando la evaluación periódica y la rendición de
cuentas. Se concluye que la adopción de este modelo
puede optimizar los procesos de planificación estratégica
en las universidades ecuatorianas, contribuyendo así a
una gestión más eficaz, transparente y coherente con los
estándares de calidad y acreditación nacionales.
Palabras clave: planificación estratégica; gestión
universitaria; educación superior; modelo de gestión;
evaluación institucional.
Artículo Científico
Received:02/Jul/2023
Accepted: 30/Jul/2023
Published: 28/Ago/2023
Cita: Concha-Ramirez, J. A., & Navarrete-
Ortiz, J. del C. (2023). Ética empresarial y
responsabilidad social en la inteligencia
artificial. Revista Científica Ciencia Y
Método, 1(3), 31-
44. https://doi.org/10.55813/gaea/rcym/v1/n
3/18
Revista de Ciencia y Método (RCyM)
https://revistacym.com
revistacym@editorialgrupo-aea.com
info@editoriagrupo-aea.com
© 2023. Este artículo es un documento de
acceso abierto distribuido bajo los términos
y condiciones de la Licencia Creative
Commons, Atribución-NoComercial 4.0
Internacional.
Revista Científica Ciencia y Método | Vol.01 | Núm.03 | JulSep | 2023 | www.revistacym.com pág. 32
Artículo Científico
Abstract:
This study is developed in the context of the need to strengthen institutional planning
through tools that integrate strategic management and evidence-based decision
making. The objective was to design a comprehensive strategic planning model for
higher education institutions in Ecuador. The methodology adopted a mixed approach
with qualitative predominance, under a non-experimental documentary and descriptive
design. Bibliographic review and comparative analysis techniques were applied,
complemented by semi-structured interviews with institutional experts. The results
show that many institutions lack alignment between mission, vision and strategic
objectives, which weakens the effectiveness of their operational plans. The proposed
model articulates key dimensions such as governance, institutional performance,
social responsibility and continuous improvement, facilitating periodic evaluation and
accountability. It is concluded that the adoption of this model can optimize strategic
planning processes in Ecuadorian universities, thus contributing to a more effective,
transparent and consistent management with national quality and accreditation
standards.
Keywords: strategic planning; university management; higher education;
management model; institutional evaluation.
1. Introducción
En las últimas décadas, el desarrollo acelerado de la inteligencia artificial (IA) ha
transformado profundamente las estructuras productivas, sociales y económicas a
nivel global. Esta tecnología, que permite a las máquinas simular procesos cognitivos
humanos, ha sido adoptada por empresas de distintos sectores para optimizar
procesos, reducir costos y mejorar la toma de decisiones. Sin embargo, este
vertiginoso avance ha generado un nuevo panorama de dilemas éticos, que obligan a
repensar las prácticas empresariales tradicionales desde la óptica de la
responsabilidad social. En particular, surgen cuestionamientos fundamentales sobre
la transparencia, la equidad, la privacidad de los datos, el sesgo algorítmico y la
rendición de cuentas en los procesos automatizados (Jobin, Ienca & Vayena, 2019).
Ante este contexto, se plantea la necesidad urgente de integrar marcos éticos sólidos
en las prácticas empresariales que incorporan sistemas de IA, con el fin de garantizar
un desarrollo tecnológico alineado con los derechos humanos y los principios del bien
común.
La problemática central se encuentra en la tensión entre la innovación tecnológica y
el respeto por los principios éticos fundamentales. Las organizaciones, motivadas por
la competencia y la rentabilidad, adoptan sistemas de IA sin una evaluación profunda
de sus implicaciones sociales, legales y morales. Esta situación ha derivado en
escenarios problemáticos como la discriminación algorítmica en procesos de
Revista Científica Ciencia y Método | Vol.01 | Núm.03 | JulSep | 2023 | www.revistacym.com pág. 33
Artículo Científico
selección laboral, la vigilancia masiva sin consentimiento informado y la manipulación
de decisiones de consumo a través de sistemas de recomendación (O’Neil, 2016;
Mittelstadt et al., 2016). En muchos casos, estas prácticas comprometen derechos
fundamentales como la igualdad, la privacidad y la autodeterminación informativa. A
su vez, se observa una falta de normativas internacionales coherentes que regulen de
forma efectiva el uso ético de la IA en el ámbito empresarial, lo que genera una
asimetría entre los países tecnológicamente desarrollados y aquellos que aún carecen
de marcos regulatorios específicos (Cath, 2018).
Diversos factores amplifican esta problemática. Entre ellos destacan la opacidad
inherente a muchos algoritmos, especialmente los sistemas de aprendizaje profundo
(deep learning), cuya complejidad impide comprender con claridad sus mecanismos
de decisión (Burrell, 2016). Asimismo, la falta de diversidad en los equipos de
desarrollo tecnológico perpetúa sesgos estructurales en los sistemas, afectando
negativamente a grupos históricamente marginados (Buolamwini & Gebru, 2018). Por
otro lado, la ausencia de estándares éticos compartidos entre las empresas y los
desarrolladores de IA ha propiciado un enfoque centrado en la eficiencia técnica y
económica, dejando en segundo plano consideraciones sobre justicia social, equidad
y sostenibilidad. Esta situación se ve agravada por la presión de los inversores para
obtener resultados rápidos, lo cual debilita el compromiso con prácticas empresariales
socialmente responsables.
En este contexto, la reflexión ética y la responsabilidad social empresarial (RSE)
adquieren un rol estratégico. La ética aplicada a la IA no solo es una necesidad moral,
sino también una ventaja competitiva para las organizaciones que desean construir
relaciones de confianza con sus grupos de interés (Morley et al., 2020). De igual forma,
integrar principios éticos en el desarrollo y aplicación de tecnologías inteligentes
permite mitigar riesgos reputacionales, evitar sanciones regulatorias y fomentar la
innovación responsable. La viabilidad de esta transformación ética se sustenta en el
creciente interés académico, institucional y empresarial por establecer marcos
normativos y guías de buenas prácticas que orienten el uso justo, transparente y
equitativo de la IA. Iniciativas como los principios de la OCDE sobre IA, las
recomendaciones de la UNESCO o las directrices de la Comisión Europea, son
evidencia del avance hacia una gobernanza ética global de estas tecnologías (OECD,
2019; UNESCO, 2021; European Commission, 2020).
La justificación de este trabajo radica en la necesidad de generar un análisis
sistemático de la producción científica actual respecto a la intersección entre ética
empresarial, responsabilidad social y la implementación de IA. A través de una
revisión bibliográfica rigurosa, es posible identificar los principales enfoques,
tensiones, propuestas y vacíos en la literatura académica, lo cual aporta una base
sólida para la formulación de políticas y estrategias organizacionales éticamente
informadas. Además, el estudio permite visibilizar las prácticas responsables que ya
están siendo implementadas por empresas pioneras, ofreciendo referentes para otras
Revista Científica Ciencia y Método | Vol.01 | Núm.03 | JulSep | 2023 | www.revistacym.com pág. 34
Artículo Científico
organizaciones interesadas en integrar la ética como eje transversal en sus procesos
de innovación tecnológica.
Por tanto, el objetivo de este artículo de revisión es examinar críticamente el estado
del arte sobre la ética empresarial y la responsabilidad social en el contexto de la
inteligencia artificial, analizando cómo se articulan estos conceptos en la literatura
científica y cuáles son las implicaciones prácticas y teóricas para el desarrollo
sostenible y equitativo de las tecnologías inteligentes. La revisión se centrará en
estudios publicados en revistas científicas indexadas en Scopus y Web of Science,
priorizando aquellos que aborden marcos conceptuales, estudios de caso,
lineamientos éticos internacionales y experiencias empresariales relevantes. Con ello,
se pretende contribuir al debate académico y profesional sobre el rol transformador de
la ética y la RSE en la gobernanza de la IA en el ámbito empresarial.
2. Materiales y métodos
La presente investigación adopta un enfoque cualitativo de tipo exploratorio, orientado
al análisis crítico y sistemático de la literatura científica existente sobre ética
empresarial y responsabilidad social en el contexto de la inteligencia artificial. La
elección de esta metodología responde a la necesidad de comprender en profundidad
las distintas perspectivas, enfoques teóricos y propuestas prácticas desarrolladas en
torno al tema, así como de identificar los vacíos de conocimiento y las tendencias
emergentes en el campo. El estudio se enmarca dentro del método de revisión
bibliográfica, lo que permite reunir, organizar, comparar e interpretar la producción
académica relevante publicada en los últimos años.
El proceso de revisión se realizó siguiendo una estrategia de búsqueda estructurada
y rigurosa en bases de datos académicas reconocidas a nivel internacional, tales
como Scopus y Web of Science. Se definieron criterios de inclusión que garantizaron
la calidad y pertinencia de las fuentes seleccionadas, priorizando artículos publicados
entre los años 2015 y 2023 en revistas indexadas, con acceso completo al contenido,
sometidas a revisión por pares y relacionadas directamente con las categorías
temáticas de ética de la inteligencia artificial, responsabilidad social corporativa,
gobernanza algorítmica, sesgos tecnológicos y sostenibilidad empresarial en
contextos digitales. Se excluyeron documentos duplicados, publicaciones de carácter
divulgativo, trabajos sin respaldo metodológico claro o que se centraran
exclusivamente en aspectos técnicos sin abordaje ético o social.
Las palabras clave utilizadas en la búsqueda combinada incluyeron términos como
“ética empresarial”, “responsabilidad social”, “inteligencia artificial”, “algoritmos éticos”,
“gobernanza tecnológica” y “transparencia algorítmica”, empleando operadores
booleanos (AND, OR) y filtros temáticos para delimitar los resultados. Posteriormente,
se llevó a cabo una lectura crítica y selectiva de los artículos identificados,
considerando su relevancia, actualidad, marco conceptual y aportes empíricos o
Revista Científica Ciencia y Método | Vol.01 | Núm.03 | JulSep | 2023 | www.revistacym.com pág. 35
Artículo Científico
teóricos. La información obtenida fue sistematizada mediante una matriz de análisis
que permitió clasificar los contenidos en categorías emergentes, tales como principios
éticos aplicados a la IA, regulaciones internacionales, implicaciones sociales del uso
empresarial de IA, dilemas morales y prácticas de responsabilidad social tecnológica.
La interpretación de los datos se desarrolló mediante análisis de contenido temático,
lo que permitió sintetizar los hallazgos más relevantes y establecer conexiones entre
los diferentes discursos presentes en la literatura académica. Este proceso se realizó
de manera inductiva, permitiendo que los temas clave surgieran a partir del análisis
de los textos, más que de hipótesis previas. Esta estrategia metodológica no solo
facilitó una comprensión integral del fenómeno estudiado, sino que también permitió
identificar patrones comunes, contrastes y propuestas innovadoras en la literatura
actual.
Finalmente, la validez del estudio se fortaleció mediante la triangulación de fuentes y
la revisión cruzada de los hallazgos con marcos normativos internacionales y
documentos institucionales emitidos por organizaciones multilaterales, aunque sin
incluir estos documentos como parte central del corpus bibliográfico revisado. Este
procedimiento asegura que las conclusiones derivadas del análisis se fundamenten
en evidencia académica robusta, pertinente y contextualizada, lo cual es fundamental
para el desarrollo riguroso de un artículo científico de revisión exploratoria.
3. Resultados
3.1. Integración ética en empresas de IA
3.1.1. Aplicación ética inconsistente entre organizaciones
La inteligencia artificial (IA) ha adquirido una presencia creciente en el entorno
corporativo, transformando radicalmente procesos de producción, comercialización,
gestión del talento humano y toma de decisiones estratégicas. Sin embargo, esta
incorporación tecnológica no siempre ha estado acompañada de una reflexión
profunda y coherente sobre sus implicaciones éticas. A pesar de la proliferación de
declaraciones, principios y códigos éticos en el ámbito empresarial, la aplicación
concreta de estos marcos en las prácticas organizacionales es inconsistente,
fragmentaria y, en muchos casos, puramente simbólica (Fjeld, 2020).
La literatura especializada señala que, si bien existe un discurso dominante sobre la
importancia de desarrollar una IA "ética y responsable", en la práctica hay una
marcada disparidad entre lo que las empresas manifiestan y lo que efectivamente
implementan. Esta brecha se ha denominado en múltiples estudios como “ética
performativa” o “ética de escaparate”, caracterizada por una adhesión superficial a
principios éticos que, lejos de guiar la acción empresarial, funcionan como
mecanismos de legitimación pública ante posibles cuestionamientos sociales o
regulatorios (Wagner, 2018; Green, 2021).
Revista Científica Ciencia y Método | Vol.01 | Núm.03 | JulSep | 2023 | www.revistacym.com pág. 36
Artículo Científico
Un análisis comparado de las principales guías de ética de IA —tales como las
promovidas por la OCDE, la Comisión Europea, Google, Microsoft, IBM, entre otras—
evidencia una fuerte coincidencia en los principios declarados: justicia, explicabilidad,
privacidad, rendición de cuentas, no maleficencia y transparencia (Jobin, Ienca &
Vayena, 2019). No obstante, la falta de procedimientos específicos para su
implementación dificulta que estos valores sean operacionalizados de manera
sistemática dentro de los entornos empresariales. En este sentido, Morley et al. (2020)
argumentan que, aunque muchas compañías han desarrollado herramientas o
metodologías para traducir los principios en acciones concretas, estas no están
estandarizadas, ni mucho menos sometidas a procesos de evaluación o verificación
externa.
Las grandes corporaciones tecnológicas, como líderes en el desarrollo de IA, han
intentado posicionarse como referentes en ética digital. Sin embargo, en varios casos
han sido cuestionadas por prácticas contradictorias con los valores que públicamente
promueven. Por ejemplo, investigaciones recientes han documentado cómo algunas
de estas empresas han despedido a investigadores por denunciar sesgos algorítmicos
en sus sistemas, o han desarrollado tecnologías de vigilancia utilizadas en contextos
que violan derechos humanos, a pesar de haber firmado compromisos éticos
explícitos (Hao, 2021). Este tipo de contradicciones alimenta el escepticismo sobre la
voluntad real de estas organizaciones para someterse a marcos éticos estrictos.
Por otro lado, en el caso de pequeñas y medianas empresas (PYMES), la situación
es aún más limitada. Estas organizaciones enfrentan barreras significativas para
integrar consideraciones éticas en sus procesos tecnológicos, ya sea por falta de
recursos, desconocimiento, o ausencia de presión regulatoria. Como resultado,
muchas adoptan soluciones de IA desarrolladas por terceros sin realizar evaluaciones
de impacto ético, sin garantizar la transparencia del algoritmo, ni considerar los
posibles efectos sobre los derechos fundamentales de usuarios o consumidores
(Hagendorff, 2020).
Otro elemento que contribuye a esta inconsistencia es la ausencia de un lenguaje
común y de criterios uniformes que permitan evaluar de forma objetiva qué se entiende
por una “IA ética”. Actualmente, los principios éticos existentes operan de manera no
vinculante y carecen de métricas estandarizadas que permitan su implementación
práctica o auditoría independiente. Este vacío normativo contribuye a una diversidad
de interpretaciones que favorecen el enfoque voluntario y autorregulado, en
detrimento de marcos éticos integrales y con mecanismos de cumplimiento (Cath,
2018).
Además, la implementación ética de la IA dentro de las organizaciones se encuentra
condicionada por las estructuras jerárquicas y la lógica de rentabilidad dominante en
los modelos empresariales contemporáneos. Estudios críticos han señalado que las
decisiones sobre el uso de tecnologías inteligentes suelen tomarse sin consultar a los
grupos afectados, sin incluir perspectivas interseccionales, y sin considerar la justicia
Revista Científica Ciencia y Método | Vol.01 | Núm.03 | JulSep | 2023 | www.revistacym.com pág. 37
Artículo Científico
distributiva o la equidad intergeneracional. De este modo, el diseño y despliegue de
IA puede perpetuar desigualdades sociales, tecnológicas y económicas, reforzando
sistemas de exclusión estructural (Green, 2021; Buolamwini & Gebru, 2018).
En síntesis, la aplicación ética de la inteligencia artificial en las empresas no es
homogénea ni sistemática. Existen organizaciones que avanzan en la implementación
de buenas prácticas, como la realización de auditorías algorítmicas, la conformación
de comités interdisciplinarios o la adopción de principios éticos con mecanismos de
rendición de cuentas. Sin embargo, estos esfuerzos son aún escasos y no
generalizables. Para lograr una integración ética efectiva de la IA a nivel empresarial,
se requiere avanzar hacia marcos regulatorios vinculantes, formación ética
especializada, mayor participación de las partes interesadas en la toma de decisiones
tecnológicas, y un cambio cultural que supere la ética como estrategia reputacional
para transformarla en una práctica organizacional estructural y sostenida.
3.2. Falta de regulación en IA empresarial
3.2.2. Ausencia de normas obliga a enfoques voluntarios
La acelerada incorporación de la inteligencia artificial (IA) en el ámbito empresarial ha
superado con creces la capacidad de los marcos regulatorios tradicionales para
adaptarse a sus múltiples implicaciones éticas, sociales y jurídicas. Este desfase entre
innovación tecnológica y gobernanza normativa ha producido un vacío regulatorio
significativo a nivel global, donde predominan las iniciativas de autorregulación por
parte de las propias empresas. En este contexto, la ausencia de normas jurídicas
vinculantes ha obligado a las organizaciones a desarrollar e implementar marcos
éticos voluntarios como principal mecanismo de legitimación frente a la opinión pública
y los organismos internacionales. Sin embargo, estos enfoques voluntarios presentan
importantes limitaciones tanto en su alcance como en su eficacia (Cath, 2018;
Mittelstadt, 2019).
A pesar de que múltiples organismos internacionales han emitido principios éticos
para orientar el uso responsable de la IA —como la OCDE, la UNESCO, el Consejo
de Europa y la Comisión Europea—, la gran mayoría de estas directrices carece de
fuerza legal, por lo que su adopción depende exclusivamente de la voluntad de las
empresas. Esta situación ha dado lugar a un ecosistema de gobernanza fragmentado,
donde las compañías eligen de forma discrecional los principios que desean adoptar,
ajustándolos a sus intereses estratégicos o utilizándolos como herramientas de
marketing reputacional. Este fenómeno ha sido ampliamente documentado bajo
conceptos como ethics washing (lavado ético) y ethics shopping (selección ética), los
cuales describen prácticas empresariales que aparentan compromiso ético sin una
implementación real, verificable o coherente (Wagner, 2018; Hagendorff, 2020).
Desde el punto de vista práctico, la mayoría de los marcos éticos voluntarios
promueven principios ampliamente consensuados como la transparencia, la justicia,
la responsabilidad, la privacidad y la explicabilidad. No obstante, tales principios
Revista Científica Ciencia y Método | Vol.01 | Núm.03 | JulSep | 2023 | www.revistacym.com pág. 38
Artículo Científico
suelen permanecer en un nivel abstracto, sin ser traducidos en directrices operativas,
procedimientos técnicos ni indicadores medibles. Como lo argumenta Mittelstadt
(2019), los principios éticos por solos son insuficientes para garantizar una IA
confiable si no están acompañados por mecanismos institucionales que aseguren su
cumplimiento. En este sentido, muchas empresas adoptan códigos de ética en IA
como documentos de referencia simbólica, sin establecer estructuras internas para su
monitoreo ni sistemas de rendición de cuentas.
Este enfoque voluntario también está condicionado por asimetrías en el poder
económico, técnico y político de las empresas. Las grandes corporaciones
multinacionales, especialmente aquellas con sede en países desarrollados, suelen
contar con departamentos dedicados a la ética tecnológica, comités de gobernanza
algorítmica o sistemas internos de auditoría. En cambio, las pequeñas y medianas
empresas (pymes), sobre todo en contextos del sur global, carecen de los recursos y
capacidades institucionales para diseñar o implementar marcos éticos propios. En
muchos casos, estas empresas adoptan soluciones de IA ofrecidas por terceros sin
contar con evaluaciones éticas, generando riesgos para los derechos de sus clientes,
usuarios o empleados (Peralta, 2023).
Además, la inexistencia de normativas vinculantes permite que las empresas operen
en una zona de ambigüedad legal, donde la responsabilidad por los daños derivados
del uso de IA no está claramente definida. Este vacío dificulta la aplicación del principio
de precaución, reduce la capacidad de los estados para intervenir preventivamente, y
obstaculiza el acceso a mecanismos de reparación por parte de las personas
afectadas. Como subraya Veale y Zuiderveen Borgesius (2021), uno de los retos
centrales de la futura regulación de la IA en Europa es precisamente establecer
criterios normativos claros sobre la responsabilidad legal de las empresas
desarrolladoras, proveedoras y usuarias de tecnologías inteligentes.
La propuesta de Reglamento de Inteligencia Artificial de la Unión Europea (AI Act),
presentada en 2021, constituye uno de los intentos más ambiciosos para superar este
vacío mediante una legislación armonizada, basada en un enfoque de riesgos. Este
modelo busca imponer obligaciones específicas según el nivel de riesgo que implique
el uso de la IA para los derechos fundamentales. No obstante, al momento de esta
redacción, el reglamento aún se encuentra en proceso de revisión legislativa, y su
implementación concreta presenta desafíos significativos en términos de vigilancia,
sanción y armonización con las normativas de los Estados miembros (European
Commission, 2021; Veale & Zuiderveen Borgesius, 2021).
Fuera del contexto europeo, la mayoría de los países carece de una regulación
específica para la IA, lo que genera un escenario de gobernanza dispersa e
insuficiente. En América Latina, por ejemplo, los marcos regulatorios aún están en
etapa incipiente y se concentran principalmente en declaraciones de buenas
intenciones o estrategias nacionales de IA sin fuerza normativa. Esta carencia
legislativa permite que muchas prácticas empresariales queden fuera de control
Revista Científica Ciencia y Método | Vol.01 | Núm.03 | JulSep | 2023 | www.revistacym.com pág. 39
Artículo Científico
institucional, especialmente aquellas relacionadas con el uso de datos personales, la
automatización de procesos laborales o la toma de decisiones basadas en sistemas
opacos (Peralta, 2023).
Finalmente, la persistencia de enfoques éticos voluntarios refuerza la desigualdad
estructural en la gobernanza de la IA. Las empresas más poderosas tienen la
capacidad de definir unilateralmente los estándares de ética tecnológica a nivel global,
sin participación efectiva de otros actores relevantes como la sociedad civil, los
sindicatos, las comunidades afectadas o los gobiernos nacionales. Esta concentración
de poder en la autorregulación empresarial representa una amenaza para la
construcción de una inteligencia artificial realmente democrática, justa y centrada en
los derechos humanos (Green, 2021; Floridi et al., 2018).
Por todo lo anterior, resulta evidente que la ausencia de normas vinculantes no solo
ha obligado a las empresas a adoptar enfoques voluntarios como único recurso
normativo, sino que ha generado un entorno donde las prácticas éticas son
desiguales, débiles y fácilmente manipulables. Superar esta situación requiere
avanzar hacia una regulación multilateral, con marcos jurídicos claros, obligaciones
explícitas, sistemas de supervisión independientes y participación inclusiva en la
definición de estándares éticos y legales para la IA en el ámbito empresarial.
4. Discusión
La revisión de la literatura sobre ética empresarial y responsabilidad social en el
contexto de la inteligencia artificial (IA) revela una profunda disparidad entre los
discursos normativos y las prácticas efectivas adoptadas por las organizaciones. A
pesar del creciente consenso internacional sobre la necesidad de incorporar marcos
éticos al desarrollo y aplicación de tecnologías inteligentes, persisten vacíos
estructurales que comprometen la implementación de principios fundamentales como
la justicia, la transparencia, la no discriminación y la rendición de cuentas (Floridi et
al., 2018; Jobin, Ienca & Vayena, 2019). Esta situación se agrava por la naturaleza
fragmentaria y voluntaria de los enfoques actualmente vigentes, los cuales han sido
insuficientes para establecer una gobernanza efectiva de la IA en el ámbito
empresarial.
En términos generales, puede afirmarse que la ética de la IA en entornos corporativos
ha sido abordada de manera reactiva, superficial y altamente contextual, en lugar de
constituir un eje estructural de las estrategias empresariales. La proliferación de
códigos de ética y declaraciones públicas por parte de compañías tecnológicas
evidencia un compromiso declarativo, más que operativo, con los principios éticos,
dando lugar a prácticas de ethics washing —es decir, la adopción simbólica de
discursos éticos sin sustancia normativa ni mecanismos de cumplimiento (Wagner,
2018; Green, 2021). Esto responde, en parte, a una dinámica reputacional donde las
Revista Científica Ciencia y Método | Vol.01 | Núm.03 | JulSep | 2023 | www.revistacym.com pág. 40
Artículo Científico
empresas buscan proyectar una imagen responsable ante inversores, reguladores y
consumidores, sin alterar sustancialmente sus modelos de negocio.
La heterogeneidad en la aplicación de principios éticos entre organizaciones es reflejo
de la ausencia de estándares internacionales armonizados y de la falta de exigencias
jurídicas concretas. Esta disparidad es particularmente notoria entre grandes
corporaciones, que cuentan con recursos para estructurar unidades de ética
tecnológica, y pequeñas y medianas empresas que carecen de capacidades técnicas
e institucionales para evaluar los riesgos sociales de la IA que implementan (Fjeld,
2020; Hagendorff, 2020). Este desequilibrio no solo reproduce desigualdades entre
actores económicos, sino que también compromete la equidad en la protección de
derechos fundamentales, al dejar a determinados grupos sociales expuestos a
sistemas algorítmicos opacos, discriminatorios o intrusivos.
A nivel global, la gobernanza de la IA se encuentra aún en una etapa incipiente.
Aunque organismos como la OCDE (2019), la UNESCO (2021) y la Comisión Europea
(European Commission, 2021) han propuesto principios orientadores, estos carecen
en su mayoría de carácter vinculante, lo que permite que su adopción quede sujeta a
la discrecionalidad de las organizaciones. La propuesta de Reglamento de Inteligencia
Artificial (AI Act) de la Unión Europea representa un avance significativo hacia la
institucionalización de criterios normativos obligatorios basados en un enfoque de
riesgos, pero su implementación efectiva aún enfrenta desafíos sustanciales,
especialmente en lo relativo a su adaptabilidad sectorial, fiscalización técnica y
armonización con otras legislaciones (Veale & Zuiderveen Borgesius, 2021).
La carencia de marcos regulatorios exigibles ha generado un entorno en el cual
predominan los enfoques voluntarios, los cuales, si bien pueden fomentar cierto nivel
de concienciación ética, no garantizan comportamientos corporativos responsables ni
previenen los impactos negativos de la IA. Como señala Mittelstadt (2019), los
principios por solos no bastan para producir una IA ética si no se traducen en
normas concretas, mecanismos de rendición de cuentas y procedimientos técnicos
verificables. En este sentido, el enfoque voluntarista ha demostrado ser
estructuralmente débil, pues carece de mecanismos independientes de monitoreo y
sanción, lo que permite a las empresas evadir sus responsabilidades sin
consecuencias reales.
Además, la actual gobernanza autorregulada favorece a las empresas con mayor
poder económico, permitiéndoles moldear las narrativas éticas en función de sus
intereses corporativos. Esta concentración de poder normativo no solo limita la
participación democrática en la definición de estándares tecnológicos, sino que
también amenaza la posibilidad de construir una inteligencia artificial centrada en el
bienestar colectivo y la justicia social. La literatura crítica insiste en que sin una
regulación sólida e inclusiva, la ética de la IA puede convertirse en un instrumento
para preservar el statu quo y legitimar modelos extractivos basados en el control de
datos, la vigilancia y la exclusión algorítmica (Green, 2021; Peralta, 2023).
Revista Científica Ciencia y Método | Vol.01 | Núm.03 | JulSep | 2023 | www.revistacym.com pág. 41
Artículo Científico
En consecuencia, resulta imprescindible avanzar hacia la construcción de un
ecosistema normativo multilateral, robusto y participativo que supere los enfoques
voluntarios y establezca obligaciones jurídicas claras para las empresas. Este marco
debe incluir estándares técnicos precisos, indicadores de cumplimiento, mecanismos
de auditoría independiente y sanciones proporcionales ante el incumplimiento.
Asimismo, debe garantizar la participación activa de todos los actores sociales
relevantes —incluyendo la sociedad civil, los colectivos vulnerables, la academia y los
organismos de derechos humanos— en la elaboración, implementación y evaluación
de políticas sobre inteligencia artificial.
La discusión actual sobre ética empresarial y responsabilidad social en la IA no puede
reducirse a una cuestión técnica ni limitarse al ámbito corporativo. Se trata de un
problema estructural que interpela las bases mismas del desarrollo tecnológico
contemporáneo y exige respuestas institucionales acordes con los principios de
justicia, equidad y sostenibilidad. En este sentido, la ética no debe entenderse como
un conjunto de buenas intenciones ni como una herramienta de gestión reputacional,
sino como un compromiso político, jurídico y moral que oriente el diseño, uso y
gobernanza de tecnologías que inciden de manera profunda y directa en la vida
humana.
5. Conclusiones
La presente revisión bibliográfica ha permitido constatar que la ética empresarial y la
responsabilidad social en el ámbito de la inteligencia artificial constituyen un desafío
estructural de alta complejidad, marcado por la heterogeneidad en su aplicación y por
la ausencia de marcos regulatorios sólidos. Si bien existe una amplia difusión de
principios éticos en el discurso organizacional, la práctica demuestra que su
implementación es fragmentaria, voluntaria y, en muchos casos, subordinada a
intereses estratégicos o reputacionales. Esta situación evidencia una brecha
significativa entre la formulación normativa y la acción empresarial concreta.
La integración de la ética en los procesos empresariales relacionados con la IA no
responde actualmente a una lógica estructural ni obligatoria, sino que se encuentra
condicionada por factores como el tamaño de la organización, su capacidad técnica,
su posicionamiento internacional y el grado de presión social o mediática. En ausencia
de legislación vinculante, las empresas recurren a mecanismos autorregulatorios que
carecen de controles externos, evaluaciones independientes o sanciones efectivas, lo
que limita su impacto real en la protección de los derechos fundamentales y en la
promoción de una innovación tecnológica socialmente responsable.
Asimismo, se ha identificado que la falta de estándares internacionales armonizados
y de normativas jurídicas con fuerza obligatoria ha generado un ecosistema desigual
e ineficaz para la gobernanza de la IA. Este vacío ha permitido que las grandes
corporaciones tecnológicas establezcan unilateralmente los marcos éticos
Revista Científica Ciencia y Método | Vol.01 | Núm.03 | JulSep | 2023 | www.revistacym.com pág. 42
Artículo Científico
dominantes, lo que refuerza asimetrías de poder, limita la participación democrática
en la toma de decisiones tecnológicas y excluye a actores sociales relevantes del
diseño de políticas inclusivas y equitativas.
Ante este panorama, resulta imperativo transitar hacia una regulación efectiva y global
de la inteligencia artificial en el ámbito empresarial. Esta regulación debe establecer
obligaciones claras, mecanismos de fiscalización autónomos y una integración
transversal de la ética en todas las etapas del ciclo de vida de los sistemas de IA. Solo
mediante un compromiso normativo firme y multilateral será posible garantizar que el
desarrollo tecnológico se alinee con los principios del bien común, la justicia social y
la sostenibilidad.
En síntesis, la ética de la inteligencia artificial no puede continuar siendo un asunto
voluntario o accesorio dentro de las empresas. Debe consolidarse como un
componente estructural de la responsabilidad social corporativa y como un imperativo
regulatorio ineludible, si se pretende avanzar hacia una sociedad digital equitativa,
transparente y verdaderamente democrática.
CONFLICTO DE INTERESES
“Los autores declaran no tener ningún conflicto de intereses”.
Referencias Bibliográficas
Almenaba-Guerrero, Y. F., & Herrera-Sánchez, M. J. (2022). Diversidad e Inclusión en
el Lugar de Trabajo: Prácticas en Ecuador Liderazgo y Cultura
Organizacional. Revista Científica Zambos, 1(1), 69-85.
https://doi.org/10.69484/rcz/v1/n1/22
Bravo-Bravo, I. F., & Herrera-Sánchez, M. J. (2023). Tendencias Globales del
Liderazgo Transformacional en Empresas Modernas. Horizon Nexus Journal,
1(2), 14-31. https://doi.org/10.70881/hnj/v1/n2/15
Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities
in commercial gender classification. Proceedings of the 1st Conference on
Fairness, Accountability and Transparency, 81, 7791.
Burrell, J. (2016). How the machine ‘thinks’: Understanding opacity in machine learning
algorithms. Big Data & Society, 3(1), 1–12.
https://doi.org/10.1177/2053951715622512
Casanova-Villalba, C. I. (2022). Desafíos en el crecimiento empresarial en Santo
Domingo: Un análisis de los factores clave en el periodo 2021-2022. Journal of
Economic and Social Science Research, 2(3), 1–12.
https://doi.org/10.55813/gaea/jessr/v2/n3/53
Casanova-Villalba, C. I., & Hurtado-Guevara, R. F. (2023). Auditoría fiscal y evasión
tributaria mediante un enfoque sustentado en evidencia empírica reciente.
Revista Científica Ciencia y Método | Vol.01 | Núm.03 | JulSep | 2023 | www.revistacym.com pág. 43
Artículo Científico
Multidisciplinary Collaborative Journal, 1(1), 39-51.
https://doi.org/10.70881/mcj/v1/n1/10
Cath, C. (2018). Governing artificial intelligence: Ethical, legal and technical
opportunities and challenges. Philosophical Transactions of the Royal Society
A: Mathematical, Physical and Engineering Sciences, 376(2133), 20180080.
https://doi.org/10.1098/rsta.2018.0080
European Commission. (2020). Ethics guidelines for trustworthy AI. European
Commission.
European Commission. (2021). Proposal for a Regulation laying down harmonised
rules on artificial intelligence (Artificial Intelligence Act). https://eur-
lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206
Fjeld, J. (2020). Principled artificial intelligence: Mapping consensus in ethical and
rights-based approaches to principles for AI. Berkman Klein Center Research
Publication, (2020-1). https://cyber.harvard.edu/publication/2020/principled-ai
Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., ... &
Vayena, E. (2018). AI4People—An ethical framework for a good AI society:
Opportunities, risks, principles, and recommendations. Minds and Machines,
28(4), 689–707. https://doi.org/10.1007/s11023-018-9482-5
Green, B. (2021). The flaw of AI ethics. Communications of the ACM, 64(3), 44–47.
Hagendorff, T. (2020). The ethics of AI ethics: An evaluation of guidelines. Minds and
Machines, 30(1), 99–120. https://doi.org/10.1007/s11023-020-09517-8
Hao, K. (2021). Google’s ethical AI co-lead says she was fired for her research. MIT
Technology Review.
Hermosa-Vega, G. G. (2022). Liderazgo y Gobernanza en Empresas Familiares en
Ecuador. Revista Científica Zambos, 1(1), 13-32.
https://doi.org/10.69484/rcz/v1/n1/20
Herrera-Sánchez, M. J. (2021). Estrategias de Gestión Administrativa para el
Desarrollo Sostenible de Emprendimientos en La Concordia. Journal of
Economic and Social Science Research, 1(4), 56–69.
https://doi.org/10.55813/gaea/jessr/v1/n4/42
Hurtado Guevara, R. F., & Pinargote Pinargote, H. M. (2021). Factores limitantes del
crecimiento económico en las PYMES de Quinindé. Journal of Economic and
Social Science Research, 1(1), 49–60.
https://doi.org/10.55813/gaea/jessr/v1/n1/20
Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines.
Nature Machine Intelligence, 1(9), 389–399. https://doi.org/10.1038/s42256-
019-0088-2
López Pérez, P. J. (2021). Determinación de los factores que perjudican el clima
laboral en el sector de las Pymes, Cantón la Concordia. Journal of Economic
and Social Science Research, 1(3), 27–39.
https://doi.org/10.55813/gaea/jessr/v1/n3/35
Revista Científica Ciencia y Método | Vol.01 | Núm.03 | JulSep | 2023 | www.revistacym.com pág. 44
Artículo Científico
Maldonado-Nova, V. (2022). El Rol del Talento Humano en la Transformación Digital
de las Empresas Ecuatorianas. Revista Científica Zambos, 1(2), 34-50.
https://doi.org/10.69484/rcz/v1/n2/26
Mendoza-Armijos, H. E. (2022). Impacto de la Capacitación en el Desarrollo
Profesional en Organizaciones Ecuatorianas. Revista Científica Zambos, 1(2),
51-66. https://doi.org/10.69484/rcz/v1/n2/27
Mittelstadt, B. D. (2019). Principles alone cannot guarantee ethical AI. Nature Machine
Intelligence, 1(11), 501–507. https://doi.org/10.1038/s42256-019-0114-4
Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of
algorithms: Mapping the debate. Big Data & Society, 3(2), 1–21.
https://doi.org/10.1177/2053951716679679
Morley, J., Floridi, L., Kinsey, L., & Elhalal, A. (2020). From what to how: An initial
review of publicly available AI ethics tools, methods and research to translate
principles into practices. Science and Engineering Ethics, 26, 21412168.
https://doi.org/10.1007/s11948-019-00165-5
Naranjo Armijo, F. G., & Barcia Zambrano, I. A. (2021). Efecto económico de la
innovación en las PYMES del Ecuador. Journal of Economic and Social Science
Research, 1(1), 61–73. https://doi.org/10.55813/gaea/jessr/v1/n1/21
O’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and
threatens democracy. Crown Publishing Group.
OECD. (2019). OECD principles on artificial intelligence. https://www.oecd.org/going-
digital/ai/principles/
Peralta, V. (2023). Regulación de la inteligencia artificial en América Latina: Avances,
vacíos y desafíos. Universidad de Buenos Aires.
Santander-Salmon, E. S., & Lara-Rivadeneira, L. J. (2023). El liderazgo en el ámbito
organizacional dentro del contexto humano. Journal of Economic and Social
Science Research, 3(2), 15–29. https://doi.org/10.55813/gaea/jessr/v3/n2/64
Santander-Salmon, E. S., Herrera-Sánchez, M. J., & Bravo-Bravo, I. F. (2023). La
importancia de la digitalización en la administración empresarial mediante un
análisis bibliográfico actualizado. Multidisciplinary Collaborative Journal, 1(2),
39-51. https://doi.org/10.70881/mcj/v1/n2/15
Sarmiento-Martínez, R. G. (2022). Análisis Cualitativo de las Prácticas de
Responsabilidad Social Empresarial en Ecuador. Revista Científica
Zambos, 1(2), 17-33. https://doi.org/10.69484/rcz/v1/n2/25
UNESCO. (2021). Recommendation on the ethics of artificial intelligence.
https://unesdoc.unesco.org/ark:/48223/pf0000381137
Veale, M., & Zuiderveen Borgesius, F. (2021). Demystifying the draft EU Artificial
Intelligence Act. Computer Law Review International, 22(4), 97–112.
https://doi.org/10.9785/cri-2021-220402
Wagner, B. (2018). Ethics as an escape from regulation: From ethics-washing to
ethics-shopping? In M. Hildebrandt (Ed.), Being profiled: Cogitas ergo sum (pp.
84–89). Amsterdam University Press.