DOI 10.35381/cm.v11i3.1954
Recibido: 20 de agosto 2025
Revisado: 10 de octubre 2025
Aprobado: 15 de noviembre 2025
Publicado: 01 de diciembre 2025
Descriptores: Ley; inteligencia artificial; derecho de la informática. (Tesauro UNESCO)
Descriptors: Law; artificial intelligence; computer law. (UNESCO Thesaurus)
INTRODUCCIÓN
Investigaciones recientes, como las realizadas por la OCDE y el Instituto de Ética en IA de Oxford, han demostrado que más del 60% de las compañías que emplean inteligencia artificial no utilizan criterios éticos definidos. Esta ausencia de regulación crea peligros importantes, como la violación del derecho a la privacidad, la exclusión de sectores vulnerables y la discriminación algorítmica. Este estudio examina las implicaciones de la falta de regulaciones específicas para la IA en este contexto, determina vacíos legales y sugiere soluciones enfocadas a equilibrar el avance tecnológico con salvaguardar los derechos esenciales. Por lo tanto, se trata de contribuir a la creación de un ambiente digital más seguro, equitativo y fiable (Corrêa et al., 2023).
Se considera que el Reglamento General de Protección de Datos (GDPR), que la Unión Europea aprobó en 2016 y comenzó a aplicar en mayo de 2018, es uno de los marcos regulatorios más completos para proteger los datos personales. Este reglamento estableció un estándar mundial para las leyes de privacidad al introducir principios fundamentales como la portabilidad de los datos, el derecho a ser olvidado y el consentimiento informado. No obstante, el GDPR no trata explícitamente las implicaciones legales y éticas de la inteligencia artificial, lo que abre la puerta a regulaciones futuras que tengan en cuenta los retos específicos de esta tecnología. (Unión Europea, 2016).
Los antecedentes de investigación indican que la inteligencia artificial es actualmente uno de esos fenómenos de los cuales todo el mundo ha escuchado, pero solo unos pocos conocen su verdadera naturaleza. En términos generales, la IA es vista como una habilidad o capacidad computacional que posibilitaría el desarrollo de sistemas y dispositivos con las mismas habilidades cognitivas que los humanos.
Además de esta visión algo simplificada, también hay expectativas un poco excesivas sobre lo que esta tecnología puede alcanzar. A esta falta de conocimiento se suma un fenómeno típico de la IA, conocido como "efecto IA", que ocurre cuando la opinión pública rechaza un nuevo progreso en el desarrollo de un programa o dispositivo alegando que no es inteligente (García, 2019).
La inteligencia artificial (IA) se ha vuelto una herramienta esencial para la administración y el estudio de datos en varios campos, desde la salud hasta el comercio. No obstante, la ausencia de una regulación concreta sobre su uso ha suscitado una inquietud cada vez mayor acerca de la salvaguarda de los datos personales, lo que pone en riesgo a las organizaciones y a los individuos. En este escenario, el desarrollo y la implementación de sistemas de inteligencia artificial (IA) se están llevando a cabo rápidamente, pero las regulaciones legales no logran seguir el ritmo; no pueden tratar con las complejidades técnicas y éticas que estas tecnologías traen consigo.
Se plantea como objetivo general de la investigación analizar la regulación en el uso de inteligencia artificial para la protección de datos.
MÉTODO
La investigación utiliza el método cuantitativo el cual produce datos descriptivos, que se originan por la recolección de datos. Apoyado en la revisión documental-bibliográfica. Además, se aplica el método inductivo-deductivo, el cual sugiere que para encontrar una verdad se deben buscar los hechos y no basarse en meras especulaciones, además de partir de afirmaciones generales para llegar a específicas (Dávila, 2006). Se plantea además el método analítico-sintético por medio del cual, se descompone un todo en partes extrayendo cualidades, componentes, relaciones y más para posteriormente unir las partes analizadas y con ello descubrir características y relaciones entre los elementos (Rodríguez y Pérez, 2017). Se recurre además a un cuestionario.
RESULTADOS
Se presentan a continuación los resultados de acuerdo al método planteado por los investigadores.
Según los resultados obtenidos en la encuesta, existe una inquietud importante acerca de los derechos civiles vinculados con la utilización de inteligencia artificial y sobre la necesidad de definir normas precisas para salvaguardar la información personal. El 85% de los encuestados se ha manifestado a favor de la prescripción de inteligencia artificial para asegurar dicha protección, mientras que el 15% considera que no es necesaria. Estos datos reflejan la idea generalizada de que el avance tecnológico debe ir de la mano con un marco legal que garantice la seguridad.
Elaboración: Los autores.
De acuerdo con esta postura, el 90% de los participantes afirma que la ausencia de inteligencia artificial representa un peligro importante para la seguridad ciudadana, mientras que solo el 10% no lo considera así. En este caso, ambas respuestas apoyan el concepto de que el encuestado considera a la regulación como una herramienta crucial para proteger los derechos fundamentales y evitar el abuso.
La responsabilidad de crear empresas de inteligencia artificial también fue considerada en la encuesta. Así, el 95% de los encuestados concuerda en que estas empresas son responsables y se reflejan en la manera en que utilizan datos personales procesados. Apenas el 5% sostiene que esto representa las evidentes necesidades sociales de prácticas comerciales éticas y reguladas en el ámbito tecnológico.
El que los usuarios mismos tienen la responsabilidad. El gobierno ha revelado que el 50% de los participantes es un asunto clave en este proceso, por lo que la responsabilidad principal de regular la utilización de la inteligencia artificial recae sobre él. El 25% ha optado por organizaciones internacionales, quizás teniendo en cuenta la oportunidad de establecer principios y supervisiones globales. El 20% de las personas afirma que los negocios tecnológicos también deberían tener un rol positivo en el ajuste automático, mientras que el 5% piensa que los usuarios mismos tienen la responsabilidad.
Los hallazgos muestran que un gran número de los encuestados (85%) cree que es imprescindible regular la inteligencia artificial para salvaguardar los datos personales, lo cual pone de manifiesto una evidente preocupación social por el rápido progreso tecnológico frente a la paulatina adecuación de las normativas. Esta inquietud se alinea con investigaciones recientes, como la que expuso la abogada y activista digital Horrara Moreira. Ella alerta acerca del peligro de un "neocolonialismo digital", en el que las grandes compañías tecnológicas, al no existir regulación alguna, lograrían acumular una influencia desmedida sobre los datos, comportándose sin pautas éticas ni supervisión gubernamental. (Gual, 2025).
DISCUSIÓN
La responsabilidad principal en la regulación de la inteligencia artificial fue uno de los asuntos fundamentales que descubrió la encuesta. La mitad de los encuestados cree que esta tarea le corresponde al gobierno, el 25% a las instituciones internacionales y el 20% a las compañías tecnológicas; solamente un 5% piensa que es responsabilidad de los usuarios. Estos hallazgos evidencian una confianza ciudadana innegable en cuanto a que el Estado y los organismos multilaterales son capaces de salvaguardar la privacidad y la seguridad en el manejo de datos personales.
En esta línea, actuaciones recientes, como el anteproyecto de ley que aprobó el Gobierno español (HuffPost, 2025), que requiere la identificación de contenidos producidos por IA y establece sanciones para los usos inadecuados, muestran una respuesta gubernamental específica en consonancia con las expectativas de los ciudadanos. Sin embargo, investigaciones externas también indican que una colaboración cercana entre los sectores público y privado podría incrementar la eficacia y la capacidad de adaptación del marco regulatorio ante el rápido progreso tecnológico.
Si no existe una regulación apropiada sobre el uso de la IA, es posible que se cometan violaciones a los derechos humanos. La inexistencia de regulaciones legalmente vinculantes para salvaguardar los derechos humanos en el uso de sistemas de IA es, por sí misma, una infracción a estos derechos. Como se sostiene en una publicación reciente, la falta de una regulación apropiada; o sea, que un Estado no establezca reglas vinculantes a nivel jurídico para salvaguardar los derechos humanos relacionados con el despliegue de sistemas de IA, es por sí misma una violación a los derechos humanos (Vijeyarasa & Villarino, 2022). Es decisivo que los gobiernos establezcan normativas para garantizar que el uso y el desarrollo de la IA no amenacen los derechos esenciales de los individuos, lo cual asegurará un empleo responsable y ético de estas tecnologías.
Una de las primeras normativas globales centradas en la IA es la Ley de Inteligencia Artificial de la Unión Europea, que fue ratificada en 2023. Su propósito principal es crear un marco regulador fundado en la gestión del riesgo, categorizando los sistemas de inteligencia artificial en distintos niveles de riesgo (mínimo, limitado, alto y prohibido). Esta normativa establece limitaciones rigurosas para la utilización de inteligencia artificial en aplicaciones que puedan amenazar derechos esenciales, como la manipulación cognitiva y el control biométrico a gran escala.
Establece requisitos obligatorios para garantizar la transparencia, la supervisión humana y la seguridad en el uso de inteligencia artificial. De esta manera, se garantiza que las tecnologías empleadas en sectores críticos (como los de salud, justicia y banca) satisfagan estándares de seguridad y ética apropiados. Asimismo, establece penalizaciones para las compañías que no acaten la normativa, reforzando así la seguridad de los datos personales en el marco del avance de la inteligencia artificial.
La principal contribución de este estudio es mostrar con claridad la necesidad apremiante de una regulación específica para el empleo de la inteligencia artificial (IA), resaltando cómo la ausencia de esta puede poner en serio peligro la privacidad y seguridad de los datos personales. El marco de referencia analizado permite determinar que la acelerada transformación tecnológica excede de manera constante los marcos legales actuales, lo que crea importantes brechas y riesgos legales.
Este estudio es significativo desde el punto de vista empírico, ya que establece una relación directa entre la ausencia de regulación específica y los riesgos específicos que los participantes han detectado, como por ejemplo la manipulación de datos, pérdida del control sobre la información personal y discriminación en decisiones automatizadas. Se aprecia una notable concordancia entre estos descubrimientos y los que se han conseguido en estudios externos.
Es importante, adoptar estrategias educativas y políticas públicas centradas en la educación inclusiva, el aprendizaje continuo, el acceso universal a la tecnología, y el desarrollo de la alfabetización ética y las habilidades socioemocionales para asegurar que la era de la IA promueva un desarrollo humano equitativo. (Aparicio-Gómez et al.,2023).
La regulación de la inteligencia artificial tiene que ajustarse a los principios constitucionales relacionados con la protección de la privacidad, la dignidad humana y el no ser discriminatorio. La utilización de la inteligencia artificial no debe poner en riesgo derechos esenciales, como la protección de datos personales y el proceso adecuado en las decisiones automatizadas.
Es imprescindible especificar quiénes son los responsables del desarrollo y utilización de la inteligencia artificial, fijando deberes explícitos para las compañías, los programadores y los consumidores. La normativa tiene que incluir la responsabilidad administrativa y civil en situaciones de perjuicios provocados por sistemas de inteligencia artificial.
Aparicio-Gómez, O.-Y., Ostos-Ortiz, O.-L., & von Feigenblatt, O. F. (2023). Competencia digital y desarrollo humano en la era de la Inteligencia Artificial. Hallazgos, 20(40), 217-235. https://doi.org/10.15332/2422409X.9254
Corrêa NK, Galvão C, Santos JW, Del Pino C, Pinto EP, Barbosa C, Massmann D, Mambrini R, Galvão L, Terem E, de Oliveira N. Worldwide AI ethics: A review of 200 guidelines and recommendations for AI governance. Patterns (N Y). 2023 Oct 13;4(10):100857. doi: 10.1016/j.patter.2023.100857. PMID: 37876898; PMCID: PMC10591196.
Dávila Newman, G. (2006). El razonamiento inductivo y deductivo dentro del proceso investigativo en ciencias experimentales y sociales. Laurus, 12(Ext),180-205. https://n9.cl/nx847
García, S. M. (2019). Ética e inteligencia artificial. Cátedra CaixaBank de Responsabilidad Social Corporativa. https://n9.cl/pe5uav
Gual, J. R. (2025). Tecnología digital. EL PAÌS. https://n9.cl/32x5h
HuffPost. (11 de marzo de 2025). El Gobierno pone el foco en la inteligencia artificial: obligará a identificar contenidos generados con IA y establecerá sanciones. https://n9.cl/4ge9y
Parlamento Europeo. (2024). Ley de IA de la UE. https://n9.cl/ii7bm
Rodríguez Jiménez, A., y Pérez Jacinto, A. O. (2017). Métodos científicos de indagación y de construcción del conocimiento. Revista Ean, (82), 175–195. https://doi.org/10.21158/01208160.n82.2017.1647
Unión Europea. (04 de 05 de 2016). Reglamento General de Protección de Datos. https://n9.cl/mpyci0
Vijeyarasa, R., & Villarino, J.-M. B. (14 de 07 de 2022). Lecciones y consecuencias de la falta de regulación de la IA para los derechos humanos de las mujeres. Open Global Rights. https://n9.cl/o8z6q
©2025 por los autores. Este artículo es de acceso abierto y distribuido según los términos y condiciones de la licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0) (https://creativecommons.org/licenses/by-nc-sa/4.0/).