Recibido: 12/02/2024 Aceptado:
01/07/2014
Protección de datos personales en la
regulación de la inteligencia artificial (Original).
Personal
data protection in the regulation of artificial intelligence (Original).
Gabriela Carolina Espín Martínez.
Licenciatura en Derecho. Universidad Indoamérica. República del
Ecuador.
[gespin7@indoamerica.edu.ec ] [gar.1015@hotmail.com ] [ https://orcid.org/0000-0002-2614-1464 ]
Willam Enrique Redrobán Barreto. Licenciado en Derecho. Magíster en
Derecho Constitucional. Docente a tiempo completo en la Universidad Indoamérica.
República del Ecuador. [willamredroban@uti.edu.ec ]
[werb1988@hotmail.com ] [https://orcid.org/0000-0003-3331-7429 ]
Resumen
La importancia de la regulación de la inteligencia artificial desde
una perspectiva de derecho público se evidencia en este exhaustivo análisis. Se
abordan los avances tecnológicos y el potencial transformador de la inteligencia
artificial en diversos sectores, junto con los beneficios y desafíos asociados.
Se señala la necesidad de transparencia en conjunto al ajuste de cuentas en relación
a los algoritmos de la inteligencia artificial, resaltando el valor de
comprender su funcionamiento y aplicar medidas para garantizar la equidad. La
protección de datos personales se presenta como un aspecto crítico,
especialmente en la era actual, donde la recopilación masiva de información
plantea riesgos para la privacidad. El consentimiento informado y la
minimización de datos se destacan como principios esenciales en este contexto.
Además, se examinan perspectivas internacionales y desafíos futuros en la
regulación de la inteligencia artificial, subrayando la necesidad de enfoques
colaborativos y éticos. Se mencionan experiencias y enfoques de diversas
jurisdicciones, señalando la falta de regulación armonizada como un posible
obstáculo para la cooperación global. Finalmente, se destaca la falta de
legislación específica para la inteligencia artificial como un punto crítico,
evidenciando la necesidad de marcos legales actualizados y adaptativos que
aborden integralmente los desafíos éticos, legales y sociales asociados con la inteligencia
artificial.
Palabras clave:
datos personales; inteligencia artificial; jurisdicción; legalidad; tecnología
Abstract
The
importance of artificial intelligence (AI) regulation from a public law
perspective is evident in this comprehensive analysis. Technological advances
and the transformative potential of AI in various sectors are addressed, along
with the associated benefits and challenges. The need for transparency and
accountability in AI algorithms is noted, highlighting the importance of
understanding how they work and implementing measures to ensure fairness.
Personal data protection is presented as a critical aspect, especially in the
AI era, where the massive collection of information poses privacy risks. Informed consent and data minimization are
highlighted as essential principles in this context. In addition, international
perspectives and future challenges in AI regulation are discussed, highlighting
the need for collaborative and ethical approaches. Experiences and approaches
from various jurisdictions are mentioned, pointing to the lack of harmonized
regulation as a potential obstacle to global cooperation. Finally, the lack of
AI-specific legislation is highlighted as a critical point, evidencing the need
for updated and adaptive legal frameworks that comprehensively address the
ethical, legal and social challenges associated with AI.
Keywords: artificial intelligence; jurisdiction; legality; personal
data; technology
Introducción
La inteligencia
artificial (IA) ha emergido como una disciplina en constante evolución que
tiene el potencial de transformar significativamente diversos aspectos de
nuestra sociedad. Con avances tecnológicos impresionantes en diversos campos,
así como la noción automática, el procesamiento de los lenguajes y la
perspectiva vista desde una computadora o dispositivo electrónico inteligente,
la inteligencia artificial ha puesto en consideración su capacidad para
optimizar procesos, mejorar la toma de decisiones y facilitar la automatización
de tareas en numerosos sectores.
Estas innovaciones
tecnológicas prometen beneficios sustanciales en términos de eficiencia,
productividad y calidad de vida. Sin embargo, este rápido progreso de la IA también ha generado preocupaciones
y desafíos legales, éticos y sociales. La adopción generalizada de sistemas de
IA plantea interrogantes sobre la transparencia, el ajuste de cuentas y la imparcialidad
en su desarrollo y uso.
La opacidad de los
algoritmos de IA puede resultar problemática, ya que puede dificultar la
comprensión de las disposiciones otorgadas por los regímenes de inteligencia artificial
y dificultar la detección de sesgos y discriminación algorítmica. Por otra
parte, la recolección y el procesador de gigantescos importes de datos
personales correspondientes a los sistemas de IA esbozan asuntos de reserva y
protección de datos que deben abordarse de manera efectiva.
En este contexto, la
regulación de la inteligencia artificial desde una perspectiva de derecho
público se presenta como un marco normativo esencial para salvaguardar los
derechos fundamentales, proteger los intereses colectivos y garantizar la ética,
en conjunto al compromiso en el despliegue de sistemas de IA. La regulación
adecuada de la IA busca establecer normas y principios que guíen su desarrollo
y uso responsable, minimizando los riesgos y potenciando los beneficios. La regulación de la inteligencia artificial desde una perspectiva de
derecho público implica una mirada crítica y reflexiva sobre los desafíos y
oportunidades que plantea la IA en nuestra sociedad.
En este artículo se
analizará en detalle la importancia de la regulación de la inteligencia
artificial desde una perspectiva de derecho público. Se examinarán los
principales desafíos y problemas que surgen en el desarrollo y uso de la IA, y
se presentarán enfoques y estrategias que pueden adoptarse para abordarlos de
manera efectiva. Además, se explorarán los principios éticos y los mecanismos
de responsabilidad necesarios para garantizar su utilización controlada y ética
en favor de la sociedad.
Desarrollo
Transparencia
y rendición de cuentas de los algoritmos de la IA. Explicación y comprensión de
los algoritmos utilizados
La explicación y
comprensión de los algoritmos utilizados en sistemas de IA son fundamentales en
la regulación de la IA desde una perspectiva de derecho público. Esta utilidad se
refiere a entender cómo los algoritmos toman decisiones, mientras que la
comprensión implica evaluar su robustez y seguridad. La explicación de los algoritmos de IA busca comprender cómo llegan a
sus conclusiones, permitiendo interpretar y explicar los resultados. En este
caso, la transparencia en el funcionamiento de los algoritmos pasa a ser
esencial para garantizar la rendición de cuentas y detectar sesgos o discriminación
alguna (Jalón et al., 2021; Soriano 2021; Sánchez, 2022).
Por otra parte, es
crucial comprender cómo los algoritmos se aplican en diferentes contextos y
cómo afectan a los individuos y a la sociedad. En cuanto a la explicación y
comprensión de los algoritmos, estos permiten identificar sesgos, corregir
errores y facilitar la revisión y auditoría de los resultados obtenidos (Llamas
et al., 2022).
Medidas
para garantizar la transparencia en la toma de decisiones algorítmicas
Los autores de este
artículo consultaron diferentes investigaciones (Cotino
y Castellanos, 2022; Barrios y Cetina, 2022; Katzenbach y Ulbricht, 2022),
los que han realizado contribuciones
significativas al desarrollo de estrategias y políticas para asegurar la
transparencia en la toma de decisiones algorítmicas. Este estudio permitió
identificar varios componentes necesarios
para lograr dicho propósito, tales como:
Documentación exhaustiva
Es imprescindible
que las organizaciones proporcionen una documentación detallada sobre los
algoritmos utilizados en los sistemas de inteligencia artificial, debido a que
esto incluye información específica acerca de datos de entrenamiento
utilizados, asimismo sobre los métodos y aquellas técnicas empleadas (Cotiso, 2023).
No obstante, también se consideran los
parámetros y reglas empleadas en base a la toma de decisiones, se concentra en
permitir el entendimiento transparente de la forma en la que se llega a la toma
de decisiones, por consiguiente, facilita la revisión y auditoría por parte de
expertos y de los actores externos.
Explicación de los algoritmos
Esta explicación
hace referencia necesidad de comprender el cómo los algoritmos tienen la
capacidad de tomar decisiones por los seres humanos. El contexto de la
regulación de la IA, tiene la finalidad de emplear técnicas que permitan
explicar y justificar las decisiones tomadas por los métodos de la inteligencia
artificial. Este factor es esencial para garantizar la transparencia y permitir
una revisión crítica de los procesos de toma de decisiones
En este mismo
sentido, Ortiz de Zárate (2021), plantea que “en buena medida, la transparencia y la explicabilidad permiten comprender resolver problemas
técnicos del funcionamiento del sistema, especialmente para comprender la
cadena de causalidades” (p. 334).
Evaluación de sesgos y discriminación
Al momento de
considerar este tema es importante destacar que los algoritmos de la IA en
ocasiones se ven inquietos gracias a los sesgos respectivos sobre los datos de ejercicio
que se emplean y ocupan. Esto implica evaluar la calidad y representatividad de
los datos utilizados y monitorear y ajustar los algoritmos para minimizar
sesgos y garantizar la equidad en las decisiones tomadas. La detección y
corrección de sesgos contribuye a asegurar que los algoritmos sean justos y no
perpetúen injusticias o discriminaciones existentes Cotino
y Castellanos (2021).
Auditorías y revisiones independientes
Las auditorías y
revisiones periódicas por parte de expertos externos son cruciales para
verificar la nitidez conjunta a la integridad de los algoritmos de inteligencia
artificial, ejecutados en la toma de decisiones. La participación de
investigadores, académicos y otras partes interesadas permite evaluar de manera
imparcial los sistemas de IA, identificar posibles deficiencias y ofrecer sugerencias
para mejorar la transparencia y el ajuste de cuentas.
Participación y divulgación pública
Es esencial fomentar
que se participe en la sociedad y demás partes que se interesen en el proceso
de regulación de la IA. La divulgación de información sobre los algoritmos y el
procedimiento de tomas de decisión, de forma comprensible para el público en
general, promueve la confianza y el ajuste de cuentas. La participación de la
sociedad civil puede involucrar comentarios públicos, consultas y mecanismos
para recopilar opiniones y preocupaciones.
Mecanismos
de rendición de cuentas para entidades que desarrollan y utilizan sistemas de
IA.
La responsabilidad de quienes desarrollan y emplean sistemas de IA es un
asunto fundamental en este campo, pues implica rendir cuentas sobre el
comportamiento y las consecuencias de estas tecnologías (Poses, 2023). Por esto se hace necesario
establecer mecanismos para su concreción.
Marco legal y normativo
Los gobiernos y las
instituciones pueden establecer marcos legales y normativos que impongan
obligaciones y responsabilidades a las entidades que desarrollan y utilizan
sistemas de IA. Además, pueden establecer sanciones o consecuencias legales en
caso de incumplimiento de estas obligaciones.
Responsabilidad por diseño
Las entidades deben
asumir la responsabilidad desde el diseño mismo de los sistemas de IA. La
misma, considera los principios éticos y legales desde la etapa inicial del
desarrollo, como la equidad, la privacidad, la no discriminación y la
seguridad.
Supervisión y auditoría
Es esencial
establecer mecanismos de supervisión y auditoría independientes para evaluar el
desempeño de los sistemas de IA y verificar su cumplimiento con los estándares
éticos y legales establecidos. Esto puede contribuir con la creación de
entidades reguladoras o agencias especializadas encargadas de monitorear el
desarrollo y uso de la IA.
Transparencia y explicaciones
Las entidades deben
ser transparentes en cuanto a las decisiones tomadas por los sistemas de IA y
explicar cómo se llega a ellas. Esto implica dar a conocer información transparente
y fácil de comprender acerca de la labor de los algoritmos que se utilicen.
Responsabilidad y divulgación de resultados
Las entidades deben
asumir la responsabilidad por las consecuencias de los sistemas de IA y
divulgar públicamente los resultados de su implementación. Se requiere ser
transparentes en cuanto a los impactos sociales, económicos y éticos generados
por la IA.
Protección
de datos personales en la era de la IA
El impacto de la IA en la
privacidad y la protección de datos personales
Por un lado, la IA
puede facilitar la recopilación, el almacenamiento y el análisis masivo de
datos personales, lo que implica un mayor riesgo de violación de la privacidad.
La información personal puede ser utilizada para entrenar y mejorar los
algoritmos de IA, lo que puede generar preocupaciones sobre el acceso desautorizado
o asimismo sobre el uso indebido de esos datos.
Por otro lado, la IA
puede generar riesgos de discriminación y perfiles automatizados basados en
datos personales. En cuanto a los algoritmos, pueden aprender y eternizar los sesgos
que existen en relación con los datos de entrenamiento, los mismos que pueden
trascender en decisiones alteradas o injustas. Además, la capacidad de
correlacionar y analizar datos personales puede revelar información sensible y
permitir la identificación de individuos incluso a partir de datos
aparentemente anónimos.
En respuesta a estos
desafíos, se han implementado regulaciones y marcos legales, uno de ellos es el
Reglamento General de Protección de Datos (GDPR) en la Unión Europea, para
proteger la privacidad y los datos personales en el contexto de la IA. Esta
normativa prevé los presupuestos para la obtención, el tratamiento y el
almacenamiento de datos personales, y requieren el consentimiento informado de
los individuos y la adopción de medidas de seguridad adecuadas (Organización de las Naciones
Unidas para la Educación, la Ciencia y la Cultura,
2019; De Hert & Papakonstantinou,
2016; Van Der Sloot & Rademaker,
2018).
Principios
y estándares para garantizar la seguridad y la confidencialidad de los datos en
sistemas de IA
Principio de seguridad de datos
Es esencial
implementar medidas de seguridad adecuadas para proteger los datos en los
sistemas de IA. Esto implica controles de acceso, cifrado, auditorías y
protección contra amenazas externas e internas.
Privacidad por diseño
La privacidad debe
ser considerada en todas las etapas del desarrollo de sistemas de IA. Se deben
adoptar medidas técnicas y organizativas para proteger la información personal
y minimizar la recopilación de datos desde el diseño mismo de los sistemas.
Consentimiento informado
Antes de utilizar
los datos de las personas en sistemas de IA, se deben obtener consentimientos
claros y específicos. El consentimiento debe ser libremente otorgado y basado
en información transparente sobre cómo se utilizarán los datos.
Minimización de datos
Es importante
limitar la cantidad de datos personales recopilados y utilizados en los
sistemas de IA. Solo se debe recopilar la información necesaria y relevante
para cumplir con los objetivos específicos de la IA.
Anonimización y pseudonimización
Se deben aplicar
técnicas de anonimización y pseudonimización
para proteger la identidad de las personas en los datos utilizados en sistemas
de IA. Esto permite utilizar datos de forma agregada y desidentificada,
reduciendo el riesgo de identificación de personas.
Evaluación de riesgos y mitigación
Es esencial realizar
evaluaciones de riesgos para identificar posibles vulnerabilidades y amenazas a
la seguridad de los datos. Se deben implementar medidas para mitigar estos
riesgos y garantizar la confidencialidad e integridad de los datos utilizados.
Cumplimiento normativo
Se deben seguir los
requisitos legales y regulaciones aplicables en materia de protección de datos,
como el Reglamento General de Protección de Datos (GDPR) en la Unión Europea.
Esto incluye respetar los derechos de los individuos y establecer mecanismos
para el ejercicio de estos derechos, como el derecho al acceso, rectificación y
supresión de datos (UNESCO, 2019).
Consentimiento informado y minimización de datos en el contexto de la IA
El consentimiento
informado implica que las entidades responsables de los sistemas de IA deben
informar de manera transparente a los individuos sobre qué datos se recopilan,
cómo se utilizarán, quién tendrá acceso a ellos y los posibles riesgos
asociados. Además, se deben proporcionar opciones claras y sencillas para que
los individuos puedan aceptar o rechazar el uso de sus datos.
En el contexto de la
IA, la minimización de datos es fundamental para proteger la privacidad y
minimizar los riesgos asociados con la manipulación o el acceso no autorizado a
la información personal (Solove, 2013). Al minimizar
los datos, se reduce la exposición de los individuos a posibles violaciones de
privacidad y se limita la cantidad de información que podría utilizarse para
tomar decisiones o perfiles automatizados que puedan afectar a las personas.
Mecanismos
de control en sistemas de IA
Aunque diseñado e implementado
con la mejor de las intenciones, junto con las ventajas para el buen gobierno,
los riesgos potenciales de la IA ya han sido identificados en múltiples áreas,
derivados de la existencia de errores de programación, opacidad, brechas de
protección de datos, sesgos o manipulación. Hay muchos códigos de ética de IA,
provenientes de diferentes segmentos de la sociedad global y de varias
disciplinas, que buscan evitar y/o remediar estos riesgos de IA.
Algunos académicos y
profesionales argumentan que un enfoque ético voluntario es apropiado para esta
tecnología beneficiosa y de ritmo acelerado, y que se debe evitar la regulación
legal porque podría sofocar la innovación y reducir los muchos beneficios de la
IA (Mazzi y Floridi, 2023).
El uso de la
inteligencia artificial y sus límites frente a los derechos fundamentales
Por su parte Kunner
(2018) afirma lo siguiente:
A través de un análisis se identifican los
desafíos que debe asumir el derecho constitucional frente al uso de las
tecnologías de la información y la comunicación, y el impacto que esto genera
para los derechos de los ciudadanos. Por otra parte, se realiza un acercamiento
al uso de la Inteligencia Artificial en el sector público a partir del uso de
datos. Asimismo, se exhibe la respuesta institucional normativa y de política.
(p. 8)
El uso creciente de la
inteligencia artificial plantea interrogantes sobre su impacto en los derechos
fundamentales. Si bien ofrece beneficios como eficiencia y productividad,
también conlleva riesgos éticos. Por ejemplo, en la privacidad, el análisis de
datos personales por algoritmos de IA plantea preocupaciones sobre el uso indebido
de información sensible. Además, el
reconocimiento facial puede amenazar la autonomía al permitir identificaciones
sin consentimiento. En la libertad de expresión, los algoritmos de
recomendación pueden limitar la diversidad de opiniones y reforzar estereotipos
sociales.
Para abordar estos desafíos, es
crucial establecer marcos éticos y regulaciones sólidas. Esto incluye promover
la transparencia en el uso de datos, la equidad en el diseño de sistemas y la
rendición de cuentas por los resultados algorítmicos. En conclusión, la
implementación de IA debe gestionarse cuidadosamente para proteger los derechos
fundamentales. Se requiere un enfoque ético y regulaciones que prioricen la
transparencia y la equidad. Además, se necesita un diálogo interdisciplinario
para desarrollar soluciones efectivas y sostenibles.
Perspectivas
internacionales y desafíos futuros en la regulación de la IA
Estos componentes
desatan una situación compleja y en evolución, mientras algunos países, como la
Unión Europea, han tomado la delantera al proponer regulaciones específicas y
centradas en la ética, otros adoptan enfoques más flexibles o carecen de una
legislación clara. Los desafíos futuros en la regulación de la IA son diversos
y cruciales (Llamas et
al., 2022).
La rapidez con la
que avanza la tecnología de IA exige marcos regulatorios adaptables y
actualizados para asegurar que se mantengan efectivos. La ética y la
transparencia son aspectos fundamentales, ya que los sistemas de IA deben ser
capaces de explicar sus decisiones y operar de manera responsable. La cuestión
de la responsabilidad y la rendición de cuentas es compleja, especialmente en
el caso de la IA autónoma.
La protección de la
privacidad y la seguridad de los datos personales es esencial para generar
confianza en el uso de la IA. Además, el impacto económico y social de la IA
requiere una atención cuidadosa para abordar los cambios laborales y sociales
que puede generar. El desafío de la colaboración global se destaca, ya que la
IA no conoce fronteras y la falta de armonización entre jurisdicciones podría
generar problemas y desigualdades.
La cooperación internacional es
esencial para asegurar una regulación efectiva de la inteligencia artificial en
un mundo cada vez más interconectado. Conforme la IA trasciende las fronteras
nacionales, la falta de armonización entre distintas jurisdicciones puede
generar problemas y desigualdades significativas. Por lo tanto, resulta
imperativo que los países colaboren en la creación de estándares comunes y
compartan las mejores prácticas en materia de regulación de la IA.
Esto implica trabajar en conjunto
para establecer principios éticos universales que orienten el desarrollo y la
implementación de sistemas de IA, así como crear mecanismos de cooperación para
abordar los desafíos técnicos y legales que surgen en este campo en constante
evolución. Al fortalecer la colaboración internacional, se puede avanzar hacia
un marco regulatorio más coherente y efectivo que fomente el desarrollo
responsable y ético de la IA y proteja los intereses y derechos de las personas
en todo el mundo.
Experiencias
y enfoques de diferentes jurisdicciones en la regulación de la IA
En cuanto a este
apartado, es fundamental tener en conocimiento que la Unión Europea, ha sido
líder en regulación de la IA debido a que ha generado la propuesta de
Reglamento de la UE sobre Inteligencia Artificial en 2021, con ello ha conseguido
clasificar las aplicaciones en niveles de riesgo, protegiendo derechos
fundamentales y evitando usos de alto riesgo. Por otra parte, Estados Unidos se
ha centrado en un enfoque fragmentado, conteniendo la regulación principalmente
a través de políticas sectoriales y enfoques basados en principios, no obstante,
hay que resaltar que no hay una ley federal específica para la IA.
Sin embargo, China
ha obtenido un enfoque en promoción y desarrollo de la IA a través de políticas
para fomentar la investigación y el despliegue de aplicaciones en diversos
campos. Finalmente, países como Canadá y
Singapur se han basado en un enfoque equilibrado, Canadá conteniendo un marco
de ética y gobierno de la IA que establece principios para el desarrollo y uso
ético de la IA y Singapur con un enfoque progresista gracias al desarrollo de
capacidades en IA y uso en aplicaciones gubernamentales en conjunto al
establecimiento de pautas éticas y colaboración internacional en normas y
estándares de IA.
La regulación de la IA sigue evolucionando, y cada jurisdicción aborda
los desafíos de manera diferente, es por ello por lo que la regulación de la
inteligencia artificial entre diferentes jurisdicciones es inconsistente y
desigual. Mientras la Unión Europea lidera con un enfoque en la protección de
derechos y mitigación de riesgos, otros países carecen de una legislación
federal específica. China prioriza el desarrollo tecnológico, mientras que
Canadá y Singapur buscan equilibrar la IA con principios éticos.
La falta de una
regulación armonizada y coherente podría generar un terreno propicio para la
competencia desigual entre países y el surgimiento de brechas tecnológicas y
éticas. Además, la ausencia de estándares internacionales podría obstaculizar
la cooperación global y dificultar la resolución de problemas globales
relacionados con la IA, como la privacidad de datos y la seguridad de los
sistemas (Katzenbach y Ulbricht, 2022).
Es esencial que las
jurisdicciones colaboren y trabajen en conjunto para desarrollar regulaciones
que aborden adecuadamente los desafíos de la IA, promoviendo principios éticos
sólidos, transparencia y responsabilidad. Solo mediante una cooperación
efectiva y una regulación bien definida se podrá garantizar que la IA se utilice
de manera responsable y beneficiosa para la humanidad en su conjunto.
Desafíos
emergentes en la regulación de la IA, como la IA autónoma y la IA en la rama de
la medicina
La regulación de la
IA autónoma y la IA en la rama de la medicina enfrenta desafíos complejos
relacionados con la responsabilidad, la ética, la seguridad, la transparencia y
la precisión. Es esencial que los gobiernos, las organizaciones y los expertos
trabajen juntos para abordar estos problemas y promover un uso responsable y
beneficioso de la inteligencia artificial en estas áreas críticas. Al adoptar estas propuestas y trabajar en colaboración, se puede
avanzar hacia una regulación efectiva de la IA autónoma y la IA en el ámbito de
la salud que promueva su desarrollo y uso responsable, maximizando sus
beneficios mientras se minimizan los riesgos potenciales.
Enfoque
económico generado por la IA
El enfoque económico
de la IA muestra que se espera que esta tecnología genere un valor económico
considerable para 2030, con China y América del Norte liderando las ganancias.
Sin embargo, la concentración de la IA en manos de países ricos podría dejar
atrás a las naciones en desarrollo, creando una brecha tecnológica y económica
significativa. Todo esto, basándose en los informes que ha presentado la UNESCO
(2019).
El enfoque económico potenciado
por la inteligencia artificial está provocando cambios significativos en una
amplia gama de sectores, que van desde la producción hasta la atención médica y
los servicios financieros. La capacidad de la IA para analizar grandes
cantidades de datos de manera rápida ha incrementado la productividad y la
eficiencia en áreas como la fabricación y el diagnóstico médico personalizado.
Este enfoque ha generado nuevos
modelos de negocio basados en datos y algoritmos. Las empresas están utilizando
la IA para prever la demanda del mercado, optimizar la cadena de suministros y
personalizar la experiencia del cliente a través de recomendaciones de
productos y estrategias de precios más efectivas. A pesar de las oportunidades
económicas, la IA plantea desafíos importantes, como el impacto en el empleo.
La automatización impulsada por la IA podría resultar en la pérdida de millones
de puestos de trabajo en diversos sectores, lo que subraya la importancia de
programas de reentrenamiento laboral y políticas de protección social.
Además, existe el riesgo de que
la IA agrave la desigualdad económica al favorecer a empresas con mayores
recursos y datos, lo que podría profundizar las brechas entre empresas y
países. Por lo tanto, es crucial garantizar una adopción equitativa de la IA y
promover políticas que fomenten la inclusión digital y el acceso igualitario a
las oportunidades económicas que ofrece. Aunque la IA promete eficiencia y
crecimiento, también presenta desafíos en términos de empleo, desigualdad y
acceso equitativo. Abordar estos desafíos de manera proactiva y colaborativa es
fundamental para aprovechar el potencial transformador de la IA en la economía
global.
Es crucial
establecer regulaciones y políticas inclusivas para garantizar un acceso
equitativo a la IA y sus beneficios, promoviendo la cooperación tecnológica y
ética para abordar los desafíos globales y mejorar la calidad de vida para
todos.
Falta
de legislación específica para regular el uso de la IA
A pesar de los
avances en la regulación de la inteligencia artificial desde una perspectiva de
derecho público, una crítica importante que se puede plantear es la ausencia de
una ley específica y completa que aborde de manera integral y exhaustiva el
control y la utilización de la IA. Si bien existen marcos legales y
regulaciones que tratan aspectos específicos, como el resguardo de todos los datos
personales, la transparencia y la no segregación, aún no se cuenta con una legislación
amplia y actualizada que aborde todos los desafíos y dilemas éticos, legales y
sociales asociados con la IA (Ponce, 2022).
Esta carencia puede
dar lugar a situaciones de incertidumbre y lagunas legales, lo que dificulta
tanto para los desarrolladores como para los usuarios de sistemas de IA, tener
una orientación clara sobre sus derechos y responsabilidades. Además, la falta
de una ley específica puede dar lugar a interpretaciones divergentes y a una
aplicación heterogénea de los principios éticos y normas existentes, lo que
podría afectar la coherencia y la eficacia de las medidas regulatorias.
La ausencia de una
ley específica para la IA también plantea desafíos en términos de adaptabilidad
y actualización normativa. Dado el progresivo desarrollo de la tecnología y la
continua evolución de la IA, es necesario contar con un marco legal que pueda mantenerse
al día con los nuevos desarrollos y abordar los desafíos emergentes. La falta
de una legislación específica podría dificultar la capacidad de los sistemas
legales para responder de manera ágil y efectiva a los problemas y
preocupaciones que surgen con el uso de la IA.
Es importante
destacar la necesidad de un enfoque equilibrado en la elaboración de una ley
para la regulación de la IA. Esta debe ser lo suficientemente flexible para
fomentar la innovación y el desarrollo tecnológico, al tiempo que garantice la
protección de los derechos fundamentales y la seguridad de los usuarios.
Asimismo, debe ser elaborada de manera inclusiva, involucrando a expertos,
académicos y otros actores relevantes en el proceso de formulación de políticas
para asegurar una legislación integral y bien informada (Sánchez, 2022).
Conclusiones
1.
Si bien es cierto
que la ausencia de una legislación exhaustiva puede plantear desafíos en
términos de claridad y coherencia en la aplicación de principios éticos y
normas existentes, también es importante considerar que la rápida evolución de
la tecnología de IA podría superar fácilmente cualquier marco regulatorio
estático.
2.
Una crítica
fundamental a la falta de legislación específica es que puede conducir a una
rigidez regulatoria que no se adapta a las innovaciones y cambios rápidos en la
tecnología de IA. Además, la complejidad inherente de la IA y su amplia gama de
aplicaciones hacen que sea difícil desarrollar una legislación que aborde todas
las posibles ramificaciones éticas, legales y sociales de manera exhaustiva.
3.
Además, la llamada a
una legislación específica podría subestimar la efectividad de los enfoques
regulatorios existentes, como los marcos legales generales sobre privacidad de
datos y antidiscriminación, que pueden aplicarse de manera flexible a las
aplicaciones de IA. Estos marcos pueden proporcionar un grado de protección
suficiente sin imponer restricciones excesivas a la innovación y el desarrollo
tecnológico.
4.
Asimismo, la
sugerencia de que una legislación específica para la IA garantizaría una
orientación clara y coherente para desarrolladores y usuarios puede ser
discutible. La complejidad de la IA y la diversidad de sus aplicaciones hacen
que sea poco probable que una sola ley pueda abordar todas las preocupaciones
de manera exhaustiva. En cambio, podría ser más efectivo adoptar un enfoque
multifacético que combine regulaciones específicas con estándares industriales,
autorregulación y mecanismos de supervisión.
5.
La crítica a la falta de una
legislación específica para la IA resalta la necesidad de contar con un marco
legal completo y actualizado que aborde de manera integral los desafíos éticos,
legales y sociales que plantea esta tecnología. Una ley específica para la
regulación de la IA proporcionaría orientación clara, coherencia y
adaptabilidad necesarias para un desarrollo y uso responsable de la IA en
beneficio de la sociedad.
Referencias bibliográficas
Barrios, C., y Cetina, C. (2022, 22 de agosto). La identidad digital en
el sector público: retos y perspectivas. https://www.caf.com/es/conocimiento/visiones/2022/08/la-identidad-digital-en-el-sector-publico-retos-y-perspectivas/
Cotino, L., y Castellanos, J. (2022). Transparencia
y explicabilidad de la inteligencia Artificial. Tirant lo blanch. https://www.uv.es/cotino/publicaciones/libroabiertotp22.pdf
Cotiso, L. (2023). Qué
concreta transparencia e información
de algoritmos e inteligencia artificial es la debida. Revista Española de la Transparencia,
16, 17-63. https://revistatransparencia.com/ojs/index.php/ret/article/view/272
De Hert, P., y Papakonstantinou, V.
(2016). El nuevo
Reglamento General de Protección de Datos: ¿aún un sistema sólido para la
protección de los individuos? Computer Law & Security Review,
32(2), 179-194. https://research.tilburguniversity.edu/en/publications/the-new-general-data-protection-regulation-still-a-sound-system-f
Jalón
Arias, E., Ponce Ruiz, D., Arandia, J. C., &
Arrias Añez, J. C. (2021). Las limitaciones de la aplicación de la inteligencia
artificial al derecho y el futuro de la educación jurídica. Revista Conrado, 17(83), 439-450. http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S1990-86442021000600439&lng=es&tlng=.
Katzenbach, C., y Ulbricht, L. (2022). Gobernanza Algorítmica. Revista
Latinoamericana de Economía y Sociedad Digital. https://doi.org/10.53857/cwyi6959
Kunner, C. (2018). El Reglamento General de
Protección de Datos y la toma de decisiones automatizada: ¿un desafío para el
principio de explicación? International Data Privacy Law, 8(4), 289-292. https://doi.org/10.1093/idpl/ipy024
Llamas, J. Z.,
Mendoza, O. A., y Graff, M. (2022). Enfoques regulatorios para la inteligencia
artificial (IA). Revista
Chilena de Derecho, 49 (3),
31- 62. https://www.scielo.cl/pdf/rchilder/v49n3/0718-3437-rchilder-49-03-31.pdf
Mazzi, F., y Floridi, L. (2023). The Ethics of Artificial Intelligence for the
Sustainable Development Goals. Rivista giuridica dell'ambiente 38 (3), 1073-1074 https://link.springer.com/book/10.1007/978-3-031-21147-8
Organización
de las Naciones Unidas para la Educación, la Ciencia y la Cultura. (2019). Inteligencia
Artificial y Educación: Cuestiones éticas, pedagógicas y normativas.
Ediciones UNESCO. https://www.unesco.org/es/artificial-intelligence/recommendation-ethics
Ortiz de Zárate, L. (2021). Explicabilidad de la
inteligencia artifiial. Revista en Cultura de la
Legalidad, 22, 328-344. https://doi.org/10.20318/eunomia.2022.6819
Ponce, J.
P. (2022). Las relaciones entre inteligencia artificial, regulación y ética,
con especial atención al sector público. Revista General de
Derecho Administrativo, 61, 1-29. https://dialnet.unirioja.es/servlet/articulo?codigo=8642167
Poses, L.
(2023, 18 de mayo). La rendición de cuentas de la Inteligencia Artificial.
El ciudadano. https://www.elciudadanoweb.com/la-rendicion-de-cuentas-de-la-inteligencia-artificial/
Solove, D. J. (2013). Privacidad y los peligros de un gobierno totalizador. Harvard Law Review, 126(7), 1934-1975. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2171018
Sánchez,
M. E. (2022). La inteligencia artificial en el sector público y su límite
respecto de los derechos fundamentales. Estudios
Constitucionales, 20(2), 257-284. http://dx.doi.org/10.4067/S0718-52002022000200257
Soriano,
A. (2021). Decisiones
automatizadas y discriminación: aproximació n y
propuestas generales. Revista General de Derecho Administrativo, 56. https://laadministracionaldia.inap.es/noticia.asp?id=1511706
Van Der
Sloot, B., y Rademaker, A. (2018). El Reglamento General de Protección de Datos de la UE: hacia un
régimen de propiedad para proteger la privacidad de los datos. Computer Law & Security Review,
34(2), 264-275. https://bartvandersloot.com/onewebmedia/SSRN-id3162987.pdf
Zaragoza,
S. (2023, 8 de enero). Cómo avanza la Gestión Documental gracias a la
Inteligencia Artificial. Ofimática. https://www.ofimaticasz.com/como-avanza-la-gestion-documental-gracias-a-la-inteligencia-artificial/