Recibido: 12/02/2024   Aceptado: 01/07/2014 

 

Protección de datos personales en la regulación de la inteligencia artificial (Original).

Personal data protection in the regulation of artificial intelligence (Original).

 

Gabriela Carolina Espín Martínez.  Licenciatura en Derecho. Universidad Indoamérica. República del Ecuador.

[gespin7@indoamerica.edu.ec ]   [gar.1015@hotmail.com ] [ https://orcid.org/0000-0002-2614-1464 ]

 

Willam Enrique Redrobán Barreto. Licenciado en Derecho. Magíster en Derecho Constitucional. Docente a tiempo completo en la Universidad Indoamérica. República del Ecuador. [willamredroban@uti.edu.ec ]   [werb1988@hotmail.com ]  [https://orcid.org/0000-0003-3331-7429 ]

 

Resumen 

La importancia de la regulación de la inteligencia artificial desde una perspectiva de derecho público se evidencia en este exhaustivo análisis. Se abordan los avances tecnológicos y el potencial transformador de la inteligencia artificial en diversos sectores, junto con los beneficios y desafíos asociados. Se señala la necesidad de transparencia en conjunto al ajuste de cuentas en relación a los algoritmos de la inteligencia artificial, resaltando el valor de comprender su funcionamiento y aplicar medidas para garantizar la equidad. La protección de datos personales se presenta como un aspecto crítico, especialmente en la era actual, donde la recopilación masiva de información plantea riesgos para la privacidad. El consentimiento informado y la minimización de datos se destacan como principios esenciales en este contexto. Además, se examinan perspectivas internacionales y desafíos futuros en la regulación de la inteligencia artificial, subrayando la necesidad de enfoques colaborativos y éticos. Se mencionan experiencias y enfoques de diversas jurisdicciones, señalando la falta de regulación armonizada como un posible obstáculo para la cooperación global. Finalmente, se destaca la falta de legislación específica para la inteligencia artificial como un punto crítico, evidenciando la necesidad de marcos legales actualizados y adaptativos que aborden integralmente los desafíos éticos, legales y sociales asociados con la inteligencia artificial.

Palabras clave: datos personales; inteligencia artificial; jurisdicción; legalidad; tecnología

Abstract 

The importance of artificial intelligence (AI) regulation from a public law perspective is evident in this comprehensive analysis. Technological advances and the transformative potential of AI in various sectors are addressed, along with the associated benefits and challenges. The need for transparency and accountability in AI algorithms is noted, highlighting the importance of understanding how they work and implementing measures to ensure fairness. Personal data protection is presented as a critical aspect, especially in the AI era, where the massive collection of information poses privacy risks.  Informed consent and data minimization are highlighted as essential principles in this context. In addition, international perspectives and future challenges in AI regulation are discussed, highlighting the need for collaborative and ethical approaches. Experiences and approaches from various jurisdictions are mentioned, pointing to the lack of harmonized regulation as a potential obstacle to global cooperation. Finally, the lack of AI-specific legislation is highlighted as a critical point, evidencing the need for updated and adaptive legal frameworks that comprehensively address the ethical, legal and social challenges associated with AI.

Keywords: artificial intelligence; jurisdiction; legality; personal data; technology

Introducción 

La inteligencia artificial (IA) ha emergido como una disciplina en constante evolución que tiene el potencial de transformar significativamente diversos aspectos de nuestra sociedad. Con avances tecnológicos impresionantes en diversos campos, así como la noción automática, el procesamiento de los lenguajes y la perspectiva vista desde una computadora o dispositivo electrónico inteligente, la inteligencia artificial ha puesto en consideración su capacidad para optimizar procesos, mejorar la toma de decisiones y facilitar la automatización de tareas en numerosos sectores.

Estas innovaciones tecnológicas prometen beneficios sustanciales en términos de eficiencia, productividad y calidad de vida. Sin embargo, este rápido progreso de la IA también ha generado preocupaciones y desafíos legales, éticos y sociales. La adopción generalizada de sistemas de IA plantea interrogantes sobre la transparencia, el ajuste de cuentas y la imparcialidad en su desarrollo y uso.

La opacidad de los algoritmos de IA puede resultar problemática, ya que puede dificultar la comprensión de las disposiciones otorgadas por los regímenes de inteligencia artificial y dificultar la detección de sesgos y discriminación algorítmica. Por otra parte, la recolección y el procesador de gigantescos importes de datos personales correspondientes a los sistemas de IA esbozan asuntos de reserva y protección de datos que deben abordarse de manera efectiva. 

En este contexto, la regulación de la inteligencia artificial desde una perspectiva de derecho público se presenta como un marco normativo esencial para salvaguardar los derechos fundamentales, proteger los intereses colectivos y garantizar la ética, en conjunto al compromiso en el despliegue de sistemas de IA. La regulación adecuada de la IA busca establecer normas y principios que guíen su desarrollo y uso responsable, minimizando los riesgos y potenciando los beneficios. La regulación de la inteligencia artificial desde una perspectiva de derecho público implica una mirada crítica y reflexiva sobre los desafíos y oportunidades que plantea la IA en nuestra sociedad.  

En este artículo se analizará en detalle la importancia de la regulación de la inteligencia artificial desde una perspectiva de derecho público. Se examinarán los principales desafíos y problemas que surgen en el desarrollo y uso de la IA, y se presentarán enfoques y estrategias que pueden adoptarse para abordarlos de manera efectiva. Además, se explorarán los principios éticos y los mecanismos de responsabilidad necesarios para garantizar su utilización controlada y ética en favor de la sociedad.

Desarrollo

Transparencia y rendición de cuentas de los algoritmos de la IA. Explicación y comprensión de los algoritmos utilizados

La explicación y comprensión de los algoritmos utilizados en sistemas de IA son fundamentales en la regulación de la IA desde una perspectiva de derecho público. Esta utilidad se refiere a entender cómo los algoritmos toman decisiones, mientras que la comprensión implica evaluar su robustez y seguridad. La explicación de los algoritmos de IA busca comprender cómo llegan a sus conclusiones, permitiendo interpretar y explicar los resultados. En este caso, la transparencia en el funcionamiento de los algoritmos pasa a ser esencial para garantizar la rendición de cuentas y detectar sesgos o discriminación alguna (Jalón et al., 2021; Soriano 2021; Sánchez, 2022).

Por otra parte, es crucial comprender cómo los algoritmos se aplican en diferentes contextos y cómo afectan a los individuos y a la sociedad. En cuanto a la explicación y comprensión de los algoritmos, estos permiten identificar sesgos, corregir errores y facilitar la revisión y auditoría de los resultados obtenidos (Llamas et al., 2022).

Medidas para garantizar la transparencia en la toma de decisiones algorítmicas

Los autores de este artículo consultaron diferentes investigaciones (Cotino y Castellanos, 2022; Barrios y Cetina, 2022; Katzenbach y Ulbricht, 2022), los que han realizado contribuciones significativas al desarrollo de estrategias y políticas para asegurar la transparencia en la toma de decisiones algorítmicas. Este estudio permitió identificar varios componentes necesarios para lograr dicho propósito, tales como:

Documentación exhaustiva

Es imprescindible que las organizaciones proporcionen una documentación detallada sobre los algoritmos utilizados en los sistemas de inteligencia artificial, debido a que esto incluye información específica acerca de datos de entrenamiento utilizados, asimismo sobre los métodos y aquellas técnicas empleadas (Cotiso, 2023).

 No obstante, también se consideran los parámetros y reglas empleadas en base a la toma de decisiones, se concentra en permitir el entendimiento transparente de la forma en la que se llega a la toma de decisiones, por consiguiente, facilita la revisión y auditoría por parte de expertos y de los actores externos.

Explicación de los algoritmos

Esta explicación hace referencia necesidad de comprender el cómo los algoritmos tienen la capacidad de tomar decisiones por los seres humanos. El contexto de la regulación de la IA, tiene la finalidad de emplear técnicas que permitan explicar y justificar las decisiones tomadas por los métodos de la inteligencia artificial. Este factor es esencial para garantizar la transparencia y permitir una revisión crítica de los procesos de toma de decisiones

En este mismo sentido, Ortiz de Zárate (2021), plantea que “en buena medida, la transparencia y la explicabilidad permiten comprender resolver problemas técnicos del funcionamiento del sistema, especialmente para comprender la cadena de causalidades” (p. 334). 

Evaluación de sesgos y discriminación

Al momento de considerar este tema es importante destacar que los algoritmos de la IA en ocasiones se ven inquietos gracias a los sesgos respectivos sobre los datos de ejercicio que se emplean y ocupan. Esto implica evaluar la calidad y representatividad de los datos utilizados y monitorear y ajustar los algoritmos para minimizar sesgos y garantizar la equidad en las decisiones tomadas. La detección y corrección de sesgos contribuye a asegurar que los algoritmos sean justos y no perpetúen injusticias o discriminaciones existentes Cotino y Castellanos (2021).

Auditorías y revisiones independientes

Las auditorías y revisiones periódicas por parte de expertos externos son cruciales para verificar la nitidez conjunta a la integridad de los algoritmos de inteligencia artificial, ejecutados en la toma de decisiones. La participación de investigadores, académicos y otras partes interesadas permite evaluar de manera imparcial los sistemas de IA, identificar posibles deficiencias y ofrecer sugerencias para mejorar la transparencia y el ajuste de cuentas.

Participación y divulgación pública

Es esencial fomentar que se participe en la sociedad y demás partes que se interesen en el proceso de regulación de la IA. La divulgación de información sobre los algoritmos y el procedimiento de tomas de decisión, de forma comprensible para el público en general, promueve la confianza y el ajuste de cuentas. La participación de la sociedad civil puede involucrar comentarios públicos, consultas y mecanismos para recopilar opiniones y preocupaciones. 

Mecanismos de rendición de cuentas para entidades que desarrollan y utilizan sistemas de IA. 

La responsabilidad de quienes desarrollan y emplean sistemas de IA es un asunto fundamental en este campo, pues implica rendir cuentas sobre el comportamiento y las consecuencias de estas tecnologías (Poses, 2023). Por esto se hace necesario establecer mecanismos para su concreción.

Marco legal y normativo

Los gobiernos y las instituciones pueden establecer marcos legales y normativos que impongan obligaciones y responsabilidades a las entidades que desarrollan y utilizan sistemas de IA. Además, pueden establecer sanciones o consecuencias legales en caso de incumplimiento de estas obligaciones. 

Responsabilidad por diseño

Las entidades deben asumir la responsabilidad desde el diseño mismo de los sistemas de IA. La misma, considera los principios éticos y legales desde la etapa inicial del desarrollo, como la equidad, la privacidad, la no discriminación y la seguridad.  

Supervisión y auditoría

Es esencial establecer mecanismos de supervisión y auditoría independientes para evaluar el desempeño de los sistemas de IA y verificar su cumplimiento con los estándares éticos y legales establecidos. Esto puede contribuir con la creación de entidades reguladoras o agencias especializadas encargadas de monitorear el desarrollo y uso de la IA. 

Transparencia y explicaciones

Las entidades deben ser transparentes en cuanto a las decisiones tomadas por los sistemas de IA y explicar cómo se llega a ellas. Esto implica dar a conocer información transparente y fácil de comprender acerca de la labor de los algoritmos que se utilicen.

Responsabilidad y divulgación de resultados

Las entidades deben asumir la responsabilidad por las consecuencias de los sistemas de IA y divulgar públicamente los resultados de su implementación. Se requiere ser transparentes en cuanto a los impactos sociales, económicos y éticos generados por la IA.  

Protección de datos personales en la era de la IA

 El impacto de la IA en la privacidad y la protección de datos personales

Por un lado, la IA puede facilitar la recopilación, el almacenamiento y el análisis masivo de datos personales, lo que implica un mayor riesgo de violación de la privacidad. La información personal puede ser utilizada para entrenar y mejorar los algoritmos de IA, lo que puede generar preocupaciones sobre el acceso desautorizado o asimismo sobre el uso indebido de esos datos. 

Por otro lado, la IA puede generar riesgos de discriminación y perfiles automatizados basados en datos personales. En cuanto a los algoritmos, pueden aprender y eternizar los sesgos que existen en relación con los datos de entrenamiento, los mismos que pueden trascender en decisiones alteradas o injustas. Además, la capacidad de correlacionar y analizar datos personales puede revelar información sensible y permitir la identificación de individuos incluso a partir de datos aparentemente anónimos.

En respuesta a estos desafíos, se han implementado regulaciones y marcos legales, uno de ellos es el Reglamento General de Protección de Datos (GDPR) en la Unión Europea, para proteger la privacidad y los datos personales en el contexto de la IA. Esta normativa prevé los presupuestos para la obtención, el tratamiento y el almacenamiento de datos personales, y requieren el consentimiento informado de los individuos y la adopción de medidas de seguridad adecuadas (Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, 2019; De Hert & Papakonstantinou, 2016; Van Der Sloot & Rademaker, 2018).

Principios y estándares para garantizar la seguridad y la confidencialidad de los datos en sistemas de IA 

Principio de seguridad de datos

Es esencial implementar medidas de seguridad adecuadas para proteger los datos en los sistemas de IA. Esto implica controles de acceso, cifrado, auditorías y protección contra amenazas externas e internas. 

Privacidad por diseño

La privacidad debe ser considerada en todas las etapas del desarrollo de sistemas de IA. Se deben adoptar medidas técnicas y organizativas para proteger la información personal y minimizar la recopilación de datos desde el diseño mismo de los sistemas. 

Consentimiento informado

Antes de utilizar los datos de las personas en sistemas de IA, se deben obtener consentimientos claros y específicos. El consentimiento debe ser libremente otorgado y basado en información transparente sobre cómo se utilizarán los datos. 

Minimización de datos

Es importante limitar la cantidad de datos personales recopilados y utilizados en los sistemas de IA. Solo se debe recopilar la información necesaria y relevante para cumplir con los objetivos específicos de la IA. 

Anonimización y pseudonimización

Se deben aplicar técnicas de anonimización y pseudonimización para proteger la identidad de las personas en los datos utilizados en sistemas de IA. Esto permite utilizar datos de forma agregada y desidentificada, reduciendo el riesgo de identificación de personas. 

Evaluación de riesgos y mitigación

Es esencial realizar evaluaciones de riesgos para identificar posibles vulnerabilidades y amenazas a la seguridad de los datos. Se deben implementar medidas para mitigar estos riesgos y garantizar la confidencialidad e integridad de los datos utilizados. 

Cumplimiento normativo

Se deben seguir los requisitos legales y regulaciones aplicables en materia de protección de datos, como el Reglamento General de Protección de Datos (GDPR) en la Unión Europea. Esto incluye respetar los derechos de los individuos y establecer mecanismos para el ejercicio de estos derechos, como el derecho al acceso, rectificación y supresión de datos (UNESCO, 2019).

Consentimiento informado y minimización de datos en el contexto de la IA

El consentimiento informado implica que las entidades responsables de los sistemas de IA deben informar de manera transparente a los individuos sobre qué datos se recopilan, cómo se utilizarán, quién tendrá acceso a ellos y los posibles riesgos asociados. Además, se deben proporcionar opciones claras y sencillas para que los individuos puedan aceptar o rechazar el uso de sus datos. 

En el contexto de la IA, la minimización de datos es fundamental para proteger la privacidad y minimizar los riesgos asociados con la manipulación o el acceso no autorizado a la información personal (Solove, 2013). Al minimizar los datos, se reduce la exposición de los individuos a posibles violaciones de privacidad y se limita la cantidad de información que podría utilizarse para tomar decisiones o perfiles automatizados que puedan afectar a las personas. 

Mecanismos de control en sistemas de IA 

Aunque diseñado e implementado con la mejor de las intenciones, junto con las ventajas para el buen gobierno, los riesgos potenciales de la IA ya han sido identificados en múltiples áreas, derivados de la existencia de errores de programación, opacidad, brechas de protección de datos, sesgos o manipulación. Hay muchos códigos de ética de IA, provenientes de diferentes segmentos de la sociedad global y de varias disciplinas, que buscan evitar y/o remediar estos riesgos de IA.

Algunos académicos y profesionales argumentan que un enfoque ético voluntario es apropiado para esta tecnología beneficiosa y de ritmo acelerado, y que se debe evitar la regulación legal porque podría sofocar la innovación y reducir los muchos beneficios de la IA (Mazzi y Floridi, 2023).

El uso de la inteligencia artificial y sus límites frente a los derechos fundamentales

Por su parte Kunner (2018) afirma lo siguiente:

A través de un análisis se identifican los desafíos que debe asumir el derecho constitucional frente al uso de las tecnologías de la información y la comunicación, y el impacto que esto genera para los derechos de los ciudadanos. Por otra parte, se realiza un acercamiento al uso de la Inteligencia Artificial en el sector público a partir del uso de datos. Asimismo, se exhibe la respuesta institucional normativa y de política. (p. 8)

El uso creciente de la inteligencia artificial plantea interrogantes sobre su impacto en los derechos fundamentales. Si bien ofrece beneficios como eficiencia y productividad, también conlleva riesgos éticos. Por ejemplo, en la privacidad, el análisis de datos personales por algoritmos de IA plantea preocupaciones sobre el uso indebido de información sensible.  Además, el reconocimiento facial puede amenazar la autonomía al permitir identificaciones sin consentimiento. En la libertad de expresión, los algoritmos de recomendación pueden limitar la diversidad de opiniones y reforzar estereotipos sociales.

Para abordar estos desafíos, es crucial establecer marcos éticos y regulaciones sólidas. Esto incluye promover la transparencia en el uso de datos, la equidad en el diseño de sistemas y la rendición de cuentas por los resultados algorítmicos. En conclusión, la implementación de IA debe gestionarse cuidadosamente para proteger los derechos fundamentales. Se requiere un enfoque ético y regulaciones que prioricen la transparencia y la equidad. Además, se necesita un diálogo interdisciplinario para desarrollar soluciones efectivas y sostenibles.

Perspectivas internacionales y desafíos futuros en la regulación de la IA 

Estos componentes desatan una situación compleja y en evolución, mientras algunos países, como la Unión Europea, han tomado la delantera al proponer regulaciones específicas y centradas en la ética, otros adoptan enfoques más flexibles o carecen de una legislación clara. Los desafíos futuros en la regulación de la IA son diversos y cruciales (Llamas et al., 2022).

La rapidez con la que avanza la tecnología de IA exige marcos regulatorios adaptables y actualizados para asegurar que se mantengan efectivos. La ética y la transparencia son aspectos fundamentales, ya que los sistemas de IA deben ser capaces de explicar sus decisiones y operar de manera responsable. La cuestión de la responsabilidad y la rendición de cuentas es compleja, especialmente en el caso de la IA autónoma.

La protección de la privacidad y la seguridad de los datos personales es esencial para generar confianza en el uso de la IA. Además, el impacto económico y social de la IA requiere una atención cuidadosa para abordar los cambios laborales y sociales que puede generar. El desafío de la colaboración global se destaca, ya que la IA no conoce fronteras y la falta de armonización entre jurisdicciones podría generar problemas y desigualdades. 

La cooperación internacional es esencial para asegurar una regulación efectiva de la inteligencia artificial en un mundo cada vez más interconectado. Conforme la IA trasciende las fronteras nacionales, la falta de armonización entre distintas jurisdicciones puede generar problemas y desigualdades significativas. Por lo tanto, resulta imperativo que los países colaboren en la creación de estándares comunes y compartan las mejores prácticas en materia de regulación de la IA.

Esto implica trabajar en conjunto para establecer principios éticos universales que orienten el desarrollo y la implementación de sistemas de IA, así como crear mecanismos de cooperación para abordar los desafíos técnicos y legales que surgen en este campo en constante evolución. Al fortalecer la colaboración internacional, se puede avanzar hacia un marco regulatorio más coherente y efectivo que fomente el desarrollo responsable y ético de la IA y proteja los intereses y derechos de las personas en todo el mundo.

Experiencias y enfoques de diferentes jurisdicciones en la regulación de la IA

En cuanto a este apartado, es fundamental tener en conocimiento que la Unión Europea, ha sido líder en regulación de la IA debido a que ha generado la propuesta de Reglamento de la UE sobre Inteligencia Artificial en 2021, con ello ha conseguido clasificar las aplicaciones en niveles de riesgo, protegiendo derechos fundamentales y evitando usos de alto riesgo. Por otra parte, Estados Unidos se ha centrado en un enfoque fragmentado, conteniendo la regulación principalmente a través de políticas sectoriales y enfoques basados en principios, no obstante, hay que resaltar que no hay una ley federal específica para la IA. 

Sin embargo, China ha obtenido un enfoque en promoción y desarrollo de la IA a través de políticas para fomentar la investigación y el despliegue de aplicaciones en diversos campos. Finalmente, países como Canadá y Singapur se han basado en un enfoque equilibrado, Canadá conteniendo un marco de ética y gobierno de la IA que establece principios para el desarrollo y uso ético de la IA y Singapur con un enfoque progresista gracias al desarrollo de capacidades en IA y uso en aplicaciones gubernamentales en conjunto al establecimiento de pautas éticas y colaboración internacional en normas y estándares de IA.

 La regulación de la IA sigue evolucionando, y cada jurisdicción aborda los desafíos de manera diferente, es por ello por lo que la regulación de la inteligencia artificial entre diferentes jurisdicciones es inconsistente y desigual. Mientras la Unión Europea lidera con un enfoque en la protección de derechos y mitigación de riesgos, otros países carecen de una legislación federal específica. China prioriza el desarrollo tecnológico, mientras que Canadá y Singapur buscan equilibrar la IA con principios éticos.  

La falta de una regulación armonizada y coherente podría generar un terreno propicio para la competencia desigual entre países y el surgimiento de brechas tecnológicas y éticas. Además, la ausencia de estándares internacionales podría obstaculizar la cooperación global y dificultar la resolución de problemas globales relacionados con la IA, como la privacidad de datos y la seguridad de los sistemas (Katzenbach y Ulbricht, 2022).

Es esencial que las jurisdicciones colaboren y trabajen en conjunto para desarrollar regulaciones que aborden adecuadamente los desafíos de la IA, promoviendo principios éticos sólidos, transparencia y responsabilidad. Solo mediante una cooperación efectiva y una regulación bien definida se podrá garantizar que la IA se utilice de manera responsable y beneficiosa para la humanidad en su conjunto.

Desafíos emergentes en la regulación de la IA, como la IA autónoma y la IA en la rama de la medicina

La regulación de la IA autónoma y la IA en la rama de la medicina enfrenta desafíos complejos relacionados con la responsabilidad, la ética, la seguridad, la transparencia y la precisión. Es esencial que los gobiernos, las organizaciones y los expertos trabajen juntos para abordar estos problemas y promover un uso responsable y beneficioso de la inteligencia artificial en estas áreas críticas. Al adoptar estas propuestas y trabajar en colaboración, se puede avanzar hacia una regulación efectiva de la IA autónoma y la IA en el ámbito de la salud que promueva su desarrollo y uso responsable, maximizando sus beneficios mientras se minimizan los riesgos potenciales. 

Enfoque económico generado por la IA

El enfoque económico de la IA muestra que se espera que esta tecnología genere un valor económico considerable para 2030, con China y América del Norte liderando las ganancias. Sin embargo, la concentración de la IA en manos de países ricos podría dejar atrás a las naciones en desarrollo, creando una brecha tecnológica y económica significativa. Todo esto, basándose en los informes que ha presentado la UNESCO (2019).

El enfoque económico potenciado por la inteligencia artificial está provocando cambios significativos en una amplia gama de sectores, que van desde la producción hasta la atención médica y los servicios financieros. La capacidad de la IA para analizar grandes cantidades de datos de manera rápida ha incrementado la productividad y la eficiencia en áreas como la fabricación y el diagnóstico médico personalizado.

Este enfoque ha generado nuevos modelos de negocio basados en datos y algoritmos. Las empresas están utilizando la IA para prever la demanda del mercado, optimizar la cadena de suministros y personalizar la experiencia del cliente a través de recomendaciones de productos y estrategias de precios más efectivas. A pesar de las oportunidades económicas, la IA plantea desafíos importantes, como el impacto en el empleo. La automatización impulsada por la IA podría resultar en la pérdida de millones de puestos de trabajo en diversos sectores, lo que subraya la importancia de programas de reentrenamiento laboral y políticas de protección social.

Además, existe el riesgo de que la IA agrave la desigualdad económica al favorecer a empresas con mayores recursos y datos, lo que podría profundizar las brechas entre empresas y países. Por lo tanto, es crucial garantizar una adopción equitativa de la IA y promover políticas que fomenten la inclusión digital y el acceso igualitario a las oportunidades económicas que ofrece. Aunque la IA promete eficiencia y crecimiento, también presenta desafíos en términos de empleo, desigualdad y acceso equitativo. Abordar estos desafíos de manera proactiva y colaborativa es fundamental para aprovechar el potencial transformador de la IA en la economía global.

Es crucial establecer regulaciones y políticas inclusivas para garantizar un acceso equitativo a la IA y sus beneficios, promoviendo la cooperación tecnológica y ética para abordar los desafíos globales y mejorar la calidad de vida para todos. 

Falta de legislación específica para regular el uso de la IA

A pesar de los avances en la regulación de la inteligencia artificial desde una perspectiva de derecho público, una crítica importante que se puede plantear es la ausencia de una ley específica y completa que aborde de manera integral y exhaustiva el control y la utilización de la IA. Si bien existen marcos legales y regulaciones que tratan aspectos específicos, como el resguardo de todos los datos personales, la transparencia y la no segregación, aún no se cuenta con una legislación amplia y actualizada que aborde todos los desafíos y dilemas éticos, legales y sociales asociados con la IA (Ponce, 2022).

Esta carencia puede dar lugar a situaciones de incertidumbre y lagunas legales, lo que dificulta tanto para los desarrolladores como para los usuarios de sistemas de IA, tener una orientación clara sobre sus derechos y responsabilidades. Además, la falta de una ley específica puede dar lugar a interpretaciones divergentes y a una aplicación heterogénea de los principios éticos y normas existentes, lo que podría afectar la coherencia y la eficacia de las medidas regulatorias. 

La ausencia de una ley específica para la IA también plantea desafíos en términos de adaptabilidad y actualización normativa. Dado el progresivo desarrollo de la tecnología y la continua evolución de la IA, es necesario contar con un marco legal que pueda mantenerse al día con los nuevos desarrollos y abordar los desafíos emergentes. La falta de una legislación específica podría dificultar la capacidad de los sistemas legales para responder de manera ágil y efectiva a los problemas y preocupaciones que surgen con el uso de la IA. 

Es importante destacar la necesidad de un enfoque equilibrado en la elaboración de una ley para la regulación de la IA. Esta debe ser lo suficientemente flexible para fomentar la innovación y el desarrollo tecnológico, al tiempo que garantice la protección de los derechos fundamentales y la seguridad de los usuarios. Asimismo, debe ser elaborada de manera inclusiva, involucrando a expertos, académicos y otros actores relevantes en el proceso de formulación de políticas para asegurar una legislación integral y bien informada (Sánchez, 2022).

Conclusiones

1.                  Si bien es cierto que la ausencia de una legislación exhaustiva puede plantear desafíos en términos de claridad y coherencia en la aplicación de principios éticos y normas existentes, también es importante considerar que la rápida evolución de la tecnología de IA podría superar fácilmente cualquier marco regulatorio estático.

2.                  Una crítica fundamental a la falta de legislación específica es que puede conducir a una rigidez regulatoria que no se adapta a las innovaciones y cambios rápidos en la tecnología de IA. Además, la complejidad inherente de la IA y su amplia gama de aplicaciones hacen que sea difícil desarrollar una legislación que aborde todas las posibles ramificaciones éticas, legales y sociales de manera exhaustiva.

3.                  Además, la llamada a una legislación específica podría subestimar la efectividad de los enfoques regulatorios existentes, como los marcos legales generales sobre privacidad de datos y antidiscriminación, que pueden aplicarse de manera flexible a las aplicaciones de IA. Estos marcos pueden proporcionar un grado de protección suficiente sin imponer restricciones excesivas a la innovación y el desarrollo tecnológico.

4.                  Asimismo, la sugerencia de que una legislación específica para la IA garantizaría una orientación clara y coherente para desarrolladores y usuarios puede ser discutible. La complejidad de la IA y la diversidad de sus aplicaciones hacen que sea poco probable que una sola ley pueda abordar todas las preocupaciones de manera exhaustiva. En cambio, podría ser más efectivo adoptar un enfoque multifacético que combine regulaciones específicas con estándares industriales, autorregulación y mecanismos de supervisión.

5.                  La crítica a la falta de una legislación específica para la IA resalta la necesidad de contar con un marco legal completo y actualizado que aborde de manera integral los desafíos éticos, legales y sociales que plantea esta tecnología. Una ley específica para la regulación de la IA proporcionaría orientación clara, coherencia y adaptabilidad necesarias para un desarrollo y uso responsable de la IA en beneficio de la sociedad. 

Referencias bibliográficas

Barrios, C., y Cetina, C. (2022, 22 de agosto). La identidad digital en el sector público: retos y perspectivas. https://www.caf.com/es/conocimiento/visiones/2022/08/la-identidad-digital-en-el-sector-publico-retos-y-perspectivas/

Cotino, L., y Castellanos, J. (2022). Transparencia y explicabilidad de la inteligencia Artificial. Tirant lo blanch. https://www.uv.es/cotino/publicaciones/libroabiertotp22.pdf

Cotiso, L. (2023). Qué concreta transparencia e información de algoritmos e inteligencia artificial es la debida. Revista Española de la Transparencia, 16, 17-63. https://revistatransparencia.com/ojs/index.php/ret/article/view/272

De Hert, P., y Papakonstantinou, V. (2016). El nuevo Reglamento General de Protección de Datos: ¿aún un sistema sólido para la protección de los individuos? Computer Law & Security Review, 32(2), 179-194. https://research.tilburguniversity.edu/en/publications/the-new-general-data-protection-regulation-still-a-sound-system-f

Jalón Arias, E., Ponce Ruiz, D., Arandia, J. C., & Arrias Añez, J. C. (2021). Las limitaciones de la aplicación de la inteligencia artificial al derecho y el futuro de la educación jurídica. Revista Conrado, 17(83), 439-450. http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S1990-86442021000600439&lng=es&tlng=.

 Katzenbach, C., y Ulbricht, L. (2022). Gobernanza Algorítmica. Revista Latinoamericana de Economía y Sociedad Digital. https://doi.org/10.53857/cwyi6959

Kunner, C. (2018). El Reglamento General de Protección de Datos y la toma de decisiones automatizada: ¿un desafío para el principio de explicación? International Data Privacy Law, 8(4), 289-292. https://doi.org/10.1093/idpl/ipy024

Llamas, J. Z., Mendoza, O. A., y Graff, M. (2022). Enfoques regulatorios para la inteligencia artificial (IA). Revista Chilena de Derecho, 49 (3), 31- 62. https://www.scielo.cl/pdf/rchilder/v49n3/0718-3437-rchilder-49-03-31.pdf

Mazzi, F., y Floridi, L. (2023). The Ethics of Artificial Intelligence for the Sustainable Development Goals. Rivista giuridica dell'ambiente 38 (3), 1073-1074 https://link.springer.com/book/10.1007/978-3-031-21147-8

Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura. (2019). Inteligencia Artificial y Educación: Cuestiones éticas, pedagógicas y normativas. Ediciones UNESCO. https://www.unesco.org/es/artificial-intelligence/recommendation-ethics   

Ortiz de Zárate, L. (2021). Explicabilidad de la inteligencia artifiial. Revista en Cultura de la Legalidad, 22, 328-344. https://doi.org/10.20318/eunomia.2022.6819

Ponce, J. P. (2022). Las relaciones entre inteligencia artificial, regulación y ética, con especial atención al sector público. Revista General de Derecho Administrativo, 61, 1-29. https://dialnet.unirioja.es/servlet/articulo?codigo=8642167

Poses, L. (2023, 18 de mayo). La rendición de cuentas de la Inteligencia Artificial. El ciudadano. https://www.elciudadanoweb.com/la-rendicion-de-cuentas-de-la-inteligencia-artificial/

Solove, D. J. (2013). Privacidad y los peligros de un gobierno totalizador. Harvard Law Review, 126(7), 1934-1975. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2171018

Sánchez, M. E. (2022). La inteligencia artificial en el sector público y su límite respecto de los derechos fundamentales. Estudios Constitucionales, 20(2), 257-284. http://dx.doi.org/10.4067/S0718-52002022000200257

Soriano, A. (2021). Decisiones automatizadas y discriminación: aproximació n y propuestas generales. Revista General de Derecho Administrativo, 56. https://laadministracionaldia.inap.es/noticia.asp?id=1511706

Van Der Sloot, B., y Rademaker, A. (2018). El Reglamento General de Protección de Datos de la UE: hacia un régimen de propiedad para proteger la privacidad de los datos. Computer Law & Security Review, 34(2), 264-275. https://bartvandersloot.com/onewebmedia/SSRN-id3162987.pdf

Zaragoza, S. (2023, 8 de enero). Cómo avanza la Gestión Documental gracias a la Inteligencia Artificial. Ofimática. https://www.ofimaticasz.com/como-avanza-la-gestion-documental-gracias-a-la-inteligencia-artificial/