Inteligencia artificial, nuevas tecnologías y derecho público
“Es importante reconocer que para que se implemente el espíritu constitucional de igualdad sustantiva, asociado a los derechos fundamentales a la igualdad, dignidad y al desarrollo (Constitución Política de Colombia, 1991), es necesario asegurar financiamiento y apoyo legal para ampliar la base de acceso y de desarrollo de modelos de Inteligencia Artificial (IA)”.
Por: Lourdes Díaz-Monsalvo[1]
Es importante reconocer que para que se implemente el espíritu constitucional de igualdad sustantiva, asociado a los derechos fundamentales a la igualdad, dignidad y al desarrollo (Constitución Política de Colombia, 1991), es necesario asegurar financiamiento y apoyo legal para ampliar la base de acceso y de desarrollo de modelos de Inteligencia Artificial (IA).
Por tanto, lo primero que debe saltar es la igualdad en el acceso, pero a energía, a internet y a computadoras; por tanto, la regulación debe dar un giro de 180º y dejar de buscar ‘eliminar o mitigar las fallas de mercado’ -esto deja por fuera a todos los que no están en el mercado- y empezar a brindar a los colombianos una regulación integral, conjunta y de base constitucional.
Las regulaciones tienden a mirarse desde una perspectiva operativa y de ingeniería (López-Murcia, 2022), por ello es importante recordar que la misma debe nutrirse con protección de la salud pública, la promoción de los derechos, el engrandecimiento de la capacidad de respuesta estatal, etc.
Ahora bien, el concepto de marginalidad no ha tenido cabida en la regulación, aunque ha sido estudiado hasta desde la genómica, que otorga a los grupos sociales marginados unas implicaciones políticas señalando a los grupos raciales marginados como supuestos beneficiarios de la medicina genómica sin detenerse a revisar la economía política más amplia de los productos farmacéuticos donde la salud pública “pasó de la prevención al tratamiento, [y] los derechos políticos se han movido hacia derechos de base biológica” (Biehl y Eskerod 2009). Cuando los grupos marginados adoptan la lógica de la diferencia racial, a las jerarquías intranacionales basadas en casta o raza se les concede el “seductor visto bueno de la precisión genética molecular” (Duster (2003) citado por Kazuko Suzuki, Diego A. Von Vacano, 2018). Dicho de otra manera, hay una marginalidad que, debido precisamente a su invisibilización, ha creado una brecha cada vez más grande o una exclusión cada vez mayor, que hace menos posible que sean tenidas en cuenta a la hora de regular.
Esto es, en los subsidios de los servicios públicos se vela por brindar facilidades de pago a quienes obtienen servicio, no se tiene en cuenta a los aproximadamente dos millones de colombianos que no tienen ningún acceso a energía (García-Moncada, 2024). A modo de ejemplo; en la regulación se reconoce el “costo de ampliación” pero el incentivo es corto, por ello hay tantas zonas no interconectadas así como personas sin conocer varios de los servicios públicos domiciliarios que se consideran esenciales.
Esto revela cómo los riesgos de la IA (que ya de por sí son bastantes), se ven propulsados por las falencias actuales en el territorio de igualdad real y de acceso a oportunidades. De hecho, la situación de riesgo por la poca capacidad regulatoria y de respuesta estatal, los grandes territorios sin acceso a energía 24/7 -que incluye capitales del país-, la gran cantidad de colombianos sin acceso a internet -o sin acceso 24/7- así como sin acceso a computadoras, son riesgos que ya existían y que ahora, debido a las IAs, harán que la brecha de desigualdad intrínseca en la tecnología, sea mucho más grande y dañina.
Además, con un elemento más letal: la disminución de puestos de trabajo, asunto que ha sido ya abordado por las “grandes mentes” del mundo indicando la necesidad de creación de una ‘renta universal’ para soslayar el estallido social que puede empezar a gestarse. Así, es necesario una regulación integral, porque no habrá mejora en el bienestar social si solo hay intervención cuando el mercado tiene una falla y se sigue entendiendo la Constitución económica como ‘de corte libertario’ porque eso mercantiliza los derechos.
En un monopolio como la IA -solo se desarrolla realmente en las Big Tech-, las universidades no tienen cabida, silenciosa y discretamente, la automatización de muchos procesos -que acaba puestos de trabajo- y la poca protección de datos personales, junto con poco o nulo acceso a entender los algoritmos y los datos utilizados, podría derivar en una subclase de humanos[2].
Esto no es exageración: si se reducen las posibilidades de empleo de forma tajante y no se crean nuevos empleos, va a empezar a crear más personas dentro del concepto de ‘marginado’: como lo son los detenidos, los internados en hospitales psiquiátricos, las personas en extrema pobreza, etc. De hecho, el concepto de ‘renta universal’, está previendo ese estallido de falta de acceso a empleos y someter a una persona a recibir una renta por el resto de su vida porque “no hay empleos” o “son muy muy pocos”, es negar todo derecho al desarrollo, un derecho humano, valga insistir.
Por lo tanto, el ‘regular acceso’, no puede confundirse con el simple ‘compartir modelos de código abierto’, debe entenderse como: acceso a energía, acceso a educación de calidad, acceso a internet y acceso a entender y desarrollar las IAs (entre otros). No porque el ‘patrimonio de la humanidad’ esté reservada en muchos casos a quienes tienen visa u otro tipo de privilegios, sino porque tan solo el 11% de estos sistemas recibe mantenimiento (Dans, 2023).
Ahora bien, la regulación de la IA para fines especiales puede resultar aún más problemática durante la etapa de evaluación y retroalimentación que cualquier otra medición. Por ello, varios países han escogido la opción de expedir ‘Ley Marco’ antes de implementar algún plan más integral; pero ello tiene que ver con la regulación de la IA como tal, por eso se reitera la necesidad de no dejar por fuera la implementación de más y mejores planes y políticas que reduzcan la brecha para empezar a preparar la sociedad ante el impacto de las IAs.
En ese sentido, es vital reconocer dos cosas: i) que una ‘Ley Marco’ dicta igualmente las bases de la regulación -no son excluyentes y de hecho vendría a ser el primer paso-, y ii) ese marco debe contener todos los enfoques de promoción de derechos, objetivo de cierre de la brecha y debe buscar impulsar a que las personas tomen mejores decisiones para el bien general, fomentar el acceso de todos y a precios justos, permear para bien la educación y; no solo la de intervenir en ‘fallas de mercado’, pues, se insiste, en que el mayor riesgo no está en la inserción de las IAs sino en las condiciones actuales del país y las falencias del derecho público en lo que respecta a la buena regulación.
Ahora bien, frente a la regulación de la IA, el modelo más usado es entenderla desde su capacidad de causar daño, por tanto, el enfoque regulatorio ha sido ‘basado en el riesgo’. En estos casos, lo que se hace es que se determina un ‘evento hipotético’ y se analiza su probabilidad de ocurrencia y la severidad de sus consecuencias. Así se categorizan los riesgos y se crea un ‘escenario’ de los mismos para el instrumento regulatorio. He ahí el problema, cuando el mercado pasa a un segundo plano, igual, no se regula para promocionar derechos, prevenir daños o asegurar el acceso de todos, se regula para ‘mitigar’ una falla o riesgo.
Otro problema es la multicausalidad de los riesgos y la poca capacidad de anticipación que se puede desarrollar en el corto plazo en temas de IA. Por ejemplo, el sesgo de datos versa sobre variables relacionadas con raza, género, preferencias sexuales, que parecen sencillas de ‘retirar’ del algoritmo, pero no es tan fácil. Expongo mejor la idea: los problemas de sesgo algorítmico más famosos tuvieron su base en el reconocimiento de imágenes, fue el caso de Hewlett-Packard: el algoritmo de localización facial basado en características no detectaba que las personas negras tuvieran rostro (Winred, 2023). He ahí el sesgo de datos, que afectó todo el algoritmo, y como el error fue tan grande, no hubo duda, ni mínima, del sesgo en los datos que prepararon la lógica interna de la red neural artificial. Pero eso no es tan simple ni tan accesible para detectar: los datos con que se entrena no son solo son muchos y escapan al análisis humano, sino que hacen parte del pre-proceso. Esto es, cuando el sesgo empieza desde antes, puede no quedar tan claro en el proceso, o en el resultado.
Aunado a ello, los algoritmos son muy pobres a la hora de distinguir entre causalidad y correlación y, por tanto, siempre existe el riesgo de sacar conclusiones basadas en inferencias erróneas.
Por ejemplo, la Unión Europea expidió un reglamento que busca mucho la transparencia y la Protección de Datos, asunto que parece ser la solución a lo antes mencionado, pero la transparencia por sí sola es inadecuada.
El instrumento europeo plantea una solución desde el “aumento de acceso a la información”, pues se cree que ello “le proporciona a los ciudadanos europeos el derecho a una explicación”, es decir, el acceso a los datos y a los algoritmos parece una forma de satisfacer la necesidad de que una decisión se explique, dejando de lado que esa es la ventaja de la IA: tiene la capacidad de entrenarse con tanta cantidad de datos y variables al tiempo que un ejercicio humano intelectual para probarlo y detectar sesgos es casi imposible.
Dentro de la IA hay asuntos que son inaccesibles al escrutinio humano y, por tanto, una mayor transparencia no resuelve los problemas de sesgo de datos ni de la calidad de los resultados generales arrojados por una IA legal, porque la misma aprende del entorno que la rodea y de los errores pasados lo que hace que incluso los programadores tengan dificultades para comprender la lógica interna y la toma de decisiones de las máquinas inteligentes. Igualmente, es importante que exista mucha transparencia y acceso a los datos y a los algoritmos utilizados y la crítica no es a darlos a conocer, es indicar que ello no es suficiente.
¿Cuál es el papel del derecho en todo esto? Más allá de agregarle el ‘legal’ a sistemas ya inventados como dijo Rafael Mery[3]; el papel del derecho está en la regulación para enfrentar el impacto de la IA en: 1) la formación de talentos y el desarrollo profesional, 2) la cantidad de empleos que se acabarán y 3) el problema de la personificación de la IA (la determinación de su personalidad jurídica).
Por ejemplo, para Yu y Alì (2019), hay unos peligros a la confiabilidad de la investigación jurídica asistida por IA, donde hay uno que puede extrapolarse para establecer el papel del derecho, así:
- Mito de la imparcialidad. Como los sistemas de IA se programan utilizando un conjunto de algoritmos, donde los ingenieros aportan sesgos y suposiciones propios, y como, además, estos algoritmos “aprenden” estudiando datos para identificar patrones: están muy sujetos a los sesgos inherentes y a los sesgos actuales que es de donde sale la data que entrena a los algoritmos[4]. El papel del derecho, como es regulatorio, puede estar en crear sandbox de IA que establezcan datos que no son de la realidad, sino del deber ser de la misma, para establecer las mejores maneras de establecer algoritmos y modelos, y así mismo, que las universidades o entes públicos desarrollen y diseñen IA.
- Los demás no son tan aplicables, pues el sesgo algorítmico que versa sobre cómo los algoritmos codifican las elecciones humanas frente a cómo deben tomar las decisiones y la creación de estos no es inmune a los valores humanos de sus creadores. Si bien la regulación debe establecer intervenciones continuas de control, esto no crea un cambio en el derecho.
- Lo mismo con el sesgo de datos porque si bien identifica patrones recurrentes en conjuntos de datos existentes y hace predicciones futuras basadas en estos patrones y por ello tiene el riesgo de perpetrar discriminaciones, no hay una evolución del derecho.
La naturaleza del derecho es regular, lo que debe evolucionar es eso[5], no en llamar LegalTech a la gestión de contratos de siempre, o Legal Design a la lluvia de ideas con enfoque en el consumidor o LegalOperations a la planificación estratégica o inteligencia de negocios de toda la vida (trayendo de nuevo las palabras de Mery). La innovación puede significar simplemente tomar un proceso y reexaminarlo, esa es su definición más amplia: descubrir e implementar una nueva forma de hacer las cosas.
Esto se resalta porque los temores de que los sistemas de IA sean cajas negras o su aplicación en armamento automatizado y en ataques cibernéticos, son los llamados a evolucionar, a innovar, a buscar la mejor forma de hacer las cosas y la regulación debe tener todos esos enfoques para mejorar las capacidades de respuesta estatal ya que no hay forma de retirar la IA.
También hay “nuevas” tendencias en el campo de la educación del derecho que se dan en la necesidad de análisis de patrones, clases de estadística, más metodologías de investigación que ayuden a entender los procesos de las IAs con ánimo de encontrar falencias o afectaciones y poder impulsar mejores resultados sociales; esto es, preparar a los profesionales del derecho en enfoque más multidimensionales y disciplinares.
Finalmente, a medida que la IA se vuelve cada vez más aceptada entre los profesionales y los académicos, recae en los investigadores el deber de mantenerse al día en la era de las criptomonedas, los contratos autoejecutables y los robots que muestran una inteligencia sobrehumana. Por tanto, corresponde al derecho preparar tanto a su sociedad como su sistema jurídico.
Referencias
Agencia de Seguridad, Energía y Ambiente. [ASEA] (2021). Instructivo de trabajo para la elaboración de la matriz de regulación basada en riesgo y el documento puente del instrumento regulatorio. Unidad de Normatividad y Regulación. ASEA-México. chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://www.gob.mx/cms/uploads/attachment/file/708649/INSTRUCTIVO_DE_TRABAJO_PARA_LA_ELABORACI_N_DE_LA_MRBR_Y_DPIR_MOD_20122021.pdf
Constitución Política de Colombia (1991), Título I. Principios Fundamentales y Título II de los derechos, las garantías y los deberes. Revisada y actualizada. Edición Especial para la Corte Constitucional. https://www.corteconstitucional.gov.co/inicio/Constitucion%20politica%20de%20Colombia%20-%202015.pdf
Bell, S. & Figert A. Reimagining (Bio)Medicalization, Pharmaceuticals and Genetics. https://www.taylorfrancis.com/books/edit/10.4324/9781315760926/reimagining-bio-medicalization-pharmaceuticals-genetics-susan-bell-anne-figert
Biehl J. y Eskerod, T. (2009). Vita by Biehl, Jopo & Eskerod, Torben (pht) – Universidad de California.
Dans. E. (2023) El código abierto y sus límites. (s. f.). https://www.enriquedans.com/2023/10/el-codigo-abierto-y-sus-limites.html
Duster (2003) citado por Kazuko Suzuki, Diego A. Von Vacano (2018) en Recasting Race: Science, Politics, and Group-Making in the Postcolony | Reconsidering Race: Social Science Perspectives on Racial Categories in the Age of Genomics | Oxford Academic. (s. f.). https://academic.oup.com/book/9965/chapter-abstract/157325152?redirectedFrom=fulltext
DW (2023, noviembre 3) Elon Musk dice que con la IA “ningún empleo será necesario”. https://www.dw.com/es/elon-musk-dice-que-con-la-inteligencia-artificial-ning%C3%BAn-empleo-ser%C3%A1-necesario/a-67298157
Guzmán-Napurí Ch. ( 2024) ¿Qué son los costos de transacción?. Aplicación del teorema de Coase. Blogposgrados Universidad Continental. https://blogposgrado.ucontinental.edu.pe/costos-transaccion-teorema-coase
Hu. T. & Lu, H. (2020). Study on the Influence of Artificial Intelligence on Legal Profession. 5th International Conference on Economics, Management, Law and Education (EMLE 2019). Advances in Economics, Business and Management Research, 110, 964-968. DOI. 10.2991/aebmr.k.191225.184
Jabbour, G. (2023, septiembre 6). El monopolio de la IA lo tienen las empresas privadas, y es un problema. Expansión. https://expansion.mx/tecnologia/2023/09/06/monopolio-inteligencia-artificial-empresas-privadas
Parlamento Europeo. (2023, junio 12). Ley de la IA de la UE: primera normativa sobre inteligencia artificial. https://www.europarl.europa.eu/topics/es/article/20230601STO93804/ley-de-ia-de-la-ue-primera-normativa-sobre-inteligencia-artificial
Raraz-Vidal, J., y Raraz-Vidal, O. (2023). Empezando a programar en inteligencia artificial. Rev. Peru. Investig. Salud. 7(2), 61-63. https://revistas.unheval.edu.pe/index.php/repis/article/download/1873/1635
Verano. J. (2023, diciembre 9). Ley de inteligencia artificial: el Consejo y el Parlamento llegan a un acuerdo sobre las primeras normas del mundo para la IA. Consejo de la Unión Europea. Presidencia Española. https://spanish-presidency.consilium.europa.eu/es/noticias/consejo-parlamento-acuerdo-primeras-normas-mundiales-inteligencia-artificial/#:~:text=La%20Ley%20de%20la%20IA,sector%20p%C3%BAblico%20como%20del%20privado.
Winred. (2023, abril 5). El software de reconocimiento facial no ve a esta estudiante negra. https://es.wired.com/articulos/estudiante-holandesa-se-enfrenta-a-software-de-examenes-online-discriminador
Yu, R. & Ali. G.S. (2019). What’s Inside the Black Box? AI Challenges for Lawyers and Researchers. Legal Information Management. 19(1), 2-13. doi:10.1017/S1472669619000021
[1] Abogada de la Universidad Católica de Colombia, con especializaciones en gestión pública y en derecho Administrativo, Magíster en Políticas Públicas y en Derecho minero, energético y petrolero y Doctorando en Ciencias Sociales. Con más de 10 años de experiencia en lo público, en entidades como la ANI, la PGN, la CRA y la Alcaldía Mayor de Bogotá así como en el sector privado, el asesoramiento tributario de empresas y como docente.
[2] Este riesgo está más asociado a la computación cuántica que a la IA pues esta se basa en dos fenómenos clave de la física cuántica: la superposición y el entrelazamiento, la primera permite a las partículas, como los qubits, estar en múltiples estados simultáneamente, como si un electrón girara hacia arriba y hacia abajo al mismo tiempo (esto multiplica exponencialmente la capacidad de procesamiento en comparación con los ordenadores clásicos) y el entrelazamiento, por otro lado, conecta partículas que han interactuado, permitiendo que la medición de una determine instantáneamente el estado de la otra, sin importar la distancia.
Si a hoy la IA está transformando industrias y acabando varios puestos de trabajo, la integración de la computación cuántica y la inteligencia artificial (IA) promete revolucionar industrias como la farmacéutica, financiera y manufacturera, ofreciendo nuevas soluciones y mejorando modelos empresariales. La proyección para 2026 sugiere un crecimiento significativo en esta tecnología y 2026 es antes de ayer, prácticamente.
[3] LegalTech que ofrecen gestión de contratos (contract lifecycle management -CLM), por ejemplo, tienen su antecedente en los sistemas de gestión documental, en los noventa, o el Legal Design que no es más que el Design Thinking, concepto que el profesor de la Universidad de Stanford, John Edward Arnold, introdujo en 1959 en el área de la ingeniería mecánica; o las Legal Operations que son no más que la planificación estratégica, inteligencia de negocio, gestión, data, tecnología, etc. Es decir, las mismas cuestiones que las Escuelas de Negocio vienen enseñando desde hace más de 100 año.
[4] La Ley de IA en la UE indica que todas las empresas que operen en la UE tendrán que utilizar algoritmos que no tengan en cuenta características como el género, la raza o la religión.
[5] Transversalizarla, ampliarla, empatizarla, hacerla inteligente, mejorar sus resultados.
Para citar: Lourdes Díaz-Monsalvo, “Inteligencia artificial, nuevas tecnologías y derecho público” en Blog Revista Derecho del Estado, 5 de agosto de 2024. Disponible en: https://blogrevistaderechoestado.uexternado.edu.co/2024/08/05/manejo-de-especies-invasoras-una-necesidad-que-no-puede-ceder-frente-a-los-derechos-de-los-animales/