. . . . . . . . .

thumb
  • Marco Lillo
  • 1215 lecturas
  • 21-07-2023

SOBRE EL DERECHO A LA INTERVENCIÓN HUMANA

Marco Antonio Lillo de la Cruz
Segunda entrega
Diplomado en Ciberseguridad y Derecho
Julio del 2023


Con las nuevas tecnologías, surgen nuevos ordenamientos jurídicos y con ello, nuevos derechos, como es el caso de: “El Derecho a la Intervención Humana” (En adelante: DIH) que es una, de entre otras propuestas, que pretende mitigar o de alguna manera controlar humanamente los efectos de la Inteligencia Artificial (en adelante IA) o mitigar sus efectos. Si bien la IA consiste en programas computacionales creados por el ser humano, existe el temor real o ficticio que esta tecnología se nos escape de las manos y en algún momento, sea capaz de controlar a las personas, es decir, nos controle o nos use o seamos sometidos por esta nueva tecnología.

En el último tiempo y como consecuencia entre otros, del avance, creación y conexión de circuitos neurológicos; el “big data”; a la vez que el aumento de la velocidad de procesamiento de datos y la utilización de algoritmos cada vez más eficientes y efectivos, se han generado brechas de seguridad con relación a la posible mala utilización de la IA, así como, atendida su naturaleza, existe el temor, que la misma se escape de control. Este panorama de eventual “descontrol” de la IA ha llevado a la búsqueda de formas de mitigar o restringir su aplicación o sus efectos. Como referencia del mal uso de la IA, podemos referir la campaña de Amnistía Internacional: “Stop Killer Robots” en: https://www.amnesty.org/es/petition/stop-killer-robots/ (detengan a los Robots asesinos, traducción libre).

El panorama más general, nos señala que, respecto al tema del control de la IA, se han propuesto diversas medidas para mitigar las consecuencias o limitar la aplicación de la IA en determinadas materias, o bien, derechamente su no aplicación en áreas específicas. Existen respecto de la IA diversas alternativas, muchas de ellas copulativas, tales como la obtención de certificaciones; realización de auditorías preventivas o de control; que se transparenten los algoritmos que se van a usar; generar entornos de prueba regulatorios (sand boxes); o bien que se exijan seguros para responder de los perjuicios, o la evaluación exantes del impacto del algoritmo, la autorregulación; esquemas regulatorios flexibles y/o un modelo de “safe harbor” o puerto seguro; (ver Llamas, Mendoza y Graff: 2022 y en Araya: 2020).

En cuanto a la regulación en concreto de la IA, sin necesariamente entrar a la distinción entre “Hard Law” y “Soft Law” (en resumen: vía ley o solo recomendaciones) - lo que por cierto nos desviaría del tema - y teniendo como referencia de “hard law” el Proyecto de Ley sobre  Protección de Datos Personales (En adelante: PDP), en que se hace referencia al DIH (que comentaremos más adelante), me parece interesante detenerme un momentos y dar un ejemplo del segundo (o soft law), a saber: las recomendaciones de la UNESCO sobre la Ética de la Inteligencia Artificial de noviembre del 2021 que señala dentro de ámbito de la salud y bienestar social en el N° 127. “Los Estados Miembros deberían velar por que los usuarios puedan determinar fácilmente si interactúan con un ser vivo o con un sistema de IA que imita las características humanas o animales y puedan rechazar eficazmente dicha interacción y solicitar la intervención humana” (UNESCO. 2021)

Ahora bien, como indicamos, uno de estos nuevos derechos con relación a la regulación de la IA, se contiene en el proyecto de ley en actual tramitación en el Congreso referido a la PDP. Y el mismo se “regula” en el artículo octavo bis del proyecto de ley. En efecto, en el texto propuesto , en su “Título I” que dice relación con los derechos del titular de datos personales y en particular dentro de las “Decisiones individuales automatizadas, incluida la elaboración de perfiles”, se señala que en todos los casos de decisiones basadas en el tratamiento automatizado de datos personales, “el responsable deberá adoptar las medidas necesarias para asegurar los derechos, libertades del titular, su derecho a la información y transparencia, el derecho a obtener una explicación, la intervención humana, a expresar su punto de vista y a solicitar la revisión de la decisión” (el destacado es nuestro). El responsable está definido en el mismo proyecto de ley en su artículo 2, “Definiciones” letra n) “Responsable de Datos o Responsable: toda persona natural o jurídica, pública o privada, que decide acerca de los fines y medios del tratamiento de datos personales, con independencia de si los datos son tratados directamente por ella o a través de un tercero mandatario o encargado”.

Para los efectos de apreciar este nuevo derecho a la intervención humana, hay que estar a la novedad estructural que genera la IA y las consecuencias o su eventual futuro, ya que para algunos resulta ser una distopía. Para tratar de comprender la IA, y dado que existen muchos conceptos sobre la misma, parece más fácil para regularla pace ser necesario ver que contiene, a saber: Hay un algoritmo o varios, procesamiento de Big data, maching learning, eso es lo mínimo que se requiere para ya poder comenzar a hablar de IA, y así resulta vital saber qué es lo que se quiere regular: es decir lo que se persigue es prohibir su uso en determinados ámbitos; conocer, transparentar o controlar los algoritmos; el procesamiento de los datos o por otro lado sus efectos o consecuencias: errores; perjuicios y/o diseño o su utilización para causar daños al medio material. A continuación, y brevemente, comentaremos cada uno de estos escenarios y en su caso daremos un ejemplo, para poder sopesar lo complejo del tema a regular y comentaremos finalmente la que se ha propuesto como uno de los derechos que surgen de las soluciones de control de la IA que se ha generado.

El primer aspecto, esto es: prohibiendo el uso de IA o restringirlo en ciertas áreas, como ejemplo; podemos estar al esquema propuesto el mes de junio del 2023, por los eurodiputados y que es materia de discusión en el Parlamento Europeo que supone no poder usar la IA en determinadas áreas, a saber: “prohibir los sistemas de identificación biométricos, en tiempo real, en espacios públicos; “a posteriori”, con la única excepción de usos policiales en investigaciones por delitos graves y con autorización judicial; los sistemas de categorización biométrica que utilicen ciertas características identitarias (por ejemplo, el género, la raza, la etnia, el estatus de ciudadanía, la religión o la orientación política); los sistemas policiales predictivos (basados en la elaboración de perfiles, la ubicación o el historial delictivo); los sistemas de reconocimiento de emociones por las fuerzas de seguridad, en la gestión de fronteras, los lugares de trabajo o las instituciones de enseñanza; y el rastreo indiscriminado de imágenes faciales sacadas de Internet o de circuitos cerrados de televisión para crear bases de datos de reconocimiento facial (que violan los derechos humanos y el derecho a la intimidad)” (Noticias: 2023).

En cuanto a la eventual regulación de sus algoritmos, resulta difícil su control, toda vez que por sus características la IA debe ser autónoma, sin control y que su actuar sea imprevisibilidad, toda vez que más allá de los sesgos; la idea es que, como señala en su artículo el profesor Araya, uno de sus rasgos característicos de la IA, es su imprevisibilidad o más bien, su buscada imprevisibilidad, toda vez que “La solución que provee un sistema de inteligencia artificial para una determinada tarea por lo general no ha sido prevista por el diseñador o programador, pues la gran mayoría de los modelos funcionan a partir de la experiencia de aprendizaje posterior al diseño. Es la imprevisibilidad una característica que fortalece y hace atractiva la inteligencia artificial en los distintos campos, pues proporciona soluciones a problemas que no pudieron preverse ni resolverse inicialmente por medio de alternativas lógicas” (Araya 261: 2020). En su artículo y con referencia al tema, pone como ejemplo los programas de IA de ajedrez en que su imprevisibilidad es precisamente donde reside su creatividad, ilógico o como señala “fuera de la caja”.

En cuanto procesamiento, volumen y entidad de los datos (big data), parece que el tema no tiene límites, y cada vez son más y resultan más intrusivos los que se obtiene, por ejemplo: “se están desarrollando tecnologías mucho más directas e invasivas que permiten registrar datos mentales a partir de los impulsos cerebrales y manipular dichos datos reintroduciendo nuevos impulsos, que han motivado el reconocimiento tanto en Chile como en España de los neuro derechos para preservar la integridad física y psíquica del individuo. (Vida, 492 -2022).

Ahora bien, con relación a controlar o mitigar los efectos o consecuencias dañinas de la IA, hay dos situaciones, por una parte, tratar de rectificar errores de diseño o posibles sesgos de esta y por otra, el mal uso de la IA, que el caso sería, como se ha mencionado en la campaña en contra de robots asesinos, el empleo de IA en armas efectivas en la eliminación del enemigo. Sobre este punto, cabe lo que ha planteado el profesor Araya “no hay tecnología que sea malvada o perversa, sino que ésta es neutra y muchas veces va a obedecer a cómo ha sido configurada. Este segundo camino no aboga por una total desregulación, sino por una regulación inteligente, porque entiende la tecnología y entiende que desde el punto de vista del fabricante o desarrollador es importante tener reglas claras” (Araya, 288: 2020)

Como hemos dicho, dentro de la novedad de la IA, y su forma de controlarla, es que llegamos a lo que se ha denominado por algunos el “principio o derecho a la intervención humana”, como una de las formas de paliar los efectos nocivos de la aplicación de la IA en procesos de selección en base a datos contenidos en una fuente, aplicando un algoritmo, en aquellos casos en que dicho procesamiento produzca efectos sobre nuestra vida actual o futura de forma permanente. Ante este escenario como personas, tendríamos el derecho a que un “ser humano” pueda revisar dicho proceso, con criterios de imparcialidad y asegurándose que no se ha sido discriminado por algún error del sistema o sesgo de este, a la vez que el algoritmo responda efectivamente a lo que persigue o fin para el cual fue creado.

            Es un derecho en reciente formación, por lo que no hay mucha literatura al respecto, y como se mencionó, en el proyecto de ley sobre PDP, su mención parece mínima, y no detalla sus contornos, su exigibilidad, o acción que responda en lo más mínimo a indicar su espacio de acción o en qué consiste, cuándo se aplica, su forma de ejercerlo. Lo anterior resulta comprensible, dado que nos movemos en terrenos inexplorados del derecho.

            Cabe destacar que el tema del control o supervisión de la IA, se ha desarrollado un pensamiento que lo vincula con la ética, lo que resulta adecuado en el momento en que uno enfrenta situaciones nuevas en el derecho, toda vez que al trata de un fenómeno desconocido y que afecta al ser humano, y aún sin conocer sus contornos, ni menos a dónde pueden llegar sus efectos o consecuencia se busca en la ética, fundamentar las primeras respuesta. Ya nos pasa en el tema de la investigación sobe embriones humanos ¿por qué no, también hacerse preguntas éticas sobre la IA?

Nota final: realicé por ley de transparencia preguntas sobre la aplicación de IA en el sector público, pero sin obtener respuesta hasta la fecha.

 


BIBLIOGRAFÍA:

  • Araya Paz, C. “DESAFÍOS LEGALES DE LA INTELIGENCIA ARTIFICIAL EN CHILE” en Revista Chilena de Derecho y Tecnología VOL. 9 NÚM. 2 (2020) • PÁGS. 257-290 • DOI 10.5354/0719-2584.2020.

  • Esquivel, L.M.; Galvis, J.C. (2022). DERECHOS Y DEBERES EN LA INTELIGENCIA ARTIFICIAL: DOS DEBATES INCONCLUSOS ENTORNO A SU REGULACIÓN. Nuevo Derecho; 18(31): 1-17. https://doi.org/10.25057/2500672X.1479
  • López Baroni M.J. “LAS NARRATIVAS DE LA INTELIGENCIA ARTIFICIAL” Dossier Sobre Inteligencia Artificial, Robótica E Internet De Las Cosas Las Narrativas De La Inteligencia Artificial. Revista de Bioética y Derecho Universidad de Barcelona. Perspectivas Bioéticas www.bioeticayderecho.ub.edu - ISSN 1886-5887.

  • Llamas Covarrubias, J. Z.; Mendoza Enríquez, O. A.; Graff Guerrero, M. “ENFOQUES REGULATORIOS PARA LA INTELIGENCIA ARTIFICIAL (IA)” en Revista Chilena de Derecho, vol. 49 Nº 3, pp. 31 - 62 [2022]

  • Congreso Nacional: PROYECTO DE LEY SOBRE PROTECCIÓN DE DATOS PERSONALES: modifica las leyes N°19.628, sobre protección de los datos personales, y N°20.285, sobre acceso a la información pública, y decreto con fuerza de ley N° 3, del Ministerio de Economía, Fomento y Turismo, de 2019, que fija texto refundido, coordinado y sistematizado de la ley N° 19.496, que establece normas sobre protección de los derechos de los consumidores. En tercer trámite Constitucional.

  • UNESCO, RECOMENDACIÓN SOBRE LA ÉTICA DE LA INTELIGENCIA ARTIFICIAL. Conferencia General de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), reunida en París del 9 al 24 de noviembre de 2021, en su 41ª reunión.

  • Vásquez C.S. y Toro-Valencia J.A. EL DERECHO AL CONTROL HUMANO: UNA RESPUESTA JURÍDICA A LA INTELIGENCIA ARTIFICIAL. Revista chilena de derecho y tecnología Vol. 10 núm. 2 (2021) • págs. 211-228 • doi 10.5354/0719-2584.2021.58745

  • Vida Fernández, J. “LA GOBERNANZA DE LOS RIESGOS DIGITALES: DESAFÍOS Y AVANCES EN LA REGULACIÓN DE LA INTELIGENCIA ARTIFICIAL” Cuadernos de Derecho Transaccional (marzo 2022) vol. 14 N°1. Pp 489-503.
  • Noticia: “LA EUROCÁMARA, LISTA PARA NEGOCIAR LA PRIMERA LEY SOBRE INTELIGENCIA ARTIFICIAL” del Parlamento Europeo 2023 en: https://www.europarl.europa.eu/news/es/press-room/20230609IPR96212/la-eurocamara-lista-para-negociar-la-primera-ley-sobre-inteligencia-artificial



Descargar Archivo (Sentencia) Acá
(doc_942_230721120719.PDF)