REPÚBLICA DE COLOMBIA
CORTE CONSTITUCIONAL
-Sala Segunda de Revisión-
SENTENCIA T-323 de 2024
Referencia: expediente T-9.301.656
Acción de tutela promovida por Blanca, en nombre y representación de su hijo menor de edad, en contra de la EPS
Asunto: uso de herramientas de inteligencia artificial generativas en procesos judiciales de tutela
Cobro de copagos y cuotas moderadoras en el SGSSS a niño diagnosticado con TEA
Magistrado sustanciador:
Juan Carlos Cortés González
SÍNTESIS DE LA DECISIÓN
Bogotá D.C., dos (02) de agosto de dos mil veinticuatro (2024)
La Sala Segunda de Revisión de la Corte Constitucional, integrada por la magistrada Diana Fajardo Rivera y los magistrados Vladimir Fernández Andrade y Juan Carlos Cortés González, quien la preside, en ejercicio de sus competencias constitucionales y legales, ha proferido la siguiente
SENTENCIA
1. En el trámite de revisión de los fallos (i) de segunda instancia dictado el 30 de enero de 2023 por el Juzgado del Circuito, que confirmó (ii) la decisión de primera instancia proferida por el Juzgado Municipal, el 7 de diciembre de 2022, dentro de la acción de tutela formulada por Blanca en contra de la EPS.
Aclaraciones previas. Reserva de la identidad
2. De conformidad con el artículo 62[1] del Reglamento Interno de la Corte Constitucional, las Salas de Revisión podrán disponer que en la publicación de la sentencia se omitan nombres o circunstancias que puedan identificar a las partes del proceso. En razón a que en el presente caso se hace referencia a las condiciones de salud de un niño, la Sala advierte que, como medida de protección de su intimidad, es necesario ordenar que se suprima de esta providencia y de toda futura publicación su nombre, así como cualquier otro dato o información que permita individualizarlo. En consecuencia, la Sala cambiará el nombre de las personas involucradas por ficticios, que se escribirán en cursivas.
3. Por tanto, en atención a lo dispuesto en el Acuerdo 02 de 2015[2] y la Circular Interna N.º 10 de 2022[3], esta providencia se registrará en dos archivos: uno con el nombre real de la actora y el representado, que la Secretaría General de la Corte Constitucional remitirá a las partes y autoridades involucradas. Otro con los nombres ficticios, que seguirá el canal previsto por esta corporación para la difusión de información pública.
I. ANTECEDENTES
Hechos
4. Blanca relató que su hijo menor de edad presenta un diagnóstico de trastorno de espectro autista (TEA). Por lo anterior, recibe terapias de rehabilitación en las áreas de psicología, terapia ocupacional y fonoaudiología.
5. El 31 de agosto de 2022, la tutelante radicó una petición ante la EPS, en la que solicitó que fuera exonerada del «pago de cuotas moderadoras de salud y copagos»[4], toda vez que, según afirmó, el artículo 12 de la Ley 1306 de 2009[5] y la Circular 016 de 2014 del Ministerio de Salud y Protección Social[6] exoneran a la población en situación de discapacidad del pago de cuotas moderadoras y copagos.
6. La entidad le indicó a la accionante las causales que hacían procedente la exoneración solicitada y expresó que, en caso de presentar alguna, debía acercarse para radicar la solicitud. Posteriormente, la accionante presentó la documentación requerida, sin embargo, según refirió, la EPS no adelantó las gestiones necesarias para reconocer el beneficio.
7. De forma adicional, Blanca le solicitó a la empresa promotora de salud (EPS) que asumiera los gastos de transporte para asistir a las terapias de su hijo, pues adujo no tener los recursos suficientes a efectos de sufragar los gastos asociados al desplazamiento suyo y del menor de edad. Manifestó que, aunque en ocasiones puede llevar al niño a pie, muchas otras veces, debido a la misma enfermedad de su hijo, este se rehúsa a caminar. Según informó la accionante, la EPS no emitió respuesta a esta solicitud.
8. La accionante indicó que no tiene un trabajo estable, es madre soltera y está clasificada en el grupo VI, subgrupo B1 del SISBEN (pobreza moderada). En consulta realizada por esta corporación, se encontró que la demandante está clasificada en el grupo A4 del SISBEN[7], correspondiente a pobreza extrema.
9. En virtud de lo anterior, Blanca interpuso una acción de tutela en contra de la EPS[8], por la presunta vulneración de los derechos a la salud y a la vida en condiciones dignas del menor de edad. Como pretensiones solicitó el amparo de estos derechos fundamentales y, en consecuencia, pidió se le ordene a la entidad (i) exonerar a su hijo de las cuotas moderadoras y copagos, (ii) cubrir los gastos de transporte, con el fin de que el niño pueda asistir a sus terapias, y (iii) garantizarle un tratamiento integral.
Actuaciones procesales en sede de tutela
10. En auto del 24 de noviembre de 2022, el Juzgado Municipal admitió la acción de tutela y corrió traslado a la EPS[9].
11. Respuesta de la EPS[10]. La entidad contestó que el menor de edad no pertenecía a la población objeto de especial atención referida en la Circular 0016 de 2014 del Ministerio de Salud y Protección Social y en la Ley 1306 de 2009, pues el diagnóstico «trastorno del espectro autista» no es propiamente una discapacidad mental/intelectual. Por ello no era procedente exonerarlo del pago de cuotas moderadoras y copagos por servicios autorizados por la EPS.
12. No obstante, explicó que, en ocasiones, ese diagnóstico podía asociarse a discapacidades del aprendizaje y, con base en ello, emitirse un certificado de discapacidad intelectual-mental. Para tales efectos era indispensable que un equipo interdisciplinario de especialistas evaluara varios factores, como el coeficiente intelectual, la capacidad de aprendizaje, la respuesta a los tratamientos de enfoque cognitivo conductual, entre otros.
13. En cuanto a la solicitud de gastos de transporte, señaló que la IPS CISADDE ofrece directamente ese servicio a los niños, niñas y adolescentes que reciben terapias en dicha entidad. La EPS manifestó que, con base en ello, se comunicó con la tutelante para informarle que se le había concedido el ingreso al programa de transporte. Con todo, la entidad aclaró que no existe orden médica alguna que respalde el derecho de la accionante a que dichos gastos sean cubiertos.
14. Finalmente, la accionada se opuso a que se ordene el suministro de tratamiento integral pues se afinca en una solicitud fundada en hechos futuros e inciertos que, por tanto, no puede llevar a la convicción sobre la transgresión de derechos fundamentales. Sobre el particular, agregó que, en la actualidad, no existe una orden médica vigente pendiente de autorizarle al menor de edad. Con base en lo anterior, solicitó declarar «improcedente» la acción de tutela al no existir una violación de los derechos del niño por parte de la EPS.
Sentencia de primera instancia[11]
15. El 7 de diciembre de 2022, el Juzgado Municipal amparó los derechos a la salud y a la vida en condiciones dignas del niño. En consecuencia, le ordenó a la EPS (i) autorizar el valor del transporte urbano o suministrar el servicio al menor de edad y a un acompañante, con el fin de asegurar su desplazamiento a la institución que corresponda, para recibir las terapias integrales prescritas por el médico tratante y (ii) asumir la prestación de los servicios de salud que en adelante requiera el menor de edad como consecuencia del diagnóstico «trastorno de espectro autista», sin exigencia de copagos o cuotas moderadoras, mientras subsista la insuficiencia de recursos económicos de sus padres para asumirlas[12].
16. Como fundamento de la decisión, sostuvo que, por tratarse de un menor de edad con un trastorno psicológico, se está en presencia de un sujeto de especial protección constitucional que requiere la garantía del acceso efectivo a los tratamientos prescritos por su médico. De acuerdo con ello, aunque al niño le fueron ordenadas ciertas terapias, su madre adujo no contar con suficientes recursos económicos para asistir al lugar donde debían practicarse, razón por la cual el juez consideró necesario acceder al amparo en lo que corresponde al transporte.
17. Frente a la solicitud de tratamiento integral, precisó que se requiere del diagnóstico que «el médico tratante estableció respecto al (sic) accionante y frente al cual recae la orden de tratamiento integral. Ello en consideración que no resulta posible dictar órdenes indeterminadas ni reconocer prestaciones futuras e inciertas; lo contrario implicaría presumir la mala fe de la EPS en relación con el cumplimiento de sus deberes»[13]. Al trasladar estas consideraciones al caso concreto, el juez no encontró prueba dentro del expediente en cuanto que el tratamiento integral hubiese sido ordenado por el médico tratante del menor de edad.
18. Respecto de la exoneración de cuotas moderadoras y copagos, el juez indicó que la tutelante realizó una negación indefinida sobre la carencia de recursos para asumir aquellos gastos, la cual no fue desvirtuada por la EPS. Por tanto, ordenó a la entidad exonerar a la tutelante de asumir dicha carga.
Impugnación[14]
19. La EPS reprodujo en la apelación los argumentos que expuso al momento de contestar la acción de tutela. Con base en ello, solicitó que se declarara su «improcedencia» por no existir vulneración de derechos y, con ello, que se revocara el fallo de primera instancia.
Sentencia de segunda instancia[15]
20. El 30 de enero de 2023, el Juzgado del Circuito resolvió confirmar la sentencia de primera instancia, al no encontrar que la EPS hubiera demostrado que la accionante contara con recursos económicos para sufragar los gastos asociados a la atención médica de su hijo. Así las cosas, señaló que, en el presente caso, las cuotas moderadoras y copagos representaban una barrera de acceso a los servicios de salud, por lo que corresponde al juez constitucional su eliminación.
21. De otro lado, «atendiendo que la Ley 2213 de 2022 tiene por objeto la incorporación de las TIC en los procesos judiciales», el juez advirtió que haría uso de herramientas de inteligencia artificial generativas (en adelante, IA) para «extender los argumentos de la decisión adoptada». Las preguntas realizadas al aplicativo y las respuestas emitidas por la herramienta ChatGPT 3.5, se transcriben a continuación:
¿Menor autista esta exonerado de pagar cuotas moderadoras en sus terapias?
La respuesta del aplicativo IA:
Sí, es correcto. De acuerdo con la normativa en Colombia, los menores con diagnóstico de autismo están exonerados de pagar cuotas moderadoras en sus terapias. Este beneficuento [sic] está regulado por la Ley 1753 de 2015 y se aplica a todas las instituciones prestadoras de servicios de salud públicas o privadas que reciban recursos del sistema general de seguridad social en salud.
¿Las acciones de tutela en estos casos se deben conceder?
La respuesta del aplicativo IA:
“En caso de que una institución prestadora de servicios de salud no cumpla con la exoneración de cuotas moderadoras para un menor con diagnóstico de autismo, la persona o sus representantes legales pueden presentar una acción de tutela para proteger sus derechos. La tutela es un mecanismo judicial rápido y eficaz para proteger derechos fundamentales que se ven vulnerados.
Si se demuestra que el derecho a la salud del menor con autismo está siendo afectado por la exigencia de pagar cuotas moderadoras, es probable que la acción de tutela sea concedida y se ordene a la institución prestadora de servicios de salud cumplir con la exoneración. Sin embargo, cada caso es único y la decisión final depende de los hechos y circunstancias específicas del caso.”.
¿Exigir en estos casos la cuota moderadora es una barrera de acceso al servicio de salud?
La respuesta del aplicativo IA:
“Sí, en algunos casos, la exigencia de pagar cuotas moderadoras puede ser una barrera de acceso al servicio de salud para personas con diagnóstico de autismo, especialmente si tienen dificultades para obtener ingresos o si su situación económica es precaria. La exigencia de pagar cuotas moderadoras puede impedir o dificultar el acceso a tratamientos y terapias esenciales para el bienestar y desarrollo de los niños con autismo.
Por esta razón, la normativa en Colombia exime a los menores con diagnóstico de autismo de pagar cuotas moderadoras en sus terapias, con el objetivo de garantizar el acceso a estos servicios de salud esenciales sin obstáculos financieros.”.
¿La jurisprudencia de la corte constitucional ha tomado decisiones favorables en casos similares?
La respuesta del aplicativo IA:
“Sí, es cierto. La Corte Constitucional de Colombia ha tomado decisiones favorables en casos similares relacionados con la exoneración de cuotas moderadoras para personas con diagnóstico de autismo. La jurisprudencia ha reconocido la importancia de garantizar el acceso a servicios de salud esenciales para las personas con autismo, y ha sostenido que la exigencia de pagar cuotas moderadoras puede ser una barrera de acceso a estos servicios. La jurisprudencia de la Corte Constitucional es una fuente importante para interpretar y aplicar la Constitución y las leyes en Colombia, y sus decisiones son vinculantes para todas las autoridades y entidades públicas del país. Por lo tanto, las decisiones favorables en casos similares pueden ser útiles como precedente para otros casos en los que se debata la exigencia de pagar cuotas moderadoras para personas con diagnóstico de autismo.”[16]
22. Sobre el uso de la IA explicó que su propósito no es reemplazar la decisión del juez, sino optimizar los tiempos empleados en la redacción de sentencias, previa corroboración de la información obtenida. Al respecto, en declaración[17] ante esta Corte, en el trámite de revisión, el juez insistió en que la decisión la tomó él, no la IA, la que consultó simplemente como una herramienta más de trabajo después de haber adoptado la determinación en el caso concreto. De acuerdo con ello, sostuvo que la consulta en ChatGPT fue solo un complemento de la decisión que ya había adoptado con base en los fundamentos clásicos de administración de justicia, basados en el razonamiento judicial.
Actuaciones en sede de revisión
23. Selección. El expediente fue enviado a la Corte Constitucional en cumplimiento de lo dispuesto en el artículo 32 del Decreto 2591 de 1991. En un principio, el estudio del caso para su eventual selección en sede de revisión le correspondió a la Sala de Selección Cuatro de 2023, la cual, mediante auto del 28 de abril de ese año, se abstuvo de hacerlo. No obstante, el expediente fue insistido por la magistrada Paola Andrea Meneses Mosquera, por el magistrado José Fernando Reyes Cuartas y por la Defensoría del Pueblo, bajo los siguientes argumentos:
24. Insistencia magistrada Paola Andrea Meneses Mosquera[18]. Expresó que el caso reflejaba debates novedosos para la Corte, particularmente, en lo que respecta a la falta de regulación en el uso de la IA en cuanto a la argumentación judicial, lo que plantea una serie de desafíos y consideraciones éticas y legales, como la transparencia, la protección de diversos derechos fundamentales involucrados y los mecanismos de control y supervisión adecuados. Consecuentemente, destacó que esta corporación tendría que definir las pautas sobre cómo se deben utilizar las tecnologías de IA en la toma de decisiones judiciales.
25. Insistencia magistrado José Fernando Reyes Cuartas[19]. Desarrolló algunos puntos contextuales sobre ChatGPT, la IA y su uso en otros países, para indicar que ni la legislación ni la jurisprudencia constitucional colombiana regulan el uso de las herramientas de la IA en el marco de la administración de justicia. De esta forma, precisó que el asunto es novedoso y su selección le permitiría a esta Corte determinar bajo qué parámetros es constitucional que los jueces puedan usar la plataforma ChatGPT u otro instrumento de IA para el cumplimiento de sus funciones.
26. Insistencia de la Defensoría del Pueblo[20]. Manifestó que, si bien la utilización de las Tecnologías de la Información y las Comunicaciones (TIC) están llamadas a apoyar y ayudar a los operadores judiciales en la toma de decisiones, la utilización específica de la IA debe ser objeto de límites y controles. Así, destacó que, aunque existe normativa en el ordenamiento jurídico colombiano que busca por medio de las tecnologías facilitar el acceso a la administración de justicia, se podría estar ante la eventual vulneración del derecho al debido proceso, pues el uso de estas herramientas en el sector justicia exige un máximo de cuidado y control. Por tanto, solicitó a esta Corte pronunciarse sobre el tema, con el fin de que se establezcan las definiciones, límites y controles necesarios conforme a la Constitución Política.
27. La Sala de Selección de Tutelas Número Seis de la Corte Constitucional seleccionó el asunto para revisión por cumplir con los criterios objetivos referentes a «asunto novedoso» y «exigencia de aclarar el contenido y alcance de un derecho fundamental». El auto respectivo fue notificado el 17 de junio de 2023 y la Secretaría General remitió el expediente al despacho del magistrado sustanciador para lo de su competencia.
28. Primer auto de pruebas. Mediante auto del 22 de agosto de 2023[21], el magistrado sustanciador decretó pruebas de oficio. En particular, (i) indagó sobre las condiciones del menor de edad y si estaba recibiendo servicios de salud sin pagos por cuotas moderadoras o copagos; (ii) ordenó tomar la declaración del Juez del Circuito, para que respondiera interrogantes relacionados con el uso que le dio a la herramienta ChatGPT para sustanciar la sentencia que profirió el 30 de enero de 2023; (iii) acudió ante entidades del Estado y colegios de jueces y fiscales del país, con el fin de esclarecer si existían protocolos, lineamientos o guías para el uso de herramientas de inteligencia artificial generativas en el país; (iv) solicitó el concepto de abogados, doctrinantes y organizaciones civiles expertos en la influencia de las tecnologías de la información en la aplicación del derecho, sobre las implicaciones de utilizar estas herramientas en la sustentación de decisiones judiciales y si conocían de regulaciones nacionales o internacionales al respecto; y (v) le preguntó a ciertas facultades de ingeniería de universidades del país sobre las condiciones y limitaciones técnicas que podían tener las herramientas de inteligencia artificial generativas y su incidencia en la sustentación de decisiones judiciales.
29. Segundo auto de pruebas. El 13 de diciembre de 2023, la Sala Segunda de Revisión emitió un segundo auto de pruebas y suspendió los términos por tres meses, con el fin de decretar y practicar pruebas adicionales, en atención a la complejidad del asunto. En concreto, la Sala formuló preguntas adicionales relacionadas con (i) las potencialidades del uso de herramientas de IA en las labores judiciales; (ii) los riesgos de su uso y la forma en que se pueden contrarrestar; (iii) las características de las herramientas de IA que existen hoy en día y la posibilidad de usarlas para apoyar labores judiciales: lo anterior, sin poner en riesgo derechos y principios y procurando aportar para hacer más efectiva la administración de justicia; y (iv) los aspectos técnicos, operativos y económicos que deben tenerse en cuenta para implementar el uso de las herramientas de inteligencia artificial generativa en la Rama Judicial.
30. Las respuestas a dichos autos de pruebas se encuentran en los anexos 2, 3 y 4 de la presente providencia. Las entidades y personas que participaron se relacionan a continuación: Facultad de Ingeniería, Escuela de Gobierno y Facultad de Derecho de la Universidad de los Andes; Facultad de Ingeniería de la Universidad de la Sabana; Mujeres TIC; Ministerio de las Tecnologías de la Información y las Comunicaciones; Consejo Superior de la Judicatura; Asociación Colegio de Jueces y Fiscales de Cali; Fundación Karisma; Grupo El Veinte; Open AI; Grupo de Estudios en Internet, Comercio Electrónico, Telecomunicaciones e informática de la Universidad de los Andes; Juez del Circuito; Blanca, como representante legal de su hijo; Colegio de Jueces y Fiscales de Antioquia; Agneris Sampieri; Asociación Colombiana de Mujeres; Erick Rincón Cárdenas de la Universidad del Rosario; Escuela Judicial Rodrigo Lara Bonilla; el Centro de Internet y Sociedad de la Universidad del Rosario; el Congreso de la República de Colombia; Lorena Flórez Rojas y Juan David Gutiérrez Rodríguez. De manera adicional, en el anexo 1 se incluye la intervención de Daniel Cortés, quien actuó como coadyuvante de la parte demandante, al igual que las intervenciones de Link TIC S.A.S., Pilar Ibáñez y Pedro Nel Rueda Garcés quienes, de manera voluntaria, remitieron sus conceptos a esta Corte. En los respectivos anexos se encuentra una síntesis de cada pronunciamiento, que por su extensión no es incluida en la sentencia.
31. Tercer auto de pruebas. El 28 de febrero de 2024, se ordenó el uso, por parte del despacho sustanciador, de la herramienta de inteligencia artificial ChatGPT, que empleó el Juez del Circuito, a efectos de confrontar los interrogantes que realizó dicho funcionario y el alcance de las conclusiones obtenidas. La diligencia se llevó a cabo el 8 de marzo de 2024[22] y sus resultados se encuentran contenidos en el anexo 5.
II. CONSIDERACIONES
Competencia
32. Con fundamento en los artículos 86 y 241.9 de la Constitución y 31 a 36 del Decreto 2591 de 1991, la Sala Segunda de Revisión de Tutelas de la Corte Constitucional es competente para revisar los fallos de tutela proferidos en el proceso de la referencia.
Examen de procedencia de la acción de tutela
33. La acción de tutela es un mecanismo de defensa judicial que permite la protección inmediata de los derechos fundamentales de una persona, cuando estos resulten comprometidos por la acción u omisión de autoridades públicas o particulares. No obstante, pese a la informalidad que se predica de este mecanismo, su procedencia está sometida al cumplimiento de los requisitos de legitimación, inmediatez y subsidiariedad.
34. Legitimación. Se refiere, en esencia, al interés que ostentan quienes intervienen en el trámite constitucional, bien porque son titulares de los derechos cuya protección o restablecimiento se discute (activa) o porque tienen la capacidad legal de responder por la vulneración o amenaza alegada (pasiva).
35. Legitimación por activa. El artículo 86[23] de la Constitución Política establece la facultad que tiene toda persona para interponer la tutela por sí misma o por quien actúe a su nombre, con el fin de reclamar ante los jueces la protección inmediata de sus derechos constitucionales fundamentales, cuando quiera que estos resulten vulnerados o amenazados. La legitimación para interponer la acción de tutela se encuentra regulada en el artículo 10[24] del Decreto 2591 de 1991, según el cual esta puede presentarse: (i) directamente por el afectado, (ii) a través de su representante legal, (iii) por medio de apoderado judicial o (iv) por un agente oficioso[25]. El inciso final de este artículo también faculta al defensor del pueblo y a los personeros municipales para interponer la acción de tutela directamente.
36. En el presente caso, este requisito se encuentra acreditado debido a que la tutela fue interpuesta por Blanca, madre del niño Emilio, quien actuó como representante legal de su hijo con el fin de invocar la protección de sus derechos fundamentales al debido proceso, a la vida, a la salud y a la seguridad social. En el caso en concreto, es claro que el niño, quien ha sido diagnosticado con TEA, no puede acudir a la defensa directa de sus derechos.
37. Legitimación por pasiva. La jurisprudencia constitucional ha establecido que la legitimación por pasiva en la acción de tutela hace referencia a la aptitud legal de la entidad o de los particulares contra quienes se dirige la acción, de ser los llamados a responder por la vulneración o amenaza de derechos fundamentales, en caso de que la transgresión resulte probada[26]. De acuerdo con el artículo 86 superior, la legitimación por pasiva exige acreditar dos requisitos: (i) que la acción se dirige contra autoridades o particulares que presten un servicio público o cuya conducta afecte grave y directamente el interés colectivo o respecto de los cuales el solicitante se halle en estado de subordinación o indefensión y (ii) que la conducta que genera la vulneración o amenaza del derecho se pueda vincular, directa o indirectamente, con su acción u omisión.
38. En este proceso, la acción se presenta en contra de un particular que presta un servicio público. De acuerdo con el artículo 42.2 del Decreto Legislativo 2591 de 1991[27], la acción de tutela procede en contra de acciones u omisiones de particulares que estén encargados de la prestación del servicio público de salud. En este caso, la accionada es la EPS, entidad promotora de salud a la cual se le atribuye la violación de los derechos fundamentales del niño Emilio. Así las cosas, se encuentra acreditado este requisito.
39. Inmediatez. La jurisprudencia constitucional ha resaltado que, de conformidad con el artículo 86 de la Constitución, la acción de tutela no tiene término de caducidad. Sin embargo, esta debe formularse en un plazo razonable desde el momento en el que se produjo el hecho vulnerador. Este requisito responde al propósito de protección inmediata de los derechos fundamentales, lo que implica que, pese a no existir un término específico para acudir ante el juez constitucional, las personas deben actuar diligentemente y presentar la acción de tutela en un tiempo razonable. El juez evaluará las circunstancias de cada caso para determinar si el recurso fue presentado oportunamente, flexibilizando su análisis ante la concurrencia de sujetos de especial protección constitucional o personas en condición de vulnerabilidad[28]. El requisito de inmediatez debe evaluarse en cada caso concreto, de conformidad con los principios de razonabilidad y proporcionalidad[29].
40. En circunstancias excepcionales, el juez de tutela puede concluir que resulta procedente una solicitud de amparo presentada después de transcurrido un tiempo considerable desde el momento en que se vulneró o amenazó un derecho fundamental. Dichas circunstancias son las siguientes: (i) cuando se advierten razones válidas para la inacción del actor, tales como la configuración de situaciones de caso fortuito o fuerza mayor; (ii) en los casos en los que la situación de debilidad manifiesta del peticionario torna desproporcionada la exigencia del plazo razonable y (iii) excepcionalmente, cuando se presenta una situación de permanencia o prolongación en el tiempo de la vulneración o amenaza de los derechos fundamentales que hace imperiosa la intervención del juez constitucional[30].
41. En el presente asunto, el 31 de agosto de 2022, la tutelante radicó una petición ante la entidad accionada, en la que solicitó ser exonerada del pago de cuotas moderadoras de salud y copagos. La EPS contestó[31] que debía acercarse ante la entidad con la documentación necesaria. La accionante la presentó, pero, según indicó, la EPS no adelantó las gestiones correspondientes. El 13 de diciembre de aquel año[32], la tutelante interpuso acción constitucional. Esto es, tres meses y medio después de haber radicado la solicitud. Este es un lapso razonable para instaurar la acción de amparo. Por tanto, se acredita este presupuesto.
42. Subsidiariedad. El inciso 4.º del artículo 86 de la Constitución consagra el principio de subsidiariedad como requisito de procedencia de la acción de tutela y determina que «[e]sta acción sólo procederá cuando el afectado no disponga de otro medio de defensa judicial, salvo que aquella se utilice como mecanismo transitorio para evitar un perjuicio irremediable». Es decir que, si existen otros mecanismos de defensa judicial que resultan idóneos y eficaces para solicitar la protección de los derechos que se consideran amenazados o vulnerados, se debe acudir a ellos y no a la tutela.
43. Sobre el particular, la Corte Constitucional ha determinado que cuando una persona acude ante el juez de tutela con el fin de que le sean protegidos sus derechos, no puede desconocer las acciones judiciales contempladas en el ordenamiento jurídico, ni pretender que se adopten decisiones paralelas a las del funcionario que debe conocer un determinado asunto radicado bajo su competencia, dentro del marco estructural de la administración de justicia[33].
44. Sin embargo, aun cuando existan mecanismos dispuestos en el ordenamiento para la satisfacción de los derechos fundamentales presuntamente vulnerados, en virtud de lo dispuesto en los artículos 86 superior y 6.º del Decreto 2591 de 1991, la tutela es procedente si se acredita (i) que el mecanismo principal no es idóneo ni eficaz o (ii) que a pesar de ser apto, no es lo suficientemente expedito para evitar que se configure un perjuicio irremediable.
45. El primer escenario descrito se refiere a la idoneidad del medio de defensa judicial. Tal análisis, según la jurisprudencia de esta corporación, no puede hacerse en abstracto, sino que depende del caso concreto, para lo cual deben tomarse en cuenta las características procesales del mecanismo y el derecho fundamental involucrado. Así, el mecanismo principal excluye la procedencia de la acción de tutela cuando salvaguarda de manera eficaz el derecho respecto del cual se solicita el amparo[34].
46. El segundo escenario se refiere a la interposición de la acción de tutela como mecanismo transitorio. La Corte Constitucional ha establecido que, en este caso, debido a que existe un medio judicial principal, se debe demostrar que la intervención del juez constitucional es necesaria para evitar la ocurrencia de un perjuicio irremediable. Sobre la naturaleza de tal perjuicio, la jurisprudencia ha señalado:
(i) debe ser inminente, es decir, que se trate de una amenaza que está por suceder prontamente; (ii) debe ser grave, esto es, que el daño o menoscabo material o moral en el haber jurídico de la persona sea de gran intensidad; (iii) las medidas que se requieren para conjurar el perjuicio irremediable deben ser urgentes; y (iv) la acción de tutela debe ser impostergable a fin de garantizar que sea adecuada para restablecer el orden social justo en toda su integridad[35]
47. De este modo, cuando exista otro medio de defensa judicial para salvaguardar los derechos reclamados, el juez constitucional deberá evaluar si este es idóneo y eficaz para resolver el problema jurídico objeto de estudio. Asimismo, cuando exista un mecanismo idóneo, deberá verificar si en el caso particular la tutela es procedente excepcionalmente para evitar la ocurrencia de un perjuicio irremediable. Por tanto, si existe un mecanismo principal, la acción de tutela será procedente solamente cuando se configure alguna de las dos hipótesis mencionadas.
48. Esta corporación ha afirmado que el artículo 41 de la Ley 1122 de 2007 asigna a la Superintendencia Nacional de Salud funciones jurisdiccionales para conocer controversias relacionadas con la cobertura de servicios, tecnologías o procedimientos de salud incluidos en el PBS. Sin embargo, en reiterada jurisprudencia, ha determinado que dicho mecanismo no es eficaz para la protección de los derechos fundamentales de los usuarios, pues «presenta deficiencias normativas y estructurales que mientras no se solventen, impiden considerarlo como eficaz para la efectiva protección del derecho a la salud»[36]. En todo caso, aún en el evento en que tales dificultades se superen, dicho medio de defensa no desplaza por completo a la acción de tutela. En cada caso particular debe evaluarse: «a) si la función jurisdiccional es idónea y eficaz; b) si el asunto versa sobre la negativa o la omisión en prestación de servicios y tecnologías en salud y c) la posible afectación de los derechos fundamentales de un sujeto de especial protección, como los niños y los adultos mayores»[37].
49. En el presente asunto, la accionante acude a la acción de tutela para que la exoneren de los copagos y cuotas moderadoras en salud en los que debe incurrir para que su hijo reciba terapias de rehabilitación en las áreas de psicología, terapia ocupacional y fonoaudiología. Además, solicita que le sean cubiertos los gastos de transporte. Lo anterior, en tanto afirma que no tiene los recursos económicos para asumir aquellos gastos. Al respecto, la Sala encuentra que la accionante está clasificada en el grupo A4 del SISBEN[38], es decir, en pobreza extrema y, aunque registra afiliación en el régimen contributivo de salud[39], lo está en calidad de beneficiaria. En esa medida, ciertamente, la accionante tiene escasos recursos económicos, lo cual puede afectar el acceso a los servicios de salud que requiere su hijo, quien es sujeto de especial protección constitucional.
50. En síntesis, la Sala encuentra que la acción de tutela presentada por Blanca satisface los requisitos generales de procedibilidad.
Carencia actual de objeto. Reiteración de jurisprudencia
51. La jurisprudencia constitucional[40] ha determinado que la carencia actual de objeto sucede cuando la acción de tutela ha perdido su razón de ser, ya sea por un hecho superado, por un daño consumado o por una situación sobreviniente[41]. Se trata de una figura procesal por medio de la cual el juez constitucional debe constatar si, en efecto, la situación que motivó la solicitud de amparo se encuentra superada.
52. En la Sentencia SU-522 de 2019 la Sala Plena de la Corte hizo un balance de la jurisprudencia constitucional en la materia y explicó las hipótesis que la configuran. Respecto del hecho superado reiteró que corresponde a la satisfacción de lo pretendido en la acción de tutela por parte de la entidad accionada. En estos casos, el juez debe comprobar si (i) lo pedido mediante acción de tutela ha sido satisfecho de manera integral y (ii) si la entidad demandada actuó o cesó en su accionar, según corresponda, de manera voluntaria.
53. Por su parte, el daño consumado se presenta cuando no es posible proteger el derecho fundamental, debido a que la afectación que se pretendía evitar se materializó[42].
54. En cuanto a la circunstancia o el hecho sobreviniente, en el fallo aludido, la Corte señaló que «remite a cualquier “otra circunstancia que determine que, igualmente, la orden del juez de tutela relativa a lo solicitado en la demanda de amparo no surta ningún efecto y por lo tanto caiga en el vacío”. No se trata entonces de una categoría homogénea y completamente delimitada»[43]. En ese sentido, se puede entender que el hecho sobreviniente tiene un carácter residual, es decir, se configura cuando la circunstancia estudiada no encuadra dentro de alguno de los dos conceptos tradicionales (hecho superado y daño consumado) en materia de carencia actual de objeto.
55. Así, lo que diferencia a la circunstancia sobreviniente del hecho superado es que en la primera situación el objeto de la tutela pierde su razón de ser por un hecho ajeno a la parte accionada –bien sea, por ejemplo, por la actuación de un tercero, del mismo accionante o porque este ha perdido interés en la satisfacción de su pretensión–, mientras que el hecho superado se configura cuando el extremo demandado ha satisfecho, por iniciativa propia, el objeto de la acción de tutela.
56. Respecto del deber del juez de tutela en los casos en que se configura un hecho superado o una situación sobreviniente, esta Corte ha unificado su jurisprudencia para sostener que, aunque no es imperioso que este profiera una decisión de fondo, puede emitir un pronunciamiento en ese sentido cuando lo considere necesario para «a) llamar la atención sobre la falta de conformidad constitucional de la situación que originó la tutela y tomar medidas para que los hechos vulneradores no se repitan; b) advertir la inconveniencia de su repetición, so pena de las sanciones pertinentes; c) corregir las decisiones judiciales de instancia; o d) avanzar en la comprensión de un derecho fundamental»[44].
57. Con base en estas consideraciones, la Sala de Revisión procede a analizar si en el caso sometido a estudio se configuró una carencia actual de objeto. En el informe que se le solicitó rendir a Blanca en el presente trámite de revisión, esta afirmó que la EPS ha respondido directa y diligentemente a las solicitudes que realizó en la demanda de tutela y ha hecho un seguimiento continuo del caso a través de llamadas de supervisión con el fin de estar enterada de los pormenores que han ido surgiendo desde la presentación del escrito de tutela[45]. No obstante, realizó la siguiente precisión:
[M]e encuentro exonerada del pago de cuotas moderadoras de salud y copagos para los servicios de salud de mi hijo Emilio, pero el niño requiere una serie de estudios cada 3 meses con el médico neurólogo, con el psiquiatra y genetista, además se le practican resonancias, estudios genéticos, electrocardiogramas, encefalogramas, evocados auditivos, sin embargo, al momento de acudir a las entidades que prestan los servicios, estas nos solicitan el pago de cuotas moderadoras de salud y copago, de manera que me toca expresar que mi hijo se encuentra exonerado de este copago, a lo que las entidades manifiestan que estos son temas que deben manejarse directamente con la EPS, situación que hace que debe dirigirme a la EPS para exponerles la situación, los cuales de manera diligente gestionan el cumplimiento de esta exoneración[46].
58. Y, en cuanto al servicio de transporte, sostuvo:
[N]o me toca pagar viáticos para dirigirme a los controles terapéuticos, mientras que para cuestiones de inspección con especialistas, en los casos de neurólogo, psiquiatra, genetista, y para los procesos de resonancias, estudios genéticos, electrocardiogramas, encefalogramas y evocados auditivos, sí es necesario que haga uso de mis recursos económicos para el pago de los viáticos para dirigirme a los lugares donde el niño Emilio recibe los servicios de salud[47]
59. Visto lo anterior, en lo que se refiere al suministro directo o pago de gastos de transporte para la atención médica del niño, es claro que no se configura un hecho superado debido a que la EPS accionada únicamente ha satisfecho la pretensión respecto de los trayectos requeridos para las terapias que le son prescritas al niño, no así para el desplazamiento a citas con las diferentes especialidades médicas que lo atienden y las ayudas diagnósticas que se le ordenan.
60. La Sala tampoco advierte un hecho superado en relación con las transgresiones alegadas por el cobro de copagos y cuotas moderadoras que genera la atención médica y asistencial del niño. Si bien la accionante admitió que en la actualidad se encuentra exonerada de tales pagos, también manifestó que la efectividad de tal medida se ve reducida por la falta de comunicación entre la EPS accionada y las IPS encargadas del suministro de la atención médico asistencial del menor que, en muchas ocasiones, al no tener conocimiento de la medida de exoneración, generan el cobro de copagos y cuotas moderadoras, lo que se traduce en cargas administrativas para que la accionante gestione entre ambas entidades el reconocimiento de la exoneración, lo que de ser así alteraría el respeto por los principios de accesibilidad e integralidad del SGSSS, con la consecuente afectación del derecho a la salud del menor de edad.
61. Por último, tampoco se estructura una carencia actual de objeto por un hecho superado, respecto al tratamiento integral, toda vez que persiste la duda de que se haya garantizado la continuidad en la prestación del servicio de salud en su totalidad. Al ser el agenciado un sujeto de especial protección constitucional, es importante para esta Sala revisar el asunto.
62. Establecido que se cumplen los requisitos de procedibilidad y que no se ha configurado una carencia actual de objeto, se procede al análisis de fondo de la actuación.
Problema jurídico y metodología de la decisión
63. La Sala deberá revisar dos aspectos de la actuación. Por una parte, verificará la posible vulneración del derecho fundamental al debido proceso en cuanto la decisión de segunda instancia proferida en este radicado, ya que, en ella, para resolverla, el juez hizo uso de IA, en específico, de ChatGPT 3.5; por otra, estudiará si se lesionó el derecho a la salud del niño Emilio, al no ser exonerado de los cobros de copagos y cuotas moderadoras en el SGSSS, al no suministrarle el servicio de transporte integralmente y al negársele el derecho a un tratamiento integral.
- Sobre la violación al debido proceso
64. En cuanto a la primera cuestión se tiene que, el Juzgado del Circuito, actuando en calidad de juez de tutela de segunda instancia en la actuación de la referencia, hizo uso de una herramienta de IA generativa, en específico de ChatGPT 3.5, para elevar consultas jurídicas relacionadas con la materia puesta a su conocimiento. En concreto, gestionó algunas preguntas en el aplicativo y copió las respuestas obtenidas en la sentencia.
65. El anterior proceder genera dudas respecto a (i) si quien emitió la decisión fue un juez de la República o una IA y (ii) si la decisión fue debidamente motivada o fue producto de respuestas o alucinaciones generadas por la IA.
66. Los anteriores interrogantes llevan a plantear si el uso de IA a través de la herramienta ChatGPT 3.5 que se hizo en la toma de la decisión de segunda instancia, para formular consultas e incorporar sus respuestas en el fallo, conlleva una violación al debido proceso y, de ser así, a la invalidez de la actuación a partir de dicho pronunciamiento.
67. Esta Sala considera pertinente reiterar que, como juez de tutela, se encuentra facultada para revisar toda la actuación de tutela, para determinar si se evidencia o no la vulneración de derechos fundamentales, entre ellos el del debido proceso, de tal suerte que esta función no está condicionada a lo que se invoque por los intervinientes dentro del trámite de revisión[48]. En efecto, en su rol de garante de la integridad del ordenamiento jurídico y por mandato del artículo 29 superior, a la Corte Constitucional le corresponde velar por el respeto del debido proceso en todas las actuaciones judiciales a su cargo. De acuerdo con ello, la corporación ha sostenido que:
Ante una vulneración “ostensible, probada, significativa y trascendental” del debido proceso, que tenga repercusiones sustanciales en la decisión, corresponde a la Corte, en concordancia con el artículo 29 superior, garantizar este derecho en todas las actuaciones ante ella surtidas, y observar que se respeten los procedimientos previstos en los Decretos 2067 y 2591 de 1991, así como en el Reglamento interno[49]
68. En conclusión, esta Corte tiene la facultad de realizar un estudio de validez, bien sea oficioso o rogado, tanto del procedimiento y de las actuaciones surtidas en el proceso de tutela ante las instancias, como de sus propias determinaciones en sede del trámite de revisión de los fallos allí proferidos. Este análisis puede implicar que se concluya la necesidad de decretar la nulidad de lo actuado o de aplicar mecanismos de subsanación, por lo cual puede realizarse, incluso, en forma previa a la revisión de fondo en el caso. En el presente trámite, la Sala abordará el asunto como cuestión de fondo pues se trata de definir, por primera vez, elementos que precisen el alcance del derecho al debido proceso frente al uso razonado de herramientas derivadas de la IA en el trámite de acciones de tutela. En ese sentido, se trata de una decisión innovadora que introduce parámetros de comportamiento judicial nunca antes abordados por la Corte Constitucional, lo que implica que el fallo tiene la potencialidad de generar un impacto social y jurídico significativo con efectos que trascienden el caso concreto. La relevancia particular que puede tener un asunto con estas características para el interés público y el orden constitucional, además de las órdenes que deberán impartirse al respecto, con efectos inter comunis, como se explicará en su momento, justifican un examen exhaustivo del uso de la IA en las decisiones judiciales que, en esta oportunidad, debe efectuarse mediante un estudio de fondo, sin perjuicio de que, en futuras ocasiones, se pueda acudir a otras metodologías atendiendo a las particularidades del caso.
69. Visto lo anterior, la Sala de Revisión considera que en el presente caso procede realizar un estudio oficioso acerca de la validez de las actuaciones adelantadas por el juez de tutela en segunda instancia, específicamente, del fallo que emitió el 30 de enero de 2023, a efectos de establecer si en él se incurrió en alguna irregularidad que implique una violación del derecho al debido proceso. Con tal fin, responderá el siguiente interrogante:
¿La sentencia de tutela del 30 de enero de 2023, que es objeto de revisión por esta Corte, incurrió en una violación del derecho al debido proceso, en específico, al quebrantar las garantías del juez natural y al motivar indebidamente la decisión, por incorporar las respuestas que arrojó un sistema de IA generativo, ChatGPT 3.5, consultado por el juez competente para proferir la decisión?
70. Para responder esta pregunta, se abordarán los siguientes temas (i) el derecho fundamental al debido proceso; (ii) el debido proceso en un sistema jurisdiccional que utiliza IA; (iii) el sistema de IA. Conceptos y aspectos básicos acerca de su funcionamiento; (iv) impactos del uso de herramientas de IA en la sociedad; (v) el estado de la IA en Colombia, (vi) el marco regulatorio de la IA en el mundo. Algunos instrumentos de soft law e iniciativas normativas nacionales; (vii) algunas experiencias relacionadas con la IA en la práctica judicial; (viii) la garantía del juez natural en un sistema jurisdiccional que utiliza IA; (ix) el debido proceso probatorio en un sistema jurisdiccional que utiliza IA y (x) conclusiones.
- La exoneración de cobros de copagos y cuotas moderadoras en el SGSSS, el suministro del servicio de transporte y el derecho a un tratamiento integral para niños con funcionalidad diversa
71. Respecto a este punto, se pudo constatar que Blanca interpuso una acción de tutela en contra de la EPS. A juicio de la accionante, su hijo tiene derecho a ser exonerado del pago de copagos y cuotas moderadoras en salud. Asimismo, solicitó que los gastos de transporte fueran cubiertos y se le garantizara al niño un tratamiento integral. Los jueces de instancia ordenaron a la entidad accionada cubrir los gastos de transporte en los que incurría la accionante para llevar a su hijo a las terapias y exonerar a este último de copagos y cuotas moderadoras en salud.
72. La Sala de Revisión se pronunciará sobre el debate constitucional derivado del siguiente problema jurídico:
¿Una EPS vulnera los derechos fundamentales a la salud, la vida digna y la seguridad social de un niño diagnosticado con trastorno de espectro autista (i) al no exonerarlo de copagos y cuotas moderadoras; (ii) al no suministrarle el servicio de transporte interurbano bajo el argumento de que no existe prescripción médica que lo ordene pese a que su familia cuenta con escasos recursos para cubrirlo y (iii) al no autorizarle un tratamiento integral?
73. Con el propósito de resolver estos interrogantes, la Sala abordará los siguientes temas: (i) los niños, niñas y adolescentes como sujetos de especial protección constitucional; (ii) las personas en situación de discapacidad como sujetos de especial protección constitucional; (iii) el derecho a la salud; (iv) los niños, niñas y adolescentes en situación de discapacidad y la protección de su derecho fundamental a la salud; (v) la prohibición de anteponer barreras administrativas para la prestación del servicio de salud; (vi) tratamiento integral; (vii) reconocimiento de los gastos de transporte para el paciente y un acompañante y (viii) cobros en el sistema de seguridad social en salud. Exoneración de copagos y cuotas moderadoras para personas en situación de discapacidad física o cognitiva. (ix) Finalmente se resolverán los dos aspectos planteados.
Uso de la herramienta de inteligencia artificial IA generativa ChatGPT en procesos de tutela y debido proceso
(i) El derecho fundamental al debido proceso
74. El artículo 29 de la Constitución Política consagra el derecho fundamental del debido proceso, el cual a su vez está conformado por una serie de garantías aplicables a todo tipo de procedimientos. Desde este punto de vista, las normas procesales que se refieren a los derechos fundamentales que conforman el debido proceso no pueden ser tenidas como normas adjetivas, sino que ellas son normas sustanciales.
75. La jurisprudencia constitucional ha definido el derecho al debido proceso como «el conjunto de garantías previstas en el ordenamiento jurídico, a través de las cuales se busca la protección del individuo incurso en una actuación judicial o administrativa, para que durante su trámite se respeten sus derechos y se logre la aplicación correcta de la justicia»[50].
76. Algunas de las garantías que componen el debido proceso son la «legalidad, juez natural o legal, favorabilidad, presunción de inocencia, derecho a la defensa (derecho a la asistencia de un abogado, a presentar y controvertir pruebas, a oponer la nulidad de las obtenidas con violación del debido proceso, y a impugnar la sentencia condenatoria), debido proceso público sin dilaciones injustificadas, y a no ser juzgado dos veces por el mismo hecho»[51]; entre estas también se ha incluido la jurisdicción o libre acceso a la administración de justicia[52]. Esta corporación ha admitido que en ciertas áreas los diferentes amparos en que se manifiesta el debido proceso pueden aplicar con una mayor rigurosidad[53].
77. En el siguiente cuadro, se indica, de manera preliminar, el contenido de dichas garantías:
Derecho |
Contenido |
El derecho a la jurisdicción o al libre acceso a la administración de justicia |
Conlleva los derechos al libre e igualitario acceso a los jueces y autoridades administrativas, a obtener decisiones motivadas, a impugnar las decisiones ante autoridades de jerarquía superior y al cumplimiento de lo decidido en el fallo. |
El derecho al juez natural |
El juez natural es aquel funcionario con capacidad o aptitud legal para ejercer jurisdicción en determinado proceso o actuación, de acuerdo con la naturaleza de los hechos, la calidad de las personas y la división del trabajo establecida por la Constitución y la ley[54]. |
El derecho a la defensa |
Se entiende como el empleo de todos los medios legítimos y adecuados para ser oído y obtener una decisión favorable. De este derecho hacen parte el derecho al tiempo y a los medios adecuados para la preparación de la defensa; los derechos a la asistencia de un abogado cuando sea necesario, a la igualdad ante la ley procesal, a la buena fe y a la lealtad de todas las demás personas que intervienen en el proceso. |
El derecho a un proceso público |
Pretende garantizar el desarrollo del proceso o actuación dentro de un tiempo razonable, lo cual exige que estos no se vean sometidos a dilaciones injustificadas o inexplicables. |
Principio de legalidad o formas propias de cada juicio |
No existe facultad, función o acto que puedan desarrollar los servidores públicos que no esté prescrito, definido o establecido en forma expresa, clara y precisa en la ley. Los servidores públicos, como los jueces, siempre deben sujetarse a lo prescrito por la ley, la Constitución y demás normas o reglas jurídicas. |
Non bis in idem |
Pretende asegurar que los conflictos sociales que involucran consecuencias de tipo sancionatorio no se prolonguen de manera indefinida, además de evitar que un mismo asunto obtenga más de una respuesta de diferentes autoridades judiciales, en procesos que tengan identidad de sujeto, objeto y causa, siendo su finalidad última la de racionalizar el ejercicio del poder sancionatorio en general y, especialmente, del poder punitivo. |
78. El quebrantamiento de cualquiera de estas garantías constituye una violación al derecho fundamental del debido proceso. Por tal motivo, su desconocimiento en el servicio público de administración de justicia supone la violación de los artículos 29, 228 y 229 superiores.
(ii) El debido proceso en un sistema jurisdiccional que utilice razonablemente IA
79. Ahora, en cuanto al tema analizado, se tiene que los avances tecnológicos en materia de IA han tenido un impacto global complejo que ha irradiado cada ámbito de la vida humana, sin que la práctica jurídica sea una excepción y, dentro de ella, el sistema judicial. En efecto, la proliferación de sistemas de IA y su aplicación en escenarios judiciales, tanto en el trámite como en lo sustancial, dan paso progresivo a un nuevo paradigma en el servicio público de administración de justicia. De allí la necesidad de evaluar las condiciones para que la implementación de estas nuevas tecnologías en la Rama Judicial pueda llevarse a cabo con respeto de los derechos fundamentales, entre ellos el debido proceso.
80. En ese orden de ideas, las garantías que componen el derecho fundamental mencionado son uno de los principales derroteros para estudiar los sistemas de IA que pretendan utilizarse en un sistema jurisdiccional. Aunque el debido proceso está integrado por un amplio abanico de garantías, no todas tienen la misma relevancia en el análisis de tal materia. Los aspectos problemáticos asociados a estas tecnologías emergentes hacen que algunas de ellas puedan ser más útiles para aprovechar sus ventajas y controlar los riesgos de su implementación en la Rama Judicial.
81. De manera particular esta Sala de Revisión destaca, como componentes del debido proceso que pueden verse trasgredidos por el uso de IA, (i) la garantía del juez natural, (ii) la garantía de la motivación de las decisiones judiciales y (iii) la garantía del debido proceso probatorio, las cuales se estudiarán en esta decisión, pero antes de ello explicará brevemente en qué consiste un sistema de inteligencia artificial IA y los aspectos básicos acerca de su funcionamiento.
(iii) Sistemas de IA. Concepto y aspectos básicos acerca de su funcionamiento
82. La búsqueda de una definición sobre un sistema de IA debe tener como premisa que se trata de un concepto innovador y cambiante debido a la constante y rápida evolución de este fenómeno tecnológico. No es lo mismo hablar de IA en 1950[55], cuando era una idea apenas emergente a la que ni siquiera se le había dado tal denominación, que hablar de su significado en los días actuales, cuando este ámbito científico agrupa tecnologías que, a través del procesamiento masivo de datos, tienen incluso la capacidad de permitir el aprendizaje automático para este tipo de herramientas.
83. Aunque las capacidades de los sistemas de IA son variables, el punto de partida para aproximarse a tal concepto está en cuatro criterios: (i) el razonamiento, (ii) la racionalidad, (iii) la conducta y (iv) la fidelidad en la forma de actuar con los humanos. De allí que un sistema de IA pueda definirse como (i) sistemas que piensan como humanos; (ii) sistemas que piensan racionalmente; (iii) sistemas que actúan como humanos y (iv) sistemas que actúan racionalmente[56]. Con el propósito de comprender cada una de estas concepciones, Russell y Norvig[57] presentan el siguiente cuadro:
84. Conforme con lo anterior, se puede establecer que el razonamiento es «el proceso mental de deducir conclusiones lógicas y hacer predicciones a partir de los conocimientos, hechos y creencias disponibles. O también podemos decir que es una forma de inferir hechos a partir de datos existentes. Es un proceso general de pensar racionalmente, para encontrar conclusiones válidas»[58]. Un ejemplo de razonamiento en inteligencia artificial es su capacidad para utilizar el procesamiento del lenguaje natural. Gracias al razonamiento, la IA puede tomar decisiones lógicas y racionales. De allí que la construcción de una IA simule los canales neurológicos del cerebro humano.
85. La racionalidad, se entiende como aquella habilidad de elegir la mejor acción a realizar con el propósito de alcanzar cierto objetivo, dados ciertos criterios a optimizar y teniendo como base una serie de recursos disponibles. Un sistema de IA consigue ser racional al percibir su entorno a través de sensores que le permiten recoger e interpretar datos, con los cuales puede razonar sobre lo percibido o procesar la información que generan tales datos, para así decidir cuál es la mejor acción por emprender a través de unos actuadores[59]. Una vez ejecutada la acción es posible que se modifique el ambiente, de manera que, la próxima vez, el sistema necesita usar nuevamente sus sensores para poder percibir la información diferente, resultante del ambiente modificado[60].
86. La conducta se enfoca en todas las acciones y comportamientos que los sistemas de IA pueden emitir como una respuesta a su entorno y a los estímulos que reciben, los cuales a su vez pueden variar conforme al modelo de aprendizaje usado por la misma, los datos con los que se ha entrenado el sistema, el entorno para el que se usa la IA y los objetivos para los cuales fue diseñada[61].
87. La fidelidad en la forma de actuar con los humanos hace referencia a la capacidad que tiene el sistema de IA para mantener y transmitir a los usuarios un comportamiento consistente, confiable y predecible en las interacciones que se den. Para lograr esa fidelidad o confianza entre máquina y ser humano, se requiere que la herramienta tecnológica sea precisa, consistente y transparente con la información que emite. Aquí, es en donde varios expertos en el asunto encuadran el tema de la ética de la IA y su estudio[62].
88. Los sistemas de IA tienen tres habilidades básicas principales: (i) percepción, (ii) razonamiento o toma de decisiones y (iii) actuación. Estos son elementos mínimos que definen un sistema racional de IA (rational AI system), una versión más básica en la que hay una modificación del ambiente, pero a lo largo del tiempo el sistema no tiene la capacidad de adaptar su comportamiento para alcanzar sus objetivos de una mejor manera. Su evolución y modernización ha derivado en lo que se conoce como sistemas racionales de aprendizaje de IA (learning rational AI system). A diferencia de los primeros enunciados, después de tomar acción, estos tienen la capacidad de evaluar, por medio de la percepción, el nuevo estado del ambiente con el fin de determinar qué tan exitosa fue la acción y, entonces, adaptar sus reglas de razonamiento y métodos de toma de decisión.
89. Los constantes y rápidos avances en la materia hacen que, de manera continua, los expertos en esta disciplina científica realicen ajustes y actualizaciones al concepto de IA. Aunque no exista una definición única y universalmente aceptada, en términos simples, puede afirmarse que se trata de sistemas que tienen la capacidad para analizar el ambiente o entorno en el que están inmersos y así emprender acciones, con algún grado de autonomía, a efectos de alcanzar objetivos específicos. En 2019, la Comisión Europea[63] definió las herramientas de IA como:
[S]istemas de software (y posiblemente también de hardware) diseñados por humanos que, dado un objetivo complejo, actúan en la dimensión física o digital percibiendo su entorno mediante la adquisición de datos, interpretando los datos recogidos -sean estos estructurados o no- razonando sobre el conocimiento o procesando la información derivada de estos datos y decidiendo la(s) mejor(es) acción(es) a tomar para alcanzar un determinado objetivo. Los sistemas de IA pueden utilizar reglas simbólicas o aprender un modelo numérico y también pueden adaptar su comportamiento analizando cómo se ve afectado el entorno por sus acciones anteriores[64]
90. Un concepto más reciente es el de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) que, el 5 de marzo de 2024, publicó el memorando explicativo n.º 8 sobre la definición actualizada de la OCDE de un sistema de IA, con la que efectuó cambios al concepto que había adoptado en 2019, para señalar que:
Un sistema de IA es un sistema basado en una máquina que, ya sea para alcanzar objetivos explícitos o implícitos, infiere -a partir de la entrada que recibe- cómo generar salidas, tales como predicciones, contenidos, recomendaciones o decisiones, las cuales pueden influir en entornos físicos o virtuales. Los diferentes sistemas de IA varían en sus niveles de autonomía y capacidad de adaptación después de su implementación[65]
91. Dicho lo anterior, es importante precisar que los sistemas de IA tienen un ciclo de vida que se compone de cuatro fases: (i) el diseño de datos y modelos, que incluye planificación, diseño, toma y procesamiento de datos, así como construcción e interpretación de modelos; (ii) la verificación y validación del sistema; (iii) el despliegue; y, por último, (iv) su funcionamiento y supervisión.
92. Para explicar el concepto en términos más ilustrativos, la OCDE propone el siguiente gráfico, que representa una visión general simplificada de un sistema de IA:
«Nota: esta figura presenta sólo una posible relación entre las fases de desarrollo y despliegue. En muchos casos, el diseño y el entrenamiento del sistema pueden continuar en usos posteriores. Por ejemplo, quienes despliegan sistemas de IA pueden afinar o entrenar continuamente los modelos durante su funcionamiento, lo que puede influir significativamente en el rendimiento y el comportamiento del sistema»[66].
93. Como puede observarse de los anteriores gráficos, en el entrenamiento de la IA son fundamentales los datos que se le suministren y en su funcionamiento destacan dos elementos esenciales: (i) la autonomía y (ii) la adaptabilidad. El primero alude al grado en el que, después de la delegación de autonomía y automatización de procesos por parte de los seres humanos, el sistema puede aprender o actuar sin la intervención de estos. En efecto, algunos sistemas de IA pueden generar resultados que no están explícitamente descritos en el objetivo del sistema y sin instrucciones específicas de un ser humano. De otro lado, la adaptabilidad se refiere a la capacidad del sistema para modificar su comportamiento por medio de la interacción directa con datos de entrada, antes o después de la implementación[67].
94. La adaptabilidad se presenta principalmente en sistemas de IA basados en técnicas de aprendizaje automático (machine learning). Se trata de un tipo de aprendizaje de la IA en el que las máquinas hacen uso de enfoques estadísticos a fin de aprender de datos históricos y patrones para, de esta forma, predecir situaciones nuevas. Con ello logran resolver problemas que no pueden especificarse con exactitud o cuyo método de resolución no puede plantearse en reglas de razonamiento simbólico. El proceso consistente en mejorar el rendimiento de un sistema mediante técnicas de aprendizaje automático se conoce como entrenamiento. Los sistemas de IA pueden entrenarse una vez, periódicamente o de manera continua[68].
95. Una de las ramas de la IA que aparece con el aprendizaje automático es la IA generativa. Se trata de un sistema de IA basado en machine learning que tiene la capacidad de generar contenido sintético como texto, imágenes y sonido, a partir de un comando que contiene una premisa. Estos modelos de IA pueden producir contenidos completamente novedosos, que no han sido ingresados como entrada en el proceso de entrenamiento. Por ejemplo, si el modelo ha sido entrenado en una serie de datos de imágenes de paisajes, tendrá la capacidad de generar imágenes de paisajes nuevos y únicos.
96. Una forma de IA generativa es el procesamiento de lenguaje natural (Large Language Models -en adelante LLM-, o Sistemas Predictivos de Lenguaje), que otorga a los ordenadores la capacidad de comprender textos y palabras de manera similar a los seres humanos, para lo cual se combina la lingüística computacional, que se basa en reglas de lenguaje humano, con modelos estadísticos[69].
97. Visto lo anterior, es posible señalar que, hoy en día, la IA se diferencia de tecnologías de la información anteriores, principalmente, por dos características. En primer lugar, estas nuevas tecnologías son capaces de aprender, es decir, pueden identificar patrones y descubrir nueva información sin la asistencia de un humano, así como predecir eventos futuros. En segundo lugar, la IA puede actuar con cierto grado de autonomía. Esto es, puede tomar, por sí sola, decisiones que no están preprogramadas. En teoría, un nivel más alto de autonomía implicaría la capacidad de determinar estrategias óptimas para completar ciertas tareas e incluso determinar objetivos[70].
98. Estas habilidades son el resultado de la imitación de las redes neuronales humanas. En otras palabras, la IA emula la estructura del cerebro humano. De este modo, las herramientas de IA aprenden sobre la base de grandes volúmenes de datos y encuentran soluciones a problemas que no sólo no se conocen, sino que en muchos casos no se podrían visualizar. Muchas veces estos sistemas descubren atributos o representaciones intermedias que le permiten realizar tareas. Otras veces encuentran una forma particular de hacerlo que no se le habría ocurrido a un humano. Y otras tantas, estos circuitos, que se han consolidado en el entrenamiento para resolver un problema, les permiten resolver otros inesperados, sin que quien desarrolló esa red neuronal pudiese preverlo de antemano[71].
99. De manera especial, las herramientas de IA generativas son una clase emergente de algoritmos de inteligencia capaces de producir contenido novedoso, en diversos formatos como texto, audio, video, imágenes y código, según las indicaciones del usuario. El aprendizaje, los conjuntos de datos masivos y los aumentos sustanciales en la potencia informática han impulsado tales herramientas para el desempeño a nivel humano en puntos de referencia académicos y profesionales[72].
100. Según el último informe del índice de inteligencia artificial de 2023 de la Universidad de Stanford[73], Estados Unidos ha mantenido su liderazgo en la inversión en inteligencia artificial (IA). Durante el año 2022, Estados Unidos encabezó el mundo en términos del monto total invertido en IA por parte del sector privado. La cifra alcanzó los $47.4 mil millones, lo que representa aproximadamente 3.5 veces la inversión realizada en el siguiente país con mayor inversión, China, que llegó a los $13.4 mil millones. Además, Estados Unidos continúa liderando en cuanto al número total de empresas de IA que han recibido financiamiento recientemente, superando en 1.9 veces a la Unión Europea y al Reino Unido combinados, y en 3.4 veces a China.
101. Durante el mismo año, el sector de la salud y la atención médica recibió la mayor cantidad de inversión en IA, alcanzando los $6.1 mil millones; seguido por la gestión de datos, procesamiento y nube, con $5.9 mil millones; y Fintech, con $5.5 mil millones. Las empresas están implementando la IA de diversas maneras. Las capacidades de IA más comúnmente adoptadas por las empresas incluyen la automatización de procesos robóticos (39%), la visión por computadora (34%), la comprensión de texto en lenguaje natural (33%) y los agentes virtuales (33%). Además, el caso de uso más frecuentemente adoptado en 2022 fue la optimización de operaciones de servicio (24%), seguido por la creación de nuevos productos basados en IA (20%), la segmentación de clientes (19%), el análisis de servicio al cliente (19%) y los nuevos mejoramientos basados en IA de productos (19%).
102. En relación con América Latina, según el índice latinoamericano de inteligencia artificial de 2023 del Centro Nacional de Inteligencia Artificial[74], su adopción[75] alcanzó un promedio de 38,27. En esta oportunidad, Chile encabezó este aspecto con un puntaje de 84,11, seguido por Uruguay y Argentina, que registraron 69,43 y 53,96, respectivamente. Colombia, por su parte, obtuvo un porcentaje de 31,0.
103. Es notable el impacto que la IA tiene en diferentes sectores de la sociedad y cómo puede contribuir en la mejora de las condiciones sociales y en la materialización de los derechos fundamentales.
104. En ese sentido, es importante tener presente la diferencia entre derecho informático e informática jurídica o actualmente legal tech. Mientras el primero hace alusión a las normas que regulan la incorporación de la informática en la vida social; el segundo, tema de análisis en esta sentencia, consiste en la aplicación de métodos informáticos en el campo del derecho[76].
105. En este caso particular, se trató de la aplicación de ChatGPT por parte del Juzgado del Circuito en la sentencia de tutela de segunda instancia del 30 de enero de 2023. ChatGPT es una de las tantas IA generativas[77] que se basa en un modelo de lenguaje de gran tamaño (LLM). Fue desarrollado por la empresa OpenAI[78]. Este sistema está «basado en la arquitectura GPT (Generative Pre-trained Transformer). GPT se refiere a un tipo de modelo de aprendizaje automático que ha sido entrenado en grandes cantidades de datos de texto para generar respuestas coherentes y relevantes en función de las entradas que recibe. Esto no quiere decir que la información sea real, fiable ni verificable; pues los LLM se basan en predicciones de texto coherentes»[79] [negrillas fuera del texto original].
106. En el informe que presentó dentro del presente trámite de revisión, OpenAI explicó que ChatGPT es un modelo de IA que produce texto conversacional. Los usuarios interactúan con la herramienta a través de una interfaz de chat en línea en la que pueden hacer una petición, instrucción o pregunta y esta, a su turno, escribe una respuesta, con base en lo que ha «aprendido» de las bases de datos con las que se ha entrenado a la herramienta. Así, en esencia, ChatGPT es un medio creativo o, más específicamente, una herramienta de producción de contenido a partir de instrucciones.
107. La herramienta se hizo pública el 30 de noviembre de 2022. Para entonces, ChatGPT se basaba en un modelo de IA llamado GPT-3.5, que actualmente sigue funcionando en forma gratuita, pero con la limitante de que su información está actualizada hasta enero de 2022. Existe un segundo modelo más reciente denominado GPT-4, el cual, inicialmente, solo podía ser utilizado por quienes pagaran su suscripción, pero desde el pasado 13 de mayo se anunció que estaría habilitado de manera gratuita, prometiéndose que sería una herramienta con mejoras en la capacidad de texto, visión y audio y más fácil de usar[80].
108. Sobre la forma en que OpenAI desarrolla sus modelos de IA, explicó que ChatGPT:
[A]naliza un gran número de palabras para poder predecir la palabra más probable para continuar una frase, y cada una de las palabras siguientes. Hay un gran número de combinaciones posibles de palabras que pueden aparecer a continuación en cualquier frase. Para predecir con fiabilidad una palabra que tenga sentido en una situación determinada, un modelo de IA debe comprender cómo encajan las palabras. Esencialmente, un modelo tiene que aprender todos los elementos del lenguaje: vocabulario, gramática, estructura de las frases e incluso razonamiento básico. Este es el objetivo del proceso de entrenamiento de la IA.
El proceso de entrenamiento consiste en dar al modelo una gran cantidad de frases para que las “estudie”. El modelo revisa cada frase palabra por palabra e intenta predecir la siguiente palabra de cada frase. Cuando comienza el proceso de entrenamiento, el modelo no sabe cómo predecir palabras y simplemente emite palabras aleatorias. Con suficientes intentos y frases, el modelo aprende con el tiempo mejores palabras que se ajustan a cada frase […]
Después de enseñar a los modelos a predecir palabras, se le somete a un entrenamiento adicional conocido como ajustes específicos (fine-tuning). El objetivo de este proceso es mejorar la capacidad del modelo para responder a las preguntas de una forma que la gente considere útil, así como evitar que el modelo devuelva una respuesta que pueda utilizarse de forma perjudicial, como discursos de odio o datos personales de un particular[81]
109. La empresa resaltó la importancia de educar al público en torno a las limitaciones actuales de sus modelos para proporcionar respuestas exactas y precisas. Esto debido a que, por la forma en que funciona la herramienta, no siempre la siguiente palabra más probable es la más correcta o cierta desde el punto de vista fáctico. Por ello, advirtió que los usuarios deben revisar, confirmar y, si es el caso, corregir los resultados que arroje la plataforma antes de utilizarlos o comunicarlos como un hecho cierto. OpenAI indicó que informa a sus usuarios al respecto a través de los siguientes mecanismos: (i) sus condiciones de uso, (ii) su política de privacidad, (iii) un aviso antes de que el usuario pueda usar la plataforma por primera vez, (iv) un aviso permanente en la interfaz de usuario, (v) en la página de OpenAI, en el artículo «What is ChatGPT» (¿Qué es ChatGPT?) y (vi) en la entrada de su blog.
110. En sus condiciones de uso, OpenAI señala que:
La inteligencia artificial y el aprendizaje automático son campos de estudio en rápida evolución. Trabajamos constantemente para mejorar nuestros Servicios y hacerlos más exactos, fiables, seguros y beneficiosos. Dada la naturaleza probabilística del aprendizaje automático en algunas situaciones el uso de nuestros Servicios puede generar Output que no refleje con exactitud personas, lugares o hechos. Cuando use nuestros Servicios, usted entiende y acepta que: • El Output puede no ser siempre exacto. No considere que el Output de nuestros Servicios es la única fuente de información veraz o fáctica, ni un sustituto del asesoramiento profesional. • Debe evaluar la exactitud e idoneidad del Output en relación con su caso de uso concreto, incluyendo mediante la realización de una revisión por medios humanos, en su caso, antes de utilizar o compartir el Output de los Servicios. • No debe utilizar el Output relativo a una persona para ningún fin que pueda tener un impacto significativo o consecuencias legales para dicha persona, por ejemplo, para tomar decisiones sobre cuestiones financieras, educativas o laborales, decisiones en materia de vivienda y seguros, sobre cuestiones legales o médicas u otras decisiones importantes relacionadas con dicha persona. • Nuestros Servicios pueden generar Output incompleto, incorrecto u ofensivo que no represente las opiniones de OpenAI. Si el Output hace referencia a productos o servicios de terceros, esto no significa que el tercero respalde o esté afiliado a OpenAI[82] [negrillas fuera del texto original]
111. Por su parte, en su política de privacidad OpenAI informa:
[L]os Servicios como ChatGPT generan resultados leyendo la solicitud de un usuario y, en respuesta, prediciendo las palabras que tienen más probabilidades de aparecer a continuación. En algunos casos, puede que estas palabras no sean las más acertadas desde el punto de vista fáctico. Por esta razón, no deberá dar por hecho que los resultados generados por nuestros modelos son exactos. Si observa que los resultados de ChatGPT contienen información objetivamente inexacta sobre usted y desea que corrijamos dicha inexactitud, puede enviar una solicitud de corrección a privacy.openai.com o dsar@openai.com. Dada la complejidad técnica del funcionamiento de nuestros modelos, puede que nos resulte imposible corregir la inexactitud en todos los casos. Si esto sucede, puede solicitarnos que eliminemos su Información Personal del resultado de ChatGPT[83]
112. En el artículo «What is ChatGPT» (¿Qué es ChatGPT?) se advierte:
¿Por qué la IA parece tan real y realista? Estos modelos se entrenaron con grandes cantidades de datos de Internet escritos por humanos, incluidas conversaciones, por lo que las respuestas que proporcionan pueden parecer humanas. Es importante tener en cuenta que esto es un resultado directo del diseño del sistema (es decir, maximizar la similitud entre los resultados y el conjunto de datos en el que se entrenaron los modelos) y que dichos resultados pueden ser inexactos, mentirosos y, en ocasiones, engañosos[84] [negrillas fuera del texto original]
113. De igual forma, en el blog de OpenAI se explica que:
ChatGPT a veces escribe respuestas que suenan plausibles pero incorrectas o sin sentido. Solucionar este problema es un desafío, ya que: (1) durante la capacitación de RL, actualmente no existe una fuente de verdad: (2) entrenar al modelo para que sea más cauteloso hace que rechace preguntas que pueda responder correctamente; y (3) el entrenamiento supervisado confunde al modelo porque la respuesta ideal depende de lo que sabe el modelo, en lugar de lo que sabe el demostrador humano[85]
114. Finalmente, en las políticas de uso, anexo C[86], se prohíbe a los usuarios basarse en las respuestas de los modelos o utilizarlas: (i) como única fuente de asesoramiento jurídico o financiero, (ii) utilizar los modelos de OpenAI en el contexto médico para el diagnóstico o el tratamiento y (iii) para cualquier toma de decisiones gubernamentales de alto riesgo, incluidas la aplicación de la ley, la justicia penal, la migración o el asilo. De esta forma OpenAI busca informar y advertir a sus usuarios sobre las posibles inexactitudes en los resultados de sus interacciones en ChatGPT.
115. Es importante señalar que el uso de la IA está repercutiendo en todo el mundo, a cada nivel y, aunque aún queda mucho por verse acerca del alcance del impacto de estos sistemas, es claro que ya han marcado un punto de inflexión en la historia de la humanidad. En 2016, en el seno del Foro Económico Mundial, Klaus Schwab, uno de los fundadores del foro, acuñó el concepto de cuarta revolución industrial para referirse a tecnologías emergentes e innovación de base amplia, a través de una estrecha interacción entre lo físico, lo digital y lo biológico. Al respecto, en su libro The Fourth Industrial Revolution, señaló que:
Estamos en el comienzo de una cuarta revolución industrial. Comenzó a principios de este siglo y se basa en la revolución digital. Se caracteriza por un internet mucho más ubicuo y móvil, por sensores más pequeños y potentes que se han vuelto más económicos, y por la inteligencia artificial y el aprendizaje automático. Las tecnologías digitales que tienen como base hardware informático, software y redes no son nuevas, pero, a diferencia de la tercera revolución industrial, están volviéndose más sofisticadas e integradas, transformando así las sociedades y la economía global […] La cuarta revolución industrial, sin embargo, no se trata solo de máquinas y sistemas inteligentes y conectados. Su alcance es mucho más amplio. Simultáneamente, se están produciendo olas de avances adicionales en áreas que van desde la secuenciación de genes hasta la nanotecnología, desde las energías renovables hasta la computación cuántica. Es la fusión de estas tecnologías y su interacción a través de los dominios físico, digital y biológico lo que hace que la cuarta revolución industrial sea fundamentalmente diferente de las revoluciones anteriores[87]
116. En palabras del mencionado experto «[n]unca ha habido un momento de mayor promesa, o mayor peligro». Por ello se ha planteado, en Colombia y en el mundo, que este tema sea regulado y que quienes lo usan tengan auto regulaciones y restricciones, autocontroles y, en todo caso, que exista una construcción colectiva sobre los límites que debe tener la IA. Hace carrera que en materia de IA se requieren construcciones colectivas de ética, estética y juridicidad.
(iv) Impactos del uso de herramientas de IA en la sociedad
117. La IA tiene el potencial de mejorar el bienestar de las personas y, en general, de la sociedad. Su contribución en la evolución de la sociedad se ha visto reflejada en la realización y armonización de actividades relacionadas con la economía, la innovación, la productividad global, entre otras. De esta forma, la implementación de esta herramienta tecnológica se ha dado en diversos sectores, los cuales van desde la producción, las finanzas y el transporte, hasta la atención médica, la seguridad y, por su puesto, el derecho y la administración pública.
118. Por ejemplo, la IA se está utilizando en el campo de la atención al consumidor para automatizar las respuestas a preguntas comunes y para proporcionar asistencia en tiempo real a los clientes[88]. De igual forma, se está trabajando en el área de la salud para ayudar a los médicos a emitir un diagnóstico más preciso[89], y en el área de la seguridad para detectar conductas ilícitas[90].
119. Sin embargo, también hay preocupaciones sobre el impacto negativo que podría tener la IA. Entre los puntos que más destacan se encuentra el desempleo, la inequidad, la falta de seguridad y el posible cuestionamiento sobre la responsabilidad que puede tener una IA sobre algún tipo de afectación que se genere[91].
120. Al respecto, la Resolución 3384 de 1975 de la ONU[92] sobre la utilización del progreso científico y tecnológico en interés de la paz y en beneficio de la humanidad, puso de presente que «el progreso científico y tecnológico se ha convertido en uno de los factores más importantes del desarrollo de la sociedad humana» porque «crea posibilidades cada vez mayores de mejorar las condiciones de vida de los pueblos y las naciones». Pero, al mismo tiempo, «puede en ciertos casos dar lugar a problemas sociales, así como amenazar los derechos humanos y las libertades fundamentales del individuo».
121. La IA no es la primera tecnología que ha revolucionado la estructura global. Por ejemplo, durante la primera mitad del siglo XX la mecanización de los trabajos agrícolas provocó migraciones masivas del campo a las ciudades en toda Europa, transformándose la organización social de los países para volverse mayoritariamente urbanos. Asimismo, la IA, en la actualidad, ha permitido la automatización de una gran variedad de procesos complejos que antes requerían de intervención humana, como: la conducción autónoma, la traducción automática o la robótica asistencial. No obstante, la evolución de la IA es constante y avanza a un ritmo acelerado, tal como ya se ha expuesto con anterioridad.
122. Respecto a la madurez de la IA, existen diferentes niveles de desarrollo. Cada uno de esos niveles de evolución, se caracteriza por los distintos tipos de usos que se le pueden dar a esta herramienta y de sus algoritmos, así como por el nivel de los cambios organizativos y humanos asociados a ellos. Las diferentes olas en el despliegue actual de la IA en nuestras sociedades según la Carta Iberoamericana de IA en la administración pública son[93]: (i) la IA Internet[94], (ii) la IA Negocio[95]; (iii) la IA Percepción[96] y (iv) la IA Autónoma[97].
123. Así, según explica Martín Tironi «el fenómeno de la inteligencia artificial no se puede reducir a una cuestión puramente tecnológica, ya que de forma creciente las aplicaciones de la IA están condicionando el funcionamiento de los sistemas democráticos y las políticas públicas, el mundo de la innovación y la producción cultural, la economía e incluso los espacios íntimos de las relaciones sentimentales»[98].
(v) Estado de la IA en Colombia
124. En Colombia es necesario avanzar en temas de IA, para efectos de determinar su correcto uso, especialmente en el ámbito público, y sus límites. Actualmente, en el país, no existe un marco jurídico vinculante y especializado en materia de IA, aunque sí lo hay en temas de tecnologías de la información, por lo que se debe pensar en estrategias que apliquen auto restricciones, autocontroles y, en todo caso, como ya se dijo, una construcción colectiva razonada sobre el correcto uso de la IA.
125. Actualmente, ante el Congreso de la República se están tramitando múltiples iniciativas legislativas para regular este asunto. Según informó el Senado[99], las iniciativas legislativas que actualmente se encuentran en trámite y pretenden regular la IA en Colombia son los proyectos de ley N.º 130 de 2023[100], 091 de 2023[101] y 059 de 2023[102]. Adicionalmente, se precisó que el proyecto de ley N.º 253 de 2022[103] fue archivado de conformidad con el artículo 190 de la Ley 5.ª de 1992, debido a que no alcanzó a ser discutido y aprobado en primer debate del Senado.
126. De otro lado, la Cámara de Representantes[104] informó que se encuentra en trámite, ante la Comisión Primera Constitucional Permanente, el Proyecto de Ley Estatutaria 200 de 2023 Cámara, «por medio del cual se define y regula la inteligencia artificial, se establecen límites frente a su desarrollo, uso e implementación y se dictan otras disposiciones»[105].
127. Cabe destacar que, en la labor de creación de un marco regulatorio de la IA es fundamental el enfoque que decida dársele a los instrumentos que se emitan, pues de ello dependerá el alcance en el uso de estas tecnologías en el servicio público y estatal y, especialmente, en la Rama Judicial, y por ende la salvaguarda de los derechos fundamentales.
128. En efecto, atendiendo al enfoque de la regulación, existen diferentes modelos de gobernanza de la IA que se han desarrollado a nivel mundial. Estos son (i) la regulación basada en riesgos[106], (ii) la regulación basada en derechos fundamentales[107]; (iii) la regulación basada en principios[108]; (iv) la regulación basada en estándares[109] y (v) la regulación de prescripción o reglas directas, también llamada de «mando y control»[110].
129. Además, en lo que respecta al uso de las tecnologías de la información y las comunicaciones en el sector público de Colombia, desde hace poco más de una década se viene adelantando un proceso de modernización del sistema judicial con el fin de implementar una justicia digital, proceso que avanzó a pasos agigantados a raíz de las herramientas y estrategias que se implementaron en la materia en el marco de la pandemia generada por el Covid-19. En la misma línea, desde 2015, se está desarrollando un proceso de transformación digital del Estado colombiano, a través de la consagración e implementación de una política de gobierno digital aplicable a la administración pública.
130. Sin embargo, hasta que se promulgue una ley que regule la materia, para efectos de determinar el correcto uso de la IA, se deberá acudir a la auto regulación y a las propias restricciones, a los autocontroles y a una construcción colectiva voluntaria, siendo ellas estrategias eficientes, en cuanto pueden promover en mayor medida la innovación y maximizar las utilidades de estas herramientas, sin afectar derechos, sino por el contrario propendiendo por su mayor realización.
131. Dicho lo anterior, es importante anotar que, para efectos de lo expuesto, es necesario abordar tal tarea con un enfoque que permita un uso ético y responsable de la IA, respetuoso de las garantías constitucionales de los ciudadanos, del modelo de Estado Social de Derecho y de la forma democrática de gobierno, todo ello entendido en el contexto del desarrollo actual de la civilización humana.
132. Es importante señalar, además, que las tecnologías emergentes, como los sistemas de IA, se encuentran dentro del concepto de tecnologías de la información y las comunicaciones, por lo que, desde esta perspectiva, es un asunto que sí encontraría algún tipo de regulación en nuestro ordenamiento jurídico. Aquellas son definidas en el artículo 6.º de la Ley 1341 de 2009 como «el conjunto de recursos, herramientas, equipos, programas informáticos, aplicaciones, redes y medios que permiten la compilación, procesamiento, almacenamiento, transmisión de información como voz, datos, texto, video e imágenes».
133. Por otro lado, el Decreto 1078 de 2015[111], en su artículo 2.2.9.1.1.2, expone que «la implementación de la Política de Gobierno Digital en las ramas legislativa y judicial, en los órganos de control, en los autónomos e independientes y demás organismos del Estado, se realizará bajo un esquema de coordinación y colaboración armónica en aplicación de los principios señalados en los artículos 113 y 209 de la Constitución Política».
134. Adicionalmente, el precitado decreto en su artículo 2.2.9.1.1.3 señala que la Política de Gobierno Digital se regirá bajo los principios de armonización, articulación, confianza, competitividad, cooperación, respeto de los derechos humanos, innovación, legalidad tecnológica, participación, proactividad, prospectiva y resiliencia tecnológica.
135. Al respecto, el documento CONPES 3975 de 2019, estableció que la IA es «un campo de la informática dedicado a resolver problemas cognitivos comúnmente asociados con la inteligencia humana o seres inteligentes, entendidos como aquellos que pueden adaptarse a situaciones cambiantes. Su base es el desarrollo de sistemas informáticos, la disponibilidad de datos y los algoritmos». Así, según el punto 5.3.4. de este se debe propender por desarrollar condiciones habilitantes para preparar a Colombia para los cambios económicos y sociales que conlleva la IA e impulsar otras tecnologías de la cuarta revolución industrial.
136. Posteriormente, en noviembre de 2020, se publicó el «Task Force para el Desarrollo e Implementación de la Inteligencia Artificial en Colombia»[112], en el cual se establecen mecanismos para la implementación de tecnologías emergentes en el sector público-privado y se persigue la cooperación entre estos sectores, tanto a nivel nacional como internacional. Asimismo, el Gobierno de Colombia realizó distintas publicaciones, tales como (i) Sandbox sobre privacidad desde el diseño y por defecto en proyectos de IA; (ii) recomendaciones Misión de Expertos; (iii) plan estratégico para la transferencia de conocimiento en IA y (iv) modelo de gobernanza de la infraestructura para el desarrollo de tecnologías emergentes, entre otras[113].
137. En abril del 2021, el Departamento Nacional de Planeación emitió el «[p]lan de Seguimiento a la Implementación en Colombia de Principios y Estándares Internacionales en IA»[114], que consiste en una guía para el cumplimiento de recomendaciones del Consejo de Inteligencia Artificial de la OCDE.
138. En consonancia con lo anterior, fue expedido en octubre de 2021 el «Marco Ético para la Inteligencia Artificial en Colombia» con el objetivo de presentar una guía de soft law de recomendaciones y sugerencias a las entidades públicas para abordar la formulación y gestión de los proyectos que incluyan el uso de IA. Este también recoge las consideraciones éticas para el diseño, el desarrollo y la implementación de este tipo de tecnologías en el país.
139. En cuanto a los principios éticos para la IA en Colombia, se destacan los siguientes[115] (i) transparencia y explicación, (ii) control humano de las decisiones propias de un sistema de IA, (iii) seguridad, (iv) responsabilidad, (v) no discriminación, (vi) inclusión, (vii) prevalencia de los derechos de los niños, niñas y adolescentes y (viii) beneficio social.
140. En adición, en dicho periodo y en el contexto de la pandemia por Covid-19, el Estado colombiano se movilizó hacia un marco para la digitalización de los servicios judiciales, lo que se materializó en el CONPES 4024 de 2021 y en el Decreto 806 de 2020[116], determinaciones que se hicieron permanentes con la Ley 2213 de 2022. En esta normativa se recogieron medidas que respondieron a la imposibilidad temporal de continuar con la atención presencial en las diligencias judiciales, por una parte, y a la necesidad general de encontrar mecanismos más eficientes y expeditos para realizar trámites judiciales.
141. En su momento, los objetivos mediatos del Decreto 806 de 2020 fueron: «(i) implementar “el uso de las tecnologías de la información y las comunicaciones en las actuaciones judiciales”; (ii) agilizar “el trámite de los procesos judiciales”, entre otras, en la jurisdicción constitucional; (iii) flexibilizar “la atención de los usuarios del servicio de justicia” y (iv) contribuir “a la pronta reactivación de las actividades económicas que dependen de este”»[117].
142. Así, los 16 artículos del decreto fueron clasificados en dos ejes temáticos en la Sentencia C-420 de 2020. Por un lado, se previeron las reglas para la implementación de las tecnologías de la información y las comunicaciones y, por otro lado, se introdujeron modificaciones procesales para la implementación de las TIC y para agilizar los trámites procesales.
143. Ahora bien, en cuanto a la regulación del tratamiento de datos en Colombia es importante destacar que las leyes estatutarias 1266 de 2008[118] y 1581 de 2012 fueron redactadas neutralmente, en el sentido que sus disposiciones aplican al tratamiento de datos que se realice mediante cualquier herramienta manual o tecnológica. En este sentido, cualquier sistema de IA debe garantizar el cumplimiento de estas normatividades. Por ello, inicialmente es necesario tener en cuenta la definición de dato personal y sus clasificaciones señaladas en el artículo 3.º de la Ley 1266 de 2008, el cual dispone los siguiente:
Artículo 3°. […]
E. Dato personal. Es cualquier pieza de información vinculada a una o varias personas determinadas o determinables o que puedan asociarse con una persona natural o jurídica […] Los datos personales pueden ser públicos, semiprivados o privados […]
F. Dato público. Es el dato calificado como tal según los mandatos de la ley o de la Constitución Política y todos aquellos que no sean semiprivados o privados, de conformidad con la presente ley. Son públicos, entre otros, los datos contenidos en documentos públicos, sentencias judiciales debidamente ejecutoriadas que no estén sometidos a reserva y los relativos al estado civil de las personas.
G. Dato semiprivado. Es semiprivado el dato que no tiene naturaleza íntima, reservada, ni pública y cuyo conocimiento o divulgación puede interesar no sólo a su titular sino a cierto sector o grupo de personas o a la sociedad en general, como el dato financiero y crediticio de actividad comercial o de servicios a que se refiere el Título IV de la presente ley.
H. Dato privado. Es el dato que por su naturaleza íntima o reservada sólo es relevante para el titular
144. Asimismo, según el artículo 5.º de la Ley 1581 de 2012, existe una categoría especial de datos personales, denominados datos sensibles, el cual, según la norma, corresponden a:
[A]quellos que afectan la intimidad del Titular o cuyo uso indebido puede generar su discriminación, tales como aquellos que revelen el origen racial o étnico, la orientación política, las convicciones religiosas o filosóficas, la pertenencia a sindicatos, organizaciones sociales, de derechos humanos o que promueva intereses de cualquier partido político o que garanticen los derechos y garantías de partidos políticos de oposición así como los datos relativos a la salud, a la vida sexual y los datos biométricos[119]
145. Así, aunque no exista regulación especial de la IA en el tema, es necesario precisar que todo uso o desarrollo en IA que requiera protección de datos debe cumplir con esta normativa y, en especial, aplicar los principios descritos en el artículo 4.º de la Ley Estatutaria 1581 de 2012 y el artículo 4.º de la Ley Estatutaria 1266 de 2008, los cuales se exponen a continuación respectivamente:
Artículo 4.°. Principios para el Tratamiento de datos personales. En el desarrollo, interpretación y aplicación de la presente ley, se aplicarán, de manera armónica e integral, los siguientes principios: (...) d) Principio de veracidad o calidad: La información sujeta a Tratamiento debe ser veraz, completa, exacta, actualizada, comprobable y comprensible. Se prohíbe el tratamiento de datos parciales, incompletos, fraccionados o que induzcan a error […]
Artículo 4.°. Principios de la administración de datos. En el desarrollo, interpretación y aplicación de la presente ley, se tendrán en cuenta, de manera armónica e integral, los principios que a continuación se establecen: a) principio de veracidad o calidad de los registros o datos. La información contenida en los bancos de datos debe ser veraz, completa, exacta, actualizada, comprobable y comprensible. Se prohíbe el registro y divulgación de datos parciales, incompletos, fraccionados o que induzcan a error
146. En conclusión, pese a la inexistencia de un marco regulatorio sobre la IA en el Estado colombiano, la Constitución Política de 1991, la ley sobre tecnologías de la información, las leyes sobre manejo de datos e instrumentos del ejecutivo contienen todo un sistema de garantías que, en palabras actualizadas de Ferrajoli[120], constituiría un sistema de garantías tecnológico.
147. Es importante destacar además que la Corte Suprema de Justicia, en Sentencia SC370-2023 del 10 de octubre de 2023[121], señaló expresamente que el goce de los adelantos tecnológicos y el progreso de las ciencias es un derecho humano reconocido en múltiples instrumentos internacionales, como la Declaración Universal de Derechos Humanos de 1948 (artículo 27[122]); la Carta de Organización de los Estados Americanos (OEA) (artículo 38[123]); Pacto Internacional de Derechos Económicos, Sociales y Culturales de 1996 (artículo 15, numeral 1.º, literal b[124]).
148. Por último, cabe señalar que, si el sistema judicial colombiano tuviera su propio sistema de IA generativa especializado en jurisprudencia y normativa colombiana e internacional, este podría tener implicaciones positivas para la eficiencia de la labor de los jueces y ayudaría, especialmente, en la materialización del derecho de acceso a la administración de justicia. Ello, en el sentido en que las personas y operadores podrían acceder a la información de forma fácil, ágil y especializada. Por ejemplo, se podría tener acceso a líneas jurisprudenciales actualizadas, compararse casos similares, solicitarse un resumen fácil y comprensible de la normativa que interesa al caso concreto y hacerse análisis de problemas jurídicos y afectaciones a derechos. Todo ello dentro del ámbito propio de estas herramientas, como mecanismos que apoyan y que nunca pueden sustituir la labor humana en el servicio de justicia. Adicionalmente, la transparencia, la protección de datos, el conocimiento de los sesgos por conocer el origen de los datos con los cuales sea entrenada la IA, entre otros conceptos, no se verían afectados o, por lo menos, se reducirían en una gran parte los riesgos, puesto que se trataría de una IA controlada y en funcionamiento por y para la Rama Judicial.
(vi) El marco regulatorio de la IA en el mundo. Algunos instrumentos de soft law e iniciativas normativas
149. Actualmente, en el escenario internacional proliferan instrumentos de derecho blando (soft law[125]) que, como tales, no resultan jurídicamente vinculantes o cuya fuerza imperativa es diferente a la del derecho tradicional, pero que, sin embargo, resultan relevantes consultar a la hora de fijar pautas o expedir una regulación aplicable al uso de IA. A través de estos lineamientos se pretende establecer una suerte de hojas de ruta que, mediante principios y directrices generales, buscan garantizar que los sistemas de IA se desarrollen y controlen bajo un enfoque ético.
150. El creciente número de recomendaciones en la materia contrasta con la escasez de normativas claras, expresas, jurídicamente vinculantes y traducidas en reglas concretas que definan un marco regulatorio completo y eficaz para la debida operación de la IA. Lo que sí abunda a nivel mundial son las múltiples iniciativas legislativas y regulatorias para establecer las condiciones y términos de uso de este tipo de tecnologías. A continuación, la Sala hará una presentación, no exhaustiva, de los principales instrumentos internacionales de soft law existentes en la materia, así como algunas referencias a iniciativas legislativas y regulatorias y experiencias concretas de algunos países.
Instrumentos internacionales de soft law o derecho blando
151. Recomendaciones del Consejo de la OCDE sobre la Inteligencia Artificial[126]. El documento fue emitido el 21 de mayo de 2019 y el Estado colombiano adhirió a él en la misma fecha. En la primera sección, el documento establece que los Estados adherentes deben promover e implementar los siguientes:
Principios |
Descripción |
Crecimiento integrador, desarrollo sostenible y bienestar |
La administración y uso de la inteligencia artificial debe buscar resultados beneficiosos para las personas y el planeta, como el aumento de las capacidades humanas y la mejora de la creatividad, el fomento de la inclusión de las poblaciones infrarrepresentadas, la reducción de las desigualdades económicas, sociales, de género y de otro tipo, así como la protección de los entornos naturales, propendiendo por un crecimiento inclusivo, el desarrollo sostenible y el bienestar. |
Valores centrados en el ser humano y equidad |
Impone a los actores involucrados el deber de respetar el estado de derecho, los derechos humanos y los valores democráticos en todas las fases que componen el ciclo de vida de un sistema de IA, esto es, (i) diseño, (ii) verificación y validación, (iii) despliegue y (iv) operación y monitoreo. |
Transparencia y explicabilidad |
Los actores de la IA deben proporcionar información significativa, adecuada al contexto y coherente con el estado de la técnica con el propósito de (i) fomentar una comprensión general de los sistemas de IA, (ii) que las partes interesadas sean conscientes de sus interacciones con los sistemas de IA, incluso en el lugar de trabajo, (iii) permitir que los afectados por un sistema de IA comprendan el resultado y (iv) permitir a los perjudicados por un sistema de IA impugnar su resultado basándose en información sencilla y fácil de entender sobre los factores y la lógica que sirvieron de base para la predicción, recomendación o decisión. |
Robustez, seguridad y protección |
Busca que los sistemas de IA sean robustos, seguros y protegidos a lo largo de todo su ciclo de vida, de modo que funcionen adecuadamente y no planteen riesgos de seguridad irrazonables. Para ello, los agentes de la IA deben garantizar la trazabilidad de datos, de procesos y decisiones tomadas durante el ciclo de vida del sistema de IA, para permitir el análisis de sus resultados y respuestas del sistema de IA a las preguntas. |
Rendición de cuentas |
Los agentes de la IA deben ser responsables del correcto funcionamiento de los sistemas de IA y del respeto de los principios anteriores, teniendo en consideración sus roles o funciones, el contexto y el estado del arte. |
152. En armonía con los anteriores principios, las recomendaciones de la OCDE invitan a los Estados adherentes a (i) realizar inversión pública a largo plazo y fomentar la inversión privada en investigación y desarrollo, para estimular la innovación confiable en los desafíos técnicos que se presenten en temas de IA, así como en cuestiones de políticas sociales, legales y éticas relacionadas con la materia; (ii) fomentar el desarrollo y acceso a un ecosistema digital para una IA fiable que, en particular, incluya tecnologías e infraestructuras digitales, así como mecanismos para compartir conocimiento sobre IA; (iii) crear un entorno político propicio para la IA, que favorezca una transición ágil de la fase de investigación y desarrollo a la de despliegue y explotación de sistemas de IA fiables; (iv) crear capacidad humana enseñándole a las personas a utilizar e interactuar eficazmente con los sistemas de IA, además de prepararlas para la transformación del mercado laboral, garantizando una transición justa para los trabajadores mediante programas de formación a lo largo de la vida laboral, apoyo a los afectados por el cambio y acceso a nuevas oportunidades en el mercado laboral; y (v) fomentar la cooperación internacional para que, a través de un trabajo integrado con la OCDE y otros países en foros globales y regionales, se promueva el intercambio de conocimiento sobre IA.
153. Recomendación sobre la ética de la inteligencia artificial, emitida por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO). El instrumento, aprobado en noviembre de 2021 por los 193 Estados miembros de dicha organización, constituye el primer marco ético sobre IA[127] y es uno de los más consultados y difundidos en materia de IA a nivel mundial. Invita a los Estados miembros a seguir los siguientes valores:
Valor |
Descripción |
Respeto, protección y promoción de los derechos, las libertades fundamentales y la dignidad humana |
El respeto a la dignidad humana debe estar presente a lo largo del ciclo de vida de los sistemas de IA. Ninguna persona ni comunidad debería sufrir daños o sometimiento durante ninguna etapa del ciclo de vida de los sistemas de IA. Por el contrario, la IA tiene que mejorar la calidad de vida de sus usuarios.
Además, todas las personas deberían poder interactuar con un sistema de IA, por ejemplo, para el cuidado de personas en situación de vulnerabilidad. En el marco de estas interacciones, las personas nunca deberían ser cosificadas, su dignidad no debería ser menoscabada de ninguna otra manera y sus derechos humanos y libertades fundamentales nunca deberían ser objeto de violación o abusos.
Los gobiernos, el sector privado, la sociedad civil, las organizaciones internacionales, las comunidades técnicas y las universidades deben respetar los instrumentos y marcos de derechos humanos en sus intervenciones en los procesos que rodean el ciclo de vida de los sistemas de IA. |
Prosperidad del medio ambiente y los ecosistemas |
El medio ambiente y los ecosistemas son una necesidad existencial para que la humanidad y los demás seres vivos puedan disfrutar de los beneficios derivados de los avances de la IA.
Todos los actores que participan en el ciclo de vida de los sistemas de IA deben respetar el derecho internacional y las leyes, normas y prácticas nacionales aplicables, como la precaución, concebidas para la protección y la restauración del medio ambiente y los ecosistemas y para el desarrollo sostenible |
Garantizar la diversidad y la inclusión |
El respeto, la protección y la promoción de la diversidad y la inclusión deberían garantizarse a lo largo del ciclo de vida de los sistemas de IA, de conformidad con el derecho internacional, en particular el derecho de los derechos humanos. Para ello, puede promoverse la participación activa de todas las personas o grupos, con independencia de su raza, color, ascendencia, género, edad, idioma, religión, opiniones políticas, origen nacional, étnico o social, condición económica o social de nacimiento, discapacidad o cualquier otro motivo.
La diversidad de elecciones de estilo de vida, creencias, opiniones, expresiones o experiencias personales, incluida la utilización opcional de sistemas de IA y la concepción conjunta de estas arquitecturas, no debería restringirse durante ninguna etapa del ciclo de vida de dichos sistemas.
Finalmente, debe paliarse la falta de infraestructura, educación y competencias tecnológicas que afectan a algunas comunidades |
Vivir en sociedades pacíficas, justas e interconectadas |
Los actores de la IA deberían propiciar sociedades pacíficas y justas, sobre la base de un futuro interconectado en beneficio de todos. |
154. Adicionalmente, estas recomendaciones de la UNESCO incluyen los principios de proporcionalidad e inocuidad, seguridad y protección, equidad y no discriminación, sostenibilidad, intimidad y protección de datos personales, transparencia y explicabilidad, supervisión y decisión humanas, sensibilización y educación, responsabilidad y rendición de cuentas, gobernanza y colaboración adaptativas y de múltiples partes interesadas.
155. En esencia, estos principios propenden por lo siguiente: (i) que se apliquen procedimientos de evaluación de riesgos y la adopción de medidas para impedir que se produzcan afectaciones a los derechos de las personas o el medio ambiente o, de generarse daños, para resarcirlos; (ii) que los beneficios de la IA estén al alcance de todos, sin distinción de ninguna clase, y que se cierre la brecha digital y de conocimientos dentro de los países y entre ellos a lo largo del ciclo de vida de los sistemas de IA, en particular, en lo que respecta al acceso y la calidad del acceso a la tecnología y los datos; (iii) que se evalúen los efectos humanos, sociales, culturales, económicos y ambientales de las tecnologías de la IA, con pleno conocimiento de las repercusiones de dichas tecnologías en la sostenibilidad, entendida como un conjunto de metas en constante evolución en toda una serie de dimensiones; (iv) que se protejan los datos personales de los usuarios de la IA. Por tanto, se debe evaluar el impacto de los sistemas de IA en la privacidad, que incluyan consideraciones sociales y éticas de su utilización y un empleo innovador del enfoque de privacidad desde la etapa de su concepción; (v) que se asegure la posibilidad de impugnar las decisiones automatizadas que tome un sistema de IA y que siempre sea posible atribuir la responsabilidad ética y jurídica, en cualquier etapa del ciclo de vida de los sistemas de IA, a un humano y (vi) que sea posible llevar a cabo auditorías y otros procesos de supervisión de los sistemas de IA.
156. Principios Rectores para las Organizaciones que Desarrollan Sistemas Avanzados de IA, emitidos por el G7. El documento fue presentado, junto con un Código de Conducta, en la 49.ª cumbre del G7, que se celebró en mayo de 2023 en Hiroshima, Japón. El denominado G7 Hiroshima Process advirtió que la lista de principios se basaba en aquellos que adoptó la OCDE y respondía a los más recientes avances en este tipo de sistemas. En el siguiente cuadro se sintetizan los aspectos más relevantes:
Principio |
Descripción del principio |
Conductas asociadas |
Tomar medidas apropiadas durante el desarrollo de sistemas avanzados de inteligencia artificial, tanto antes como durante su implementación y lanzamiento al mercado, para identificar, evaluar y mitigar riesgos a lo largo del ciclo de vida de la IA. |
Esto implica emplear diversas medidas de prueba internas (por ejemplo red teaming)[128] e independientes y medidas de mitigación de riesgos identificados que garanticen la confiabilidad, seguridad y protección de los sistemas en todo su ciclo de vida. |
Al diseñar e implementar medidas de prueba, las organizaciones se comprometen a prestar atención a los siguientes riesgos: (i) químicos, biológicos, radiológicos y nucleares; (ii) capacidades cibernéticas ofensivas; (iii) riesgos para la salud y/o la seguridad; (iv) riesgos de modelos que se copian a sí mismos (autorreplicación) o entrenamiento de otros modelos; (v) riesgos sociales, así como riesgos para individuos y comunidades (sesgos, privacidad y protección de datos); (vi) amenazas a los valores democráticos y los derechos humanos; (vii) riesgo de que un evento particular pueda desencadenar una reacción en cadena con efectos negativos considerable que podrían afectar a toda una ciudad, a toda una actividad de un dominio o a toda una comunidad. |
Identificar y mitigar vulnerabilidades, así como incidentes y patrones de uso indebido que ocurran después de la implementación, incluida la colocación en el mercado. |
Se alienta a las organizaciones a considerar, por ejemplo, facilitar la detección y notificación de problemas y vulnerabilidades por parte de terceros y usuarios después de la implementación. Además, se recomienda que las organizaciones mantengan una documentación adecuada de los incidentes reportados y mitiguen los riesgos y vulnerabilidades identificados en colaboración con otras partes interesadas. Los mecanismos para informar vulnerabilidades, cuando corresponda, deben ser accesibles para un conjunto diverso de partes interesadas. |
|
Reportar públicamente las capacidades, limitaciones y dominios apropiados e inapropiados de los sistemas avanzados de IA para garantizar la suficiente transparencia y aumentar la rendición de cuentas. |
Las organizaciones deben hacer que la información de transparencia sea lo suficientemente clara, comprensible, apropiada y relevante, para permitirle a los implementadores y usuarios interpretar la salida del modelo/sistema y utilizarlo de manera apropiada.
La elaboración de reportes de transparencia debe estar respaldada en procesos de documentación sólidos. |
Estos reportes deben mantenerse actualizados y contener por ejemplo: (i) detalles de las evaluaciones realizadas para los posibles riesgos; (ii) las capacidades del modelo/ sistema, así como sus limitaciones significativas en el rendimiento; (iii) la discusión y evaluación de los efectos y riesgos del modelo/sistema para la seguridad y la sociedad, como sesgos perjudiciales, discriminación, amenazas a la protección de la privacidad o datos personales y efectos sobre la equidad; y (iv) los resultados del red-teaming sobre la aptitud del modelo/sistema para continuar con etapas posteriores al desarrollo. |
Trabajar hacia el intercambio responsable de información y la notificación de incidentes entre las organizaciones que desarrollan sistemas de IA avanzada, incluidas la industria, los gobiernos, la sociedad civil y la academia. |
Esto implica compartir información de forma responsable, como informes de evaluación, riesgos de seguridad, capacidades peligrosas, e intentos de eludir salvaguardas en el ciclo de vida de la IA. |
Las organizaciones deben participar en la creación y adopción de estándares compartidos, herramientas y mejores prácticas para garantizar la seguridad y confiabilidad de los sistemas de IA avanzada. Esto implica documentar y transparentar adecuadamente todo el ciclo de vida de la IA, especialmente para sistemas que representan riesgos importantes. Además, deben colaborar con otras organizaciones para compartir información relevante al público y autoridades, protegiendo al mismo tiempo los derechos de propiedad intelectual, a la intimidad y la seguridad del Estado. |
Desarrollar, implementar y divulgar políticas de gobernanza y gestión de riesgos de IA, fundamentadas en un enfoque basado en riesgos, que incluyan políticas de privacidad y medidas de mitigación. |
Esto incluye divulgar políticas de privacidad, incluyendo datos personales y resultados de sistemas de IA avanzados, según corresponda. Las organizaciones deben establecer y divulgar sus políticas de gobernanza de IA y mecanismos para implementarlas bajo un enfoque basado en riesgos. |
Se espera que las organizaciones establezcan y divulguen políticas de gobernanza de IA, así como mecanismos organizativos para implementar estas políticas, adoptando un enfoque basado en riesgos.
Estas políticas deben actualizarse regularmente. Además, las organizaciones deben establecer políticas, procedimientos y capacitación para garantizar que el personal esté familiarizado con sus deberes y las prácticas de gestión de riesgos de la organización. |
Invertir e implementar controles de seguridad sólidos, que incluyan seguridad física, ciberseguridad y salvaguardas contra amenazas internas a lo largo del ciclo de vida de la IA. |
Con tal fin se pueden asegurar los modelos, algoritmos, servidores y conjuntos de datos, por ejemplo, mediante medidas de seguridad operativas de la información y controles de acceso cibernéticos o físicos apropiados. |
Las organizaciones deben almacenar los pesos de modelos de IA en entornos seguros con acceso limitado, implementando un proceso de gestión de vulnerabilidades y revisando regularmente las medidas de seguridad. Además, se debe establecer un programa de detección de amenazas internas para proteger la propiedad intelectual y los secretos comerciales más valiosos. |
Desarrollar e implementar mecanismos confiables de autenticación de contenido y procedencia, cuando sea técnicamente factible, como marcas de agua u otras técnicas que permitan a los usuarios identificar contenido generado por IA. |
Las organizaciones también deben esforzarse por desarrollar herramientas o APIs que permitan a los usuarios determinar si un contenido particular fue creado con su sistema avanzado de IA.
También se anima a las organizaciones a implementar otros mecanismos, como etiquetas o avisos, para permitir a los usuarios, cuando sea posible y apropiado, saber cuándo están interactuando con un sistema de IA. |
|
Priorizar la investigación con el fin de mitigar los riesgos sociales, de seguridad y de la sociedad, así como priorizar la inversión en medidas efectivas de mitigación. |
Esto incluye llevar a cabo, colaborar e invertir en investigación que respalde el avance de la seguridad, la confianza y la seguridad de la IA y abordar los riesgos clave, así como invertir en el desarrollo de herramientas de mitigación adecuadas. |
Las organizaciones se comprometen en que el propósito de ello será mantener los valores democráticos, respetar los derechos humanos, proteger a los niños y grupos vulnerables, salvaguardar los derechos de propiedad intelectual y la privacidad y evitar sesgos perjudiciales, desinformación y manipulación de información, así como evaluar los impactos ambientales y climáticos. |
Priorizar el desarrollo de sistemas avanzados de IA para abordar los mayores desafíos del mundo, especialmente, pero no limitado a ello, en materia de crisis climática, salud global y educación. |
Estos esfuerzos se llevan a cabo en apoyo de los Objetivos de Desarrollo Sostenible de las Naciones Unidas, y en aras de fomentar el desarrollo de IA para beneficio global. Las organizaciones deben priorizar el manejo responsable de una IA confiable y centrada en el ser humano y también apoyar iniciativas de alfabetización. |
Las organizaciones deben colaborar con la sociedad civil y grupos comunitarios para identificar desafíos prioritarios y desarrollar soluciones innovadoras para abordar los mayores desafíos del mundo. |
Avanzar en el desarrollo y, cuando sea apropiado, la adopción de estándares técnicos internacionales. |
Esto incluye adoptar los estándares para marcas de agua y trabajar con organizaciones de desarrollo de estándares. |
Se anima a las organizaciones a trabajar en el desarrollo de estándares técnicos internacionales y marcos interoperables para ayudar a los usuarios a distinguir el contenido generado por IA del contenido no generado por IA. |
Implementar medidas adecuadas de entrada de datos y protecciones para datos personales y propiedad intelectual. |
Se alienta a las organizaciones a tomar medidas adecuadas para gestionar la calidad de los datos, incluidos los datos de entrenamiento y la recolección de datos (privacidad y propiedad intelectual), para mitigar sesgos perjudiciales. |
157. The Presidio Recommendations on Responsible Generative AI[129], publicado por el Foro Económico Mundial[130]. En junio de 2023, el foro planteó, de manera muy concreta, treinta sugerencias dirigidas a fomentar procesos responsables e integradores para el desarrollo y despliegue de la IA, para aumentar así la confianza y la transparencia en el uso de este tipo de tecnologías. De esta forma, en materia de IA, el organismo recomienda: (i) establecer una terminología precisa y compartida; (ii) sensibilizar a la opinión pública sobre las capacidades de la IA y sus limitaciones; (iii) centrarse en los valores y preferencias humanas; (iv) fomentar la alineación y participación; (v) mantener la responsabilidad de la IA con una evaluación rigurosa y utilizar pruebas específicas para cada caso, al tiempo que se exploran nuevas métricas y normas; (vi) emplear equipos rojos[131] con diversidad en los miembros que los integren; (vii) adoptar estrategias transparentes de publicación responsable de modelos de IA; (viii) permitir comentarios de los usuarios; (ix) integrar la trazabilidad de modelos y sistemas; (x) garantizar la trazabilidad de los contenidos; (xi) divulgar la interacción no humana; (xii) generar confianza humana en la IA; (xiii) implantar un proceso de revisión paso a paso; (xiv) desarrollar marcos de medición exhaustivos y multinivel; (xv) adoptar procesos sandbox; (xvi) adaptarse a la evolución del panorama de la creatividad y la propiedad intelectual.
158. En asuntos de innovación y colaboración internacional, sugiere (xvii) incentivar la coordinación de la investigación público-privada; (xviii) crear un registro común de modelos, herramientas, puntos de referencia y mejores prácticas; (xix) apoyar la innovación abierta responsable y el intercambio de conocimientos; (xx) aumentar la colaboración internacional sobre normas de IA; (xxi) establecer una iniciativa mundial de gobernanza de la IA.
159. Seguidamente, en materia de progreso social, el organismo internacional recomienda (xxii) dar prioridad al progreso social en el desarrollo y la adopción de la IA generativa; (xxiii) fomentar la alfabetización de la sociedad en IA; (xxiv) fomentar enfoques de pensamiento holísticos en entornos impulsados por la IA; (xxv) dirigir el impacto transformador de la IA generativa; (xxvi) incentivar la innovación para el bien social; (xxvii) abordar las disparidades de recursos e infraestructuras; (xxviii) promover la experiencia en IA generativa dentro de los gobiernos; (xxix) aumentar el acceso equitativo a la IA en los países en desarrollo y (xxx) preservar el patrimonio cultural.
160. Informe provisional de asesoramiento sobre IA[132] de la ONU (Governing AI for Humanity) [133]. Fue emitido en diciembre de 2023 por el órgano consultivo de la ONU en materia de IA. El documento contiene los siguientes cinco principios rectores: (i) la IA debe gobernarse de forma inclusiva, por y para el beneficio de todos; (ii) la IA debe gobernarse en pro del interés público; (iii) la gobernanza de la IA debe construirse al compás de la gobernanza de los datos y la promoción de datos comunes; (iv) la gobernanza de la IA debe ser universal, estar conectada en red y arraigada en la colaboración adaptativa de múltiples partes interesadas y (v) la gobernanza de la IA debe estar anclada en la Carta de las Naciones Unidas, la legislación internacional sobre derechos humanos y otros compromisos internacionales acordados, como los Objetivos de Desarrollo Sostenible (ODS).
161. En dicho documento, la ONU enfatiza en que un régimen adecuado de gobernanza internacional de la IA para la humanidad debe centrarse en el cumplimiento de siete funciones a cargo de tres niveles distintos de gobernanza: organizaciones internacionales, gobiernos y sector privado. A cada uno de ellos les corresponden diferentes grados de responsabilidad según el tipo de función. Por su parte, la sociedad civil, incluidos el mundo académico y los científicos independientes, desempeñan un papel primordial a la hora de fundamentar las políticas, evaluar su impacto y exigir responsabilidades a los actores clave durante su aplicación. La siguiente gráfica piramidal[134] presenta en su cúspide las funciones que, según la organización, requieren mayor «dureza institucional», referida al mayor rigor, presencia e intervención de esas instituciones, con una disminución gradual a medida que se desciende hacia la base.
162. Resolución adoptada por la ONU el 21 de marzo de 2024[135]. En el marco de su gestión de gobernanza en materia de IA, la Asamblea General de la ONU adoptó una resolución para regular el uso de la IA. La resolución «pide a los Estados que se abstengan de utilizar sistemas de inteligencia artificial que no puedan funcionar de conformidad con las normas internacionales de derechos humanos o los pongan en riesgo»[136]. Los objetivos principales de la misma consisten en fomentar la protección de datos personales, mejorar las políticas de privacidad, garantizar un seguimiento estrecho de la IA para detectar riesgos potenciales y defender los derechos humanos. El documento, que recibió el respaldo de más de 120 países, incluidos Estados Unidos, China y Rusia, es uno de los instrumentos normativos más relevantes en la materia, actualmente.
163. Carta ética europea sobre el uso de la inteligencia artificial en sistemas judiciales y su entorno[137], emitida por la Comisión Europea para la Eficacia de la Justicia (CEPEJ) del Consejo de Europa. Los instrumentos de derecho blando a los que se ha hecho mención contienen lineamientos generales, no asociados a la utilización de los sistemas de IA en un ámbito particular. La referida carta ética, adoptada por la CEPEJ en diciembre de 2018, es el primer texto europeo que establece principios éticos en lo que respecta al uso de la IA en escenarios judiciales. Con motivo del desarrollo acelerado de la IA en este ámbito, el documento fija cinco principios que buscan guiar a hacedores de políticas públicas, legisladores y profesionales de la justicia, entendiendo que la IA puede mejorar la eficiencia y calidad judicial, pero debe implementarse de manera responsable.
Principio |
Descripción |
Principio del respeto de los derechos fundamentales
|
Se debe asegurar que el diseño y la implementación de herramientas y servicios de inteligencia artificial sean compatibles con los derechos fundamentales. |
Principio de no discriminación |
Se debe evitar el desarrollo o intensificación de cualquier discriminación entre individuos o grupos de individuos. |
Principio de calidad y seguridad |
En el procesamiento de decisiones judiciales y datos se deben usar fuentes certificadas y datos intangibles con modelos concebidos de manera multidisciplinaria, en un entorno tecnológico seguro. |
Principio de transparencia, imparcialidad y equidad |
Procura que los métodos de procesamiento de datos sean accesibles y comprensibles, autorizando auditorías externas. |
Principio «bajo control del usuario»
|
Busca excluir un enfoque impositivo o prescriptivo y asegurar que los usuarios sean actores informados y estén en control de sus decisiones. |
164. Además, el documento categoriza los usos de la IA en los sistemas jurídicos europeos así:
Usos que deben ser fomentados |
- Motores de búsqueda de jurisprudencia basados en técnicas de aprendizaje automático. - Acceso a la ley a través de sistemas de IA, como chatbots que faciliten el acceso a fuentes de información y la generación en línea de plantillas de documentos legales. - Creación de nuevas herramientas estratégicas que utilizan los datos para hacer evaluaciones cualitativas y cuantitativas y generar indicadores de desempeño. |
Usos posibles que requieren precauciones metodológicas considerables |
- Asistencia en la creación de escalas de indemnización en disputas civiles. - Recomendaciones para conciliar en asuntos civiles. - Solución de diferencias en línea. - Algoritmos en investigación criminal para identificar dónde se cometen los delitos. |
Usos para considerar después de estudios científicos adicionales |
- Perfilamiento de jueces. - Anticipación de decisiones judiciales. |
Usos para considerar con las más extremas reservas |
- Uso de algoritmos en asuntos penales para perfilar individuos. - Enfoque de decisiones basadas en la cantidad de asuntos similares resueltos precedentemente. |
165. Kit de herramientas global sobre IA y el estado de derecho para el poder judicial[138], de la UNESCO. El documento, publicado en 2023, tiene como propósito proporcionar a los actores judiciales (jueces, fiscales, abogados, universidades de derecho e instituciones de formación judicial) el conocimiento y las herramientas necesarias para comprender los beneficios y riesgos de la IA en su trabajo. De esta forma, suministra elementos de gran valor a través de los cuales orienta sobre las leyes, principios, normas y jurisprudencia internacional de derechos humanos relevantes en el uso ético de la IA, a efectos de mitigar sus posibles riesgos para los derechos humanos.
166. Proyecto «fAIr LAC+», impulsado por el Banco Interamericano de Desarrollo (BID). Es uno de los proyectos más relevantes en materia de gobernanza de IA a nivel internacional. La organización define esta iniciativa como una red diversa de profesionales y expertos que, desde la academia, el gobierno, la sociedad civil, la industria y el sector emprendedor, busca promover una aplicación ética de la IA en América Latina y el Caribe[139]. A través de dicho proyecto, se elaboraron cinco herramientas para la aplicación de los principios éticos en el diseño, el desarrollo y las auditorías necesarias de las soluciones basadas en IA: (i) una herramienta de autoevaluación ética para el sector público[140]; (ii) una herramienta de autoevaluación ética para el sector emprendedor; (iii) un manual de formulación de proyectos para el uso responsable de la IA en políticas públicas; (iv) un manual de ciencias de datos para el uso responsable de la IA en políticas públicas y (v) una guía de auditoría de algoritmos para sistemas de toma o soporte de decisiones.
167. Informe n.º 26 (2023) del Consejo Consultivo de Jueces Europeos. En este informe se abordan: (i) los usos específicos de la tecnología, (ii) sus retos y peligros y (iii) los principios que deben orientar la aplicación de la tecnología. Se precisa en el informe que, si bien los Estados tienen la obligación de garantizar el acceso efectivo y práctico a la justicia, existen diversos retos. De allí que la tecnología sea un medio para afrontar estas dificultades.
168. También se destaca cómo la implementación de las tecnologías y, más específicamente los datos, permite proporcionar información más accesible al público, facilitar la selección eficaz de los casos, identificar procedimientos potencialmente adecuados para los procedimientos sumarios o incompletos, predecir el resultado potencial de los procedimientos de conciliación, entre otros y, a su vez, cómo se pueden generar nuevos retos y peligros en el acceso a la justicia por el uso de estas, como pueden ser: la falta de independencia judicial, el riesgo de que no se dé un procedimiento equitativo, el peligro de que se vulneren las cargas que existen alrededor de la protección de datos, la seguridad y la accesibilidad, entre otros.
169. Guía de Diseño de Políticas Públicas de la IA del Banco de América Latina y el Caribe (CAF). Con base en la experiencia proporcionada por el acompañamiento técnico brindada por el CAF a los gobiernos nacionales, subnacionales y locales de la región, esta guía recolecta y destaca experiencias, buenas prácticas y lecciones aprendidas sobre el diseño participativo y la implementación de políticas públicas y estrategias de IA en América Latina y el Caribe. Así, su objetivo se centra en ofrecer una orientación a los gobiernos de la región en (i) la formulación de políticas públicas sobre estas temáticas y (ii) el desarrollo y progreso de los elementos necesarios para su implementación, en especial, en la institucionalidad, la regulación, la ética, el talento y los datos.
Iniciativas de normativas nacionales en otros países
170. Igualmente es necesario tener en cuenta las iniciativas de normativas nacionales aplicadas en diversos países.
171. La Sala de Revisión se referirá, principalmente, a los procesos regulatorios de la Unión Europea y Estados Unidos en materia de IA, debido a la marcada influencia que pueden tener aquellos en las iniciativas de regulación que se están adelantando en otros países, especialmente, en los del denominado sur global[141].
172. Unión Europea. En abril de 2021[142], la Comisión Europea presentó una propuesta de marco para regular la IA y evaluar su impacto[143]. La iniciativa fue aprobada por el Parlamento Europeo el 14 de junio de 2023, luego de lo cual debió surtir el proceso correspondiente ante el Consejo de la Unión Europea. Esta autoridad, tras estudiarla y proponer una serie de enmiendas, la sometió a debate y votación de sus miembros, aprobándola el 13 de marzo de 2024[144].
173. Consecuencia de lo anterior fue la expedición el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo de 13 de junio de 2024[145], que tiene como objetivo:
[M]ejorar el funcionamiento del mercado interior y promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta, incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, frente a los efectos perjudiciales de los sistemas de IA (en lo sucesivo, «sistemas de IA») en la Unión así como prestar apoyo a la innovación.[146]
174. A continuación, se resaltan sus aspectos más relevantes:
175. El Reglamento de Inteligencia Artificial, como se le ha llamado, prohíbe[147] los sistemas de IA a través de los cuales se realicen las siguientes prácticas (i) despliegue de técnicas subliminales, manipuladoras o engañosas para distorsionar el comportamiento y perjudicar la toma de decisiones con conocimiento de causa, generando un daño significativo; (ii) explotación de vulnerabilidades relacionadas con la edad, la discapacidad o las circunstancias socioeconómicas para distorsionar el comportamiento, causando daños significativos; (iii) categorización biométrica que infiera atributos sensibles (raza, opiniones políticas, afiliación sindical, creencias religiosas o filosóficas, orientación sexual), excepto el etiquetado o filtrado de conjuntos de datos biométricos adquiridos legalmente o cuando las fuerzas de seguridad categoricen datos biométricos; (iv) puntuación social, es decir, evaluar o clasificar a individuos o grupos basándose en comportamientos sociales o rasgos personales, causando un trato perjudicial o desfavorable a esas personas; (v) evaluar el riesgo de que un individuo cometa delitos basándose únicamente en perfiles o rasgos de personalidad, excepto cuando se utilice para aumentar las evaluaciones humanas basadas en hechos objetivos y verificables directamente relacionados con la actividad delictiva; (vi) compilación de bases de datos de reconocimiento facial mediante la toma no selectiva de imágenes faciales de internet o de grabaciones de circuitos de televisión; (vii) inferir emociones en lugares de trabajo o centros educativos, salvo por razones médicas o de seguridad; y (viii) identificación biométrica remota en tiempo real en espacios de acceso público para las fuerzas de seguridad, salvo que se trate de búsqueda de personas desaparecidas, víctimas de secuestros y personas víctimas de la trata de personas o explotación sexual; prevención de una amenaza sustancial e inminente para la vida, o un ataque terrorista previsible; o la identificación de sospechosos de algunos delitos que cataloga como graves.
176. Por lo demás, el Reglamento de IA adopta un enfoque basado en el riesgo, que asume los siguientes niveles:
Riesgo |
Descripción |
Alto[148] |
El artículo 6 del Reglamento de IA acude a dos técnicas de identificación de sistemas de alto riesgo.
La primera, se basa en una suerte de clasificación «en blanco» pues no consagra todos los elementos para categorizar una determinada IA como de riesgo alto, sino que fija dos condiciones concurrentes que deben llenarse de contenido a través de la remisión a otras normas de la Unión Europea. En este punto, se clasifica como IA de riesgo alto aquella que (i) esté destinada a ser un componente de seguridad de productos que entren en el ámbito de aplicación de los actos legislativos de armonización de la Unión enumerados en el anexo I de la Ley o que el propio sistema de IA sea uno de dichos productos y (ii) deba someterse a una evaluación para su introducción al mercado o puesta en servicio con arreglo a los referidos actos legislativos de armonización.
La segunda técnica es enunciativa pues cataloga como IA de alto riesgo las incluidas en el listado del Anexo III de la Ley. Estas son:
(i) Las relacionadas con usos permitidos de biometría. (ii) Las relacionadas con infraestructura crítica que puede poner en riesgo la vida y la salud de los ciudadanos (por ejemplo, las relacionadas con el suministro de agua, gas, calefacción o electricidad). (iii) Las relacionadas con entrenamiento educacional y vocacional que puedan determinar el acceso a la educación y a un cargo profesional. (iv) Las usadas en el empleo, gestión de los trabajadores y acceso al autoempleo. (v) Las relacionadas con acceso y disfrute de servicios y prestaciones públicas y privadas que sean esenciales. Por ejemplo, las usadas para medir el puntaje crediticio de los consumidores financieros. (vi) Las destinadas a la aplicación de la ley, cuando su uso sea permitido para evaluar el riesgo de que una persona sea víctima de infracciones penales; usar polígrafos o herramientas similares; evaluar la fiabilidad de pruebas durante una investigación o juicio penal; evaluar la probabilidad de que una persona física cometa una infracción o reincida, así como elaboración de perfiles de personas físicas o evaluación de rasgos y características de la personalidad o comportamientos delictivos pasados de personas físicas o grupos. (vii) Las usadas en los sectores de migración, asilo y gestión de control fronterizo. (viii) Las relacionadas con la administración de justicia y procesos democráticos.
Las IA de alto riesgo relacionadas en el anterior listado pueden no ser consideradas de alto riesgo si se cumple alguna de las condiciones que prevé el artículo 6.º, numeral 3.º, del Reglamento de IA[149]. |
Limitado |
Se refiere a los sistemas de IA con obligaciones específicas de transparencia. Al utilizar sistemas de IA como los chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina para poder tomar una decisión informada de continuar o no. |
Mínimo |
La propuesta permite el uso libre de herramientas de IA con un riesgo mínimo. Las aplicaciones incluidas en este nivel son, por ejemplo, las relacionadas con videojuegos o filtros de spam. |
177. El Anexo III del Reglamento de IA ahonda en los sistemas de IA de alto riesgo para precisar su alcance. De manera particular, se refiere a aquellos relacionados con la administración de justicia y procesos democráticos en los siguientes términos:
a) Sistemas de IA destinados a ser utilizados por una autoridad judicial, o en su nombre, para ayudar a una autoridad judicial en la investigación e interpretación de hechos y de la ley, así como en la aplicación de la ley a un conjunto concreto de hechos, o a ser utilizados de forma similar en una resolución alternativa de litigios
b) Sistemas de IA destinados a ser utilizados para influir en el resultado de una elección o referéndum o en el comportamiento electoral de personas físicas que ejerzan su derecho de voto en elecciones o referendos. Quedan excluidos los sistemas de IA a cuya información de salida no estén directamente expuestas las personas físicas, como las herramientas utilizadas para organizar, optimizar o estructurar campañas políticas desde un punto de vista administrativo o logístico
178. Una vez identificados los sistemas de IA que se catalogan como de alto riesgo, el Reglamento de IA establece los siguientes requisitos específicos y condiciones para que pueda hacerse uso de ellos (i) la adopción de un sistema de gestión de riesgo (artículo 9.º) que permita hacer una adecuada evaluación de estos y adoptar medidas de prevención y mitigación; (ii) la implementación de altos estándares de calidad respecto de los conjuntos de datos de entrenamiento, validación y prueba, los cuales se deben someter a prácticas de gobernanza y gestión de datos adecuadas para la finalidad prevista del sistema de IA (artículo 10); (iii) la elaboración de documentación técnica que soporte el sistema de IA (artículo 11); (iv) la conservación de registros automáticos de eventos a lo largo de todo el ciclo de vida del sistema (artículo 12); la transparencia y la comunicación de información a los responsables del despliegue (artículo 13); la vigilancia humana (artículo 14); la solidez, la precisión y la ciberseguridad del sistema. Acto seguido, el Reglamento de IA define las obligaciones a cargo de los proveedores y responsables del despliegue de sistemas de IA de alto riesgo (sección 3).
179. Estados Unidos de América. Algunos de los instrumentos normativos más relevantes han sido emitidos por el poder ejecutivo federal, mientras que otros provienen de agencias federales. Aunque en dicho país no hay una norma del Gobierno Federal que regule integralmente la materia, el instrumento de política pública más importante es la «[o]rden ejecutiva sobre el desarrollo y la utilización segura y fiable de la inteligencia artificial»[150] dictada por el presidente Biden en 2023. Esta se basó en el denominado Anteproyecto para una Declaración de Derechos de la IA[151] que profirió la Casa Blanca en octubre de 2022, el cual contiene cinco principios y prácticas asociadas para ayudar a guiar el diseño, uso y despliegue de sistemas automatizados, con el fin de proteger los derechos del público estadounidense en la era de la IA. Los referidos principios están formulados en los siguientes términos (i) debes estar protegido/a de sistemas inseguros o ineficaces; (ii) no debes enfrentar discriminación por parte de algoritmos y los sistemas deben ser utilizados y diseñados de manera equitativa; (iii) debes estar protegido/a de prácticas abusivas de datos mediante protecciones incorporadas y deberías tener control sobre cómo se utiliza la información sobre quien usa la IA; (iv) debes saber que se está utilizando un sistema automatizado y comprender cómo y por qué contribuye a los resultados que te afectan y (v) debes poder optar por salirte del sistema cuando sea apropiado y tener acceso a una persona que pueda considerar y resolver rápidamente los problemas que se encuentren[152].
180. Otros proyectos de gobernanza relevantes en Estados Unidos son el Plan Nacional de Investigación y Desarrollo de Inteligencia Artificial, que identifica áreas prioritarias para la investigación financiada con fondos federales; el marco de gestión de riesgos de inteligencia artificial del NIST[153] y las pautas publicadas por la Oficina de Protección Financiera del Consumidor, que exigen a los prestamistas proporcionar explicaciones claras para decisiones adversas, con el fin de proteger a los consumidores contra la discriminación[154].
181. Finalmente, respecto del caso estadounidense cabe señalar que, en materia de proyectos de ley, se han presentado al Congreso aproximadamente 70 iniciativas[155] que abordan temas variados como restricciones a la IA; la exigencia a los proveedores de sistemas de IA que realicen evaluaciones de la tecnología y sus usos; requisitos de transparencia, notificación y etiquetado; la creación de una autoridad reguladora que supervise la IA; la defensa de los consumidores con medidas de responsabilidad y protección de datos; la capacitación del personal federal, entre otros.
182. América Latina. El marco normativo de la IA está en proceso de gestación. En efecto, ninguno de los países «cuenta con una ley especial vigente que regule el uso y el desarrollo de esta tecnología, aunque todos han introducido propuestas de regulación en sus respectivos parlamentos u órganos legislativos»[156]. Aunque en Perú se aprobó recientemente una ley[157] sobre la materia, esta solo contiene lineamientos generales y objetivos de política pública que pasarían a ser desarrolladas con mayor profundidad desde el ejecutivo a través de normas reglamentarias.
183. En el presente trámite, varios expertos hicieron énfasis en que «[l]a mayoría de los países latinoamericanos propone regulaciones inspiradas o con similitudes importantes a la propuesta de Ley de Inteligencia Artificial de la Unión Europea (AI Act)» [158]. Además, se identificaron dos tendencias. De un lado, la de países como Argentina o Brasil que «cuentan con iniciativas que proponen normativas enfocadas en regular la IA en relación con determinadas materias o contextos, además de aquellas que dan lugar a una regulación general de la disciplina»[159]. De otro lado, la de países como Chile, Costa Rica y Colombia, que «comparten en sus iniciativas la creación de autoridades especializadas en la materia que fiscalicen y supervisen la implementación y el desarrollo de estas tecnologías»[160].
184. Del caso peruano, llama particularmente la atención que, en la actualidad, se está tramitando una reforma constitucional a través del proyecto de Ley 5763-2023-CR del 25 de agosto de 2023, para adicionar el artículo 139 de la Constitución en el sentido de establecer el uso de la IA como uno de los principios de la administración de justicia, de manera que se pueda utilizar «para la resolución de casos judiciales y para las acciones de mero trámite»[161]. La exposición de motivos anuncia muy concretamente que con ello se busca mayor agilidad en la prestación de este servicio público y así beneficiar a la ciudadanía en materia de derechos de acceso a la administración de justicia, tutela procesal efectiva, plazo razonable, entre otros.
185. Visto lo anterior, previo a cerrar este acápite, la Sala de Revisión considera relevante llamar la atención sobre algunos aspectos. En primer lugar, tratándose de establecer un marco regulatorio en asuntos de IA se debe reconocer la importancia tanto de instrumentos de derecho blando como de fuentes normativas plenamente vinculantes (hard law). Estas últimas son la herramienta para aterrizar la aplicación de lineamientos generales dispuestos en instrumentos de soft law a través de reglas de obligatorio cumplimiento, que permitan efectivizar los mecanismos, controles, términos y demás condiciones en que debe operar la IA en todas las facetas que componen su ciclo de vida. No obstante, la velocidad a la que evoluciona la IA supone un reto en términos de regulación a través de herramientas tradicionales de hard law.
186. En efecto, estas tecnologías emergentes suelen avanzar a un ritmo que sobrepasa la capacidad de reacción de las autoridades regulatorias. Es a lo que se ha denominado problema del ritmo. Sobre este fenómeno, el referido informe de asesoramiento que emitió la ONU a través de su órgano consultivo en IA destacó que «los avances técnicos en IA y su uso siguen acelerándose, ampliando la brecha en la comprensión y la capacidad entre las empresas tecnológicas que desarrollan IA, las empresas y otras organizaciones que la utilizan en diversos sectores y espacios sociales, y aquellos que regularían su desarrollo, despliegue y uso»[162].
187. El profesor Gary Marchant[163] considera que los instrumentos de soft law son clave para hacer frente a dicha problemática. En su artículo «Soft Law. Governance of Artificial Intelligence» concluye que, aunque el derecho blando brinda herramientas de gobernanza muy imperfectas debido a su falta de aplicabilidad, así como al lenguaje tan amplio y general en el que suele redactarse
[E]n el caso de una tecnología en rápido desarrollo y expansión como la IA, no es factible una regulación exhaustiva por parte de los gobiernos, al menos a corto plazo. En consecuencia, el soft law será el enfoque por defecto para la mayor parte de la gobernanza de la IA en la actualidad. Por esta razón, es necesario explorar formas indirectas de aplicar y coordinar la proliferación de medidas de soft law que ya se han propuesto o promulgado para la IA[164]
188. En segundo lugar, se debe tener en cuenta que el liderazgo de algunos países del llamado norte global[165] en el ámbito regulatorio de la IA ha dado paso a lo que se conoce como el efecto Bruselas, que se refiere a un proceso de globalización reguladora causado por la Unión Europea, cuyas leyes terminan proyectándose de facto fuera de sus fronteras, debido a la marcada influencia que ejerce en otras latitudes. Aunque este tipo de regulaciones esté determinando pautas en materia de regulación de la IA, es importante tener en cuenta que el panorama internacional y, con ello, un análisis de derecho comparado, resultan útiles y pertinentes en tanto ofrecen un punto de partida para comprender los caminos posibles y los enfoques para tener en cuenta al momento de diseñar políticas públicas, instrumentos normativos de derecho interno, estrategias de auto restricción o estrategias de autocontrol, teniendo en cuenta que dicha construcción debe ser en todo caso colectiva. En el proceso de crear una normativa propia hay que ser cautelosos para no caer en prácticas de importaciones normativas que puedan resultar impertinentes, ineficaces e incluso contraproducentes según el contexto social, económico, político y cultural de cada país.
189. Así pues, resulta de la mayor relevancia que cualquier iniciativa normativa o estrategia que se desarrolle, bien sea en el escenario legislativo o reglamentario en materia de IA, se ajuste a las particularidades del entorno en el que impactará, de manera que se evalúe la procedencia y, de ser el caso, la mejor forma de trasplantar ideas o figuras propias de regulaciones extranjeras, con el fin de neutralizar los riesgos y posibles desventajas de las prácticas de importación normativa. En todo caso, este ejercicio debe realizarse sin perder de vista la importancia de mantener un enfoque centrado en el cumplimiento de los derechos fundamentales y del marco internacional, a partir del cual pueda desarrollarse un complejo normativo armónico en materia de IA, que cumpla con los más altos estándares, de esta forma se garantizará la salvaguarda de los derechos fundamentales.
190. Las anteriores preocupaciones son compartidas por organismos como la ONU, cuyo órgano consultivo en IA, al reflexionar sobre el panorama actual de regulación, ha concluido que:
Los esfuerzos existentes en materia de gobernanza de la IA han dado lugar a similitudes en el lenguaje en asuntos como la importancia de la equidad, la responsabilidad y la transparencia. Sin embargo, no existe una alineación global en cuanto a la aplicación, ni en términos de interoperabilidad entre jurisdicciones ni en términos de incentivos de cumplimiento dentro de las jurisdicciones. Algunos son partidarios de normas vinculantes, mientras que otros prefieren incentivos no vinculantes. Se debaten trade-offs[166], como el equilibrio entre acceso y seguridad, o si la atención debe centrarse en los daños actuales o en los posibles daños futuros. Los distintos modelos también pueden requerir un énfasis diferente en la gobernanza. La falta de normas y puntos de referencia comunes entre los marcos nacionales y multinacionales de gestión de riesgos, así como las múltiples definiciones de IA utilizadas en dichos marcos han complicado el panorama de la gobernanza de la IA, a pesar de la necesidad de espacio para que coexistan diferentes enfoques reguladores que reflejen la diversidad social y cultural del mundo[167]
191. Los aspectos anotados suponen un reto adicional para la ya difícil tarea de definir un marco regulatorio o estrategias en un asunto tan especializado y técnico como la IA. Igualmente, llaman a que sin perjuicio de los esfuerzos normativos estatales, a niveles sectoriales se adopten dentro del ámbito propio de competencias, marcos regulatorios, a partir de códigos de conducta y protocolos de buenas prácticas, que estimulen la aplicación de estándares éticos específicos y que sean capaces de recoger regulaciones comunes de conducta, que permitan afrontar razonablemente como posibilidad de mejoramiento las herramientas de inteligencia artificial generativa, especialmente del ChatGPT, y prevenir sus riesgos. Se trata de aprender de la historia de la humanidad y de los desarrollos tecnológicos, siempre en cambio, así como de afrontar el reto de racionalizar sobre estos y de aprender sobre sus inusitados alcances, para que sin caer en la esclavitud ante ellos, el ser humano los apropie como herramientas para potenciar las mejores condiciones de vida individuales, sociales y globales. Ni la comunidad ni la administración de justicia podrán ser reemplazadas por las tecnologías ni por las máquinas, pues aquellas comprenden en su esencia lo insustituible de la existencia cual es el componente humano de racionalidad, creatividad, emotividad, singularidad y solidaridad que habrá de acompañar las generaciones por siempre.
(vii) Algunas experiencias concretas relacionadas con la IA en la práctica jurídica
192. El interés por regular el uso de la IA en la práctica judicial no resulta extraño pues su utilización en este ámbito ha comenzado a marcar una tendencia desde hace algunos años, tanto para apoyar a los usuarios en la actividad litigiosa como para respaldar, en mayor o menor grado, el sistema judicial mismo.
193. En 2016, en Reino Unido, se lanzó DoNotPay, una iniciativa privada que comenzó por utilizar la IA para apelar automáticamente multas de tránsito. Con el tiempo y debido al alto porcentaje de éxito, sus fundadores expandieron los servicios prestados por el chatbot para que, entre otros, ofreciera ayuda legal gratuita a personas que están enfrentando problemas de vivienda, como embargos y desalojos. Otro conocido ejemplo es el de la compañía AirHelp que, haciendo uso de sistemas de IA, asiste a pasajeros en reclamaciones a aerolíneas. La misma empresa explica que sus abogados digitales, capaces de comprobar los documentos de viaje, realizar evaluaciones legales y analizar la jurisdicción para una reclamación en cuestión de segundos, «se utilizan en el 100% de las reclamaciones entrantes en la fase legal, y las que se aprueban en esta fase se pasan a un segundo bot que comienza a analizar la reclamación […] Ya se ha utilizado con éxito en más de 150.000 casos y el resultado fue exitoso en el 96 % de los casos, un 5% más que la tasa media de éxito humano»[168]. Ejemplos como los anteriores allanaron el camino para que, aproximadamente desde 2019, en el mundo comenzaran a desarrollarse diferentes aplicaciones basadas en sistemas de IA que permiten la automatización de tareas de litigio para grandes firmas y compañías.
194. En cuanto al uso de IA desde el poder judicial, estos sistemas se han comenzado a utilizar para asistir a los jueces en la realización de algunas tareas, con un mayor o menor grado de intensidad. En Estonia, por ejemplo, se desarrolló un programa piloto en 2019, a través del cual un juez robot conoce y resuelve casos de menos de 7.000 euros. «Las partes pueden cargar información sobre el caso a la plataforma la que es tomada por el Juez Robot para tomar la decisión, la que puede ser apelada ante un juez humano»[169].
195. De otra parte, en China, un tribunal de la ciudad de Hangzhou «cuenta con un asistente de inteligencia artificial llamado Xiao Zhi 3.0 o «Little Wisdom» (Pequeño sabio), que tiene como objetivo la agilización de casos pequeños. Durante el piloto de prueba de la herramienta ayudó a resolver casos de préstamos becarios de 10 personas. La métrica que se tiene sobre el tema arroja que resolver estos casos hubiera llevado unas cuantas semanas, Xiao Zhi emitió la decisión en más o menos treinta minutos. Esta herramienta está siendo utilizada para casos sencillos y que de ciertas formas son similares o repetitivos»[170].
196. En Brasil, en 2019, el Tribunal Supremo de Justicia Federal lanzó un proyecto piloto llamado «Sócrates», que permite identificar demandas por temática para acumularlas y así emitir una sola decisión.
197. La Corte Constitucional colombiana también ha desarrollado un proyecto de IA llamado «Pretoria»[171], cuya finalidad es permitir la identificación de tutelas para su selección en sede de revisión, de acuerdo a los criterios establecidos por esta corporación.
198. Finalmente, en lo que interesa a este caso, no puede perderse de vista que el Juzgado del Circuito hizo uso de la herramienta de IA ChatGPT 3.5 y que, como se señaló en líneas anteriores, lo que se debe establecer es si con ello se vulneró o no el derecho fundamental del debido proceso.
(viii) La garantía del juez natural en un sistema jurisdiccional que utilice IA[172]
199. El artículo 29 de la Constitución Política reconoce la garantía del juez natural, como uno de los componentes del debido proceso, al señalar que: «[n]adie podrá ser juzgado sino […] ante juez o tribunal competente».
200. Por su parte, en el ámbito internacional, este derecho se consagra en el artículo 10 de la Declaración Universal de Derechos Humanos, que establece que «toda persona tiene derecho, en condiciones de plena igualdad, a ser oída públicamente y con justicia por un tribunal independiente e imparcial, para la determinación de sus derechos y obligaciones o para el examen de cualquier actuación contra ella en materia penal» y en el Pacto Internacional de Derechos Civiles y Políticos, en el artículo 14, que dispone que «toda persona tendrá derecho a ser oída públicamente y con las debidas garantías por un tribunal competente, independiente e imparcial, establecido por la ley, en la sustanciación de cualquier acusación y de carácter penal formulada contra ella o para la determinación de sus derechos u obligaciones de carácter civil».
201. Finalmente, en el sistema interamericano, la Convención Americana sobre Derechos Humanos incluye, en el artículo 8.º, la garantía del juez natural como parte integral del derecho al debido proceso, al señalar que «toda persona tiene derecho a ser oída, con las debidas garantías y dentro de un plazo razonable, por un juez o un tribunal competente, independiente e imparcial, establecido con anterioridad por la ley, en la sustanciación de cualquier acusación penal formulada contra ella, o para la determinación de sus derechos y obligaciones de orden civil, laboral o de cualquier otro carácter». A su turno, el artículo 25 de la misma convención consagra el derecho de toda persona a un recurso efectivo «ante los jueces o tribunales competentes, que la ampare contra actos que violen sus derechos fundamentales reconocidos por la Constitución, la ley o la presente Convención» y enfatiza en la importancia de que los Estados Parte garanticen «que la autoridad competente prevista por el sistema legal del Estado decidirá sobre los derechos de toda persona que interponga el recurso».
202. La jurisprudencia constitucional colombiana ha concluido que «el respeto al debido proceso, concretado en el principio de juez natural, implica la garantía de que el juzgamiento sea efectuado por los funcionarios y órganos que, en atención a lo dispuesto en la Constitución, tengan la competencia para ello»[173]. En otras palabras, el juez natural es «aquel a quien la Constitución o la ley le ha atribuido el conocimiento de determinado asunto»[174].
203. Cuando la asignación de competencia no ha sido establecida expresamente por el constituyente, al legislador se le reconoce un amplio margen de configuración en la materia, bajo la condición de que no altere el marco funcional definido en la Constitución Política. Sobre esa base, la obligación de determinar el juez competente de manera previa por el órgano legislativo es «un derecho absoluto que no puede ser objeto de excepción alguna»[175]. De esta forma se permite que las personas conozcan de antemano el órgano judicial, el tipo de juicio y el régimen procesal a los que estarán sometidos, con lo cual, se preserva la seguridad jurídica y la confianza legítima en la administración de justicia.
204. Sobre la misma materia, la Corte Interamericana de Derechos Humanos se ha pronunciado para resaltar que la garantía del juez natural es un elemento constitutivo del derecho al debido proceso[176]. En el caso Barreto Leiva vs. Venezuela, recordó que «el juez natural deriva su existencia y competencia de la ley»[177], por tanto «en un Estado de derecho sólo el poder legislativo puede regular, a través de leyes, la competencia de los juzgadores»[178].
205. El derecho a un juez natural a su vez se conforma por las siguientes tres subgarantías (i) juez legal previamente establecido; (ii) independencia judicial, que implica que ningún poder, ya sea estatal, particular, o de cualquier otra índole, como por ejemplo una IA, pueda influir en la consideración del caso y (iii) la imparcialidad frente al caso.
206. Sobre el alcance del juez previamente establecido, la Corte Constitucional ha señalado que se concreta esencialmente en dos características, la especialidad y la predeterminación. La primera supone que «el legislador deberá consultar como principio de razón suficiente la naturaleza del órgano al que atribuye las funciones judiciales»[179]. Por su parte, la predeterminación legal del juez que conocerá de determinados asuntos implica «i) que el órgano judicial sea previamente creado por la ley; ii) que la competencia le haya sido atribuida previamente al hecho sometido a su decisión; iii) que no se trate de un juez por fuera de alguna estructura jurisdiccional (ex post) o establecido únicamente para el conocimiento de algún asunto (ad hoc); y iv) que no se someta un asunto a una jurisdicción especial cuando corresponde a la ordinaria o se desconozca la competencia que por fuero ha sido asignada a determinada autoridad judicial». De esta definición también se desprende la prohibición de crear jueces, juzgados o tribunales de excepción[180].
207. La garantía del juez legal previamente establecido busca que con anterioridad a los hechos los ciudadanos sepan el funcionario que va a ser el competente para conocerlos. Esta subgarantía se refiere por tanto a la competencia y prohíbe la creación de jueces ad hoc para conocer de un asunto en particular, ya por la relevancia de los hechos -sean estos de poca o mucha importancia- o por las personas a investigar.
208. En cuanto a la independencia y la imparcialidad, la doctrina ha expuesto que con dichas garantías se «trata de controlar los móviles del juez frente a influencias extrañas al Derecho provenientes del sistema social, la imparcialidad trata de controlar los móviles del juez frente a influencias extrañas al Derecho provenientes del proceso»[181]-[182].
209. Es posible, por tanto, que la independencia del juez, cuando utiliza una herramienta de IA como ChatGPT, puede verse afectada por los sesgos que tenga dicha herramienta, producto de los datos con los que esta haya sido alimentada, o que, por las mismas razones, no sea posible verificar la imparcialidad de una IA, si es ella quien toma la decisión judicial.
210. De acuerdo con lo expuesto, podría generarse la vulneración al debido proceso, en su garantía de juez natural, si la causa es decidida no por un juez sino por una IA o si ella afecta la independencia o imparcialidad del juez, temas sobre los cuales se ahondará a continuación.
211. Por las particularidades del caso sometido a estudio, uno de los principales cuestionamientos que emergen a raíz de la posibilidad de que, mediante el uso de modelos de IA generativa, en específico ChatGPT 3.5, se confíe a estos sistemas el ejercicio total o parcial de la actividad judicial, es si de esta forma se sustituye al juez competente para adoptar la decisión judicial y, con ello, se compromete la validez y legitimidad de la actuación.
212. Para tales efectos, según lo señalado, se tiene como premisa que la garantía del juez natural es uno de los componentes primordiales del derecho al debido proceso y goza de un reconocimiento y desarrollo sólidos, tanto en la Constitución y en la jurisprudencia nacional, como en los sistemas mundial e interamericano de derechos humanos, tal como se señaló en líneas anteriores.
Juez humano previamente establecido
213. En el marco de las tecnologías de la IA y su implementación en los sistemas judiciales, parte del contenido esencial de la garantía del juez natural es la condición de ser humano que debe asistirle al juzgador. En efecto, el diseño institucional y normativo actual no prevé la posibilidad de un juez máquina y, se anticipa, que ello plantearía problemas irresolubles en cuanto a la aplicación de principios superiores y garantía de derechos; en todo caso, la apelación a la decisión humana es insustituible, tanto como deseable que las tecnologías respetuosas de la dignidad sirvan al servicio público.
214. Esto surge de una lectura armónica del texto constitucional que, al referirse a la Rama Judicial en los artículos 228 y siguientes, alude a una función jurisdiccional ejercida por funcionarios humanos, como se desprende, por ejemplo, de requisitos generales como «[s]er colombiano de nacimiento y ciudadano en ejercicio» o «[s]er abogado», que son algunos de los exigidos en la Carta Política para ejercer como magistrado de alta Corte. Esta afirmación se ve reforzada por el régimen constitucional de la función pública, contenido esencial, aunque no exclusivamente, entre los artículos 122 y 131 de la Constitución.
215. En línea con lo anterior, se encuentra la Ley 270 de 1996, Estatutaria de Administración de Justicia, que en su artículo 12 prevé que «[l]a función jurisdiccional se ejerce como propia y habitual y de manera permanente por las corporaciones y personas dotadas de investidura legal para hacerlo, según se precisa en la Constitución Política y en la presente Ley Estatutaria». Más adelante, la misma ley, en su artículo 125, al clasificar a los servidores de la Rama Judicial según la naturaleza de sus funciones, indica que «[t]ienen la calidad de funcionarios los magistrados de las corporaciones judiciales, los jueces de la República y los fiscales. Son empleados las demás personas que ocupen cargos en las corporaciones y despachos judiciales y en los órganos y entidades administrativas de la Rama Judicial». El artículo 126 de la misma normatividad continúa señalando que «[s]olamente podrá desempeñar cargos en la Rama Judicial quien observe una conducta acorde con la dignidad de la función», mientras que el 127, al consagrar los requisitos generales para el desempeño de cargos de funcionarios de la Rama Judicial, exige que todo magistrado, juez o fiscal, acredite «1. Ser colombiano de nacimiento y ciudadano en ejercicio y estar en pleno goce de sus derechos civiles; 2. Tener título de abogado expedido o revalidado conforme a ley, salvo el caso de los Jueces de Paz; y, 3. No estar incurso en causal de inhabilidad o incompatibilidad».
216. Como puede advertirse, la garantía del juez natural es piedra angular del ordenamiento jurídico superior porque es parte integral del derecho al debido proceso, pero también porque busca realizar atributos básicos de la función jurisdiccional como la seguridad jurídica, la imparcialidad, la neutralidad y la independencia en la administración de justicia.
217. Visto lo anterior, de cara a la salvaguarda de la garantía del juez natural, es necesario establecer si la implementación de la IA en la actividad jurisdiccional puede aparejar una sustitución del operador judicial al que constitucional o legalmente le fue atribuida la competencia de conocer un determinado asunto. Esto, entendiendo que la competencia se refiere a la facultad que tiene el juez para ejercer, por autoridad de la ley, una determinada función y que, en la actualidad, no existe en el ordenamiento jurídico interno una norma legal que regule el uso de la IA en el sistema judicial.
218. La Sala de Revisión advierte que la respuesta a dicho cuestionamiento implica considerar los diferentes usos que se le puede dar a estas tecnologías en el escenario judicial y, con ello, el alcance y naturaleza de su intervención en el ejercicio jurisdiccional.
219. De acuerdo con nuestro ordenamiento jurídico, el juez natural tiene que ser un humano y no una máquina, por lo que la IA no puede suplantar al juez en la toma de decisiones judiciales, pues ello implicaría la violación de la garantía del juez legal previamente establecido, sin importar la complejidad del asunto sometido a estudio de la jurisdicción. Si la decisión judicial es tomada por una IA, sin valoración y determinación por parte de un juez, será invalida y se quebrantará el derecho fundamental al debido proceso.
220. Visto lo anterior, la Sala de Revisión concluye que se genera una violación de la garantía del juez natural cuando el funcionario judicial utiliza la IA para sustituir el razonamiento lógico y humano que le compete realizar a efectos de interpretar los hechos, las pruebas, motivar la decisión e incluso adoptarla. En tales eventos habrá una sustitución del poder jurisdiccional por cuenta de la IA y con ello, la configuración de una violación al debido proceso por violación de la garantía de un juez legal previamente establecido.
221. Por el contrario, el uso de la IA en el sistema judicial para los ámbitos de gestión administrativa y documental, así como el de apoyo a la gestión judicial y la corrección y síntesis de largos textos, no comporta una transgresión a la garantía del juez natural pues, en tales eventos, la utilización de estas tecnologías no remplaza la labor esencial que se le ha atribuido al funcionario judicial, consistente en conocer y resolver de fondo el asunto para el cual fue investido de competencia. Lo anterior se cumple, siempre y cuando no se involucre una labor de creación de contenido ni interpretación de hechos o pruebas y, mucho menos, la solución de casos, y siempre y cuando haya una supervisión posterior por parte de algún funcionario o empleado de la Rama Judicial.
222. De esta forma, es de especial importancia que cuando el juez natural haga uso de herramientas de IA, para las funciones anteriormente definidas, se cumpla con los criterios de (i) responsabilidad, (ii) guarda del principio de legalidad y (iii) idoneidad. Además, no sobra advertir que tratándose de una materia que se caracteriza por un desarrollo permanente y veloz, la pertinencia de estas consideraciones debe valorarse en el tiempo, según la evolución que se produzca en los ámbitos de regulación normativa y, por supuesto, en el tecnológico.
223. En efecto, tratándose del servicio de justicia, estas tecnologías eventualmente podrían utilizarse con fines de (i) gestión administrativa y documental (p. ej. reparto, agenda para la programación de diligencias, digitalización y clasificación de expedientes, sistemas de relatoría y motores de búsqueda de jurisprudencia); (ii) apoyo a la función judicial, en actividades que no suponen una labor de creación de contenido ni interpretación de hechos o textos, ni solución de casos, como en el caso de la herramienta Pretoria aplicado por esta Corte Constitucional en materia de seguimiento a procesos por acción de tutela (p. ej. referenciación de jurisprudencia, seguimiento de líneas jurisprudenciales, análisis de datos estadísticos, identificación de temas repetitivos, interacción con usuarios del Poder Judicial, contestando dudas de los usuarios mediante un banco de preguntas frecuentes preestablecidas) ; y (iii) corrección y síntesis de textos, siempre y cuando, estos sean supervisados posteriormente por el operador jurídico para determinar su precisión, coherencia y correcta aplicación. El uso de la IA para los anteriores fines tiene el potencial de mejorar el bienestar de los funcionarios públicos de la Rama Judicial y de los ciudadanos que hacen uso de este servicio, pues permite que la prestación del servicio judicial sea más eficiente y eficaz. Sin duda, progresivamente la justicia sin perder su majestad e independencia, habrá de caber en un terminal de comunicación personal, dentro de una red tecnológica que le sirva de sustento, a tiempo con el avance de una sociedad cada vez con mayor digitalización.
224. En este punto, cabe reiterar que no puede pasarse por alto que la IA ha contribuido en la realización y armonización de diversas actividades en la sociedad. Dentro de los beneficios de este tipo de herramientas para el trabajo de los servidores judiciales se encuentra la eficiencia y agilidad en la resolución de conflictos, por cuanto los sistemas de IA generativa logran dar respuesta a búsquedas con mayor rapidez, pueden generar y discriminar información y permiten predicciones con mayor facilidad. Consecuentemente, esto puede ser benéfico en temas de productividad, ya que, al lograr recopilar, organizar y sintetizar información hay un mayor aprovechamiento del tiempo.
Juez independiente e imparcial
225. Sin embargo, poder utilizar la IA como apoyo a la función judicial implica un alto riesgo, en específico a las garantías de un juez independiente e imparcial.
226. En cuanto al juez independiente, la Constitución Política prevé un amplio catálogo de preceptos que reconocen expresamente la independencia en el ejercicio de la función jurisdiccional y consagran modelos procesales e institucionales que aseguran este principio. Según el artículo 2.º superior, dos de los fines del Estado son el de asegurar la convivencia pacífica y la vigencia de un orden justo. El artículo 228 establece que las decisiones de la administración de justicia son independientes y el 230 siguiente reza que «los jueces, en sus providencias, sólo están sometidos al imperio de la ley».
227. En la Sentencia C-288 de 2012, la Corte Constitucional recordó que los principios de autonomía e independencia judicial constituyen una expresión directa e inmediata del principio de separación de poderes y un componente esencial del ordenamiento jurídico. Por lo demás, ambos principios son garantía de imparcialidad, que a su vez es el fundamento de la administración de justicia, por tanto, son componentes esenciales del derecho a un juez natural.
228. Por su parte, mediante Sentencia T-450 de 2018, la corporación también indicó que tales principios suponen la resolución de asuntos judiciales de forma motivada y bajo estricto cumplimiento de la ley. Particularmente, señaló:
[C]omo correlato necesario de la independencia y autonomía de los jueces, surge el deber de estos últimos de materializar el derecho al debido proceso de los administrados, mediante la motivación de sus decisiones y la garantía de que las mismas sean el resultado exclusivo de la aplicación de la ley al caso particular. Esto significa que la validez y la legitimidad de las providencias judiciales está mediada, entre otras cosas, por la garantía de que las mismas obedecen únicamente a la aplicación del derecho positivo al caso concreto que se somete a consideración del operador, y de que, por consiguiente, este será ajeno a cualquier interés de las partes involucradas en la controversia de que se trate, a las demás instancias internas dentro de la propia organización judicial y, en general, frente a todo sistema de poderes. Ello, sin duda alguna, deviene en una garantía vital para la materialización de la objetividad, neutralidad, imparcialidad y justicia material que debe revestir las decisiones judiciales
229. Con base en lo anterior, concluyó que la autonomía e independencia judicial comportan tres atributos básicos en nuestro ordenamiento superior: «i) [u]n primer atributo, cuya connotación es esencialmente negativa, entiende dicho principio como la posibilidad del juez de aplicar el derecho libre de interferencias tanto internas como externas; ii) un segundo atributo que lo erige en presupuesto y condición del principio de separación de poderes, del derecho al debido proceso y de la materialización del derecho de acceso, a la administración de justicia de la ciudadanía; y, finalmente, iii) un tercer atributo que lo instituye en un principio estructural de la Carta Política de 1991».
230. En suma, el derecho al juez natural independiente hace parte esencial del derecho fundamental al debido proceso. Estos postulados suponen el derecho de las personas a tener un juicio impartido por un juez independiente, imparcial y sin influencia de otros poderes. También, exigen que las decisiones judiciales no estén determinadas por sesgos o prejuicios personales, ni mediadas por intereses particulares. De este modo, las decisiones judiciales serán el resultado exclusivo de la aplicación de la ley.
231. Como se dijo en líneas anteriores, es posible que la independencia del juez, cuando utiliza una herramienta de IA, se vea afectada por los sesgos que tenga dicha herramienta producto de los datos con los que esta haya sido alimentada.
232. La evaluación sobre el respeto de la garantía del juez independiente e imparcial puede verse afectada por un mal uso de la IA en la práctica judicial. En efecto, este fue un factor determinante para que el Reglamento de Inteligencia Artificial de la Unión Europea definiera el alcance de las IA relacionadas con la administración de justicia, a las que catalogó de alto riesgo. Sobre el particular, en los considerandos del proyecto, se explicó que «[a] fin de hacer frente al riesgo de posibles sesgos, errores y opacidades, procede clasificar como de alto riesgo aquellos sistemas de IA destinados a ser utilizados por una autoridad judicial o en su nombre para ayudar a las autoridades judiciales a investigar e interpretar los hechos y el Derecho y a aplicar la ley a unos hechos concretos»[183]. También incluyó como de alto riesgo el uso de la IA «por los organismos de resolución alternativa de litigios con esos fines, cuando los resultados de los procedimientos de resolución alternativa de litigios surtan efectos jurídicos para las partes»[184].
233. Al respecto, señaló que «[l]a utilización de herramientas de IA puede apoyar el poder de decisión de los jueces o la independencia judicial, pero no debe substituirlas: la toma de decisiones finales debe seguir siendo una actividad humana»[185].
234. Téngase en cuenta que la motivación de las providencias es una consecuencia del deber de los servidores judiciales de explicar razonadamente sus determinaciones, en un sistema como el nuestro, fundamentado en decisiones jurídicas y no de conciencia, punto sobre el cual la Corte Constitucional ha precisado que:
La motivación de los fallos judiciales es un deber de los jueces y un derecho fundamental de los ciudadanos, como posición jurídica concreta derivada del debido proceso. Desde el punto de vista del operador judicial, la motivación consiste en un ejercicio argumentativo por medio del cual el juez establece la interpretación de las disposiciones normativas, de una parte, y determina cómo, a partir de los elementos de convicción aportados al proceso y la hipótesis de hecho que se construye con base en esos elementos, es posible subsumir el caso concreto en el supuesto de hecho de una regla jurídica aplicable al caso. En el estado constitucional de derecho, la motivación adquiere mayor importancia. La incidencia de los derechos fundamentales en todas las áreas del derecho y la obligación de los jueces y operadores jurídicos de aplicar las reglas legales y/o reglamentarias sólo en la medida en que sean conformes con la Carta Política (aspectos conocidos en la doctrina constitucional como efecto irradiación, interpretación conforme y carácter normativo de la Constitución) exigen del juez un ejercicio interpretativo calificado que dé cuenta del ajuste entre su interpretación y los mandatos superiores, y que le permita, mediante el despliegue de una argumentación que tome en cuenta todos los factores relevantes, administrar el pluralismo de los principios constitucionales[186]
235. La Sala de Casación Civil de la Corte Suprema de Justicia, sobre el deber de motivar las decisiones, señaló lo siguiente:
Memórese que, dentro de las distintas clases de vías de hecho estructuradas por la jurisprudencia constitucional, se encuentra aquella relacionada con la falta de motivación[187] de la decisión cuestionada. Pues bien, como bien se sabe, esta propende por la salvaguarda del derecho de los ciudadanos a obtener respuestas suficientes y razonadas de la administración de justicia, cuestión que, valga decirlo, permite ejercer debidamente su derecho de contradicción.
Es por ello que la Sala ha señalado al respecto que “[e]l deber de motivar toda providencia que no tenga por única finalidad impulsar el trámite, reclama, como presupuesto sine qua non, que la jurisdicción haga públicas las razones que ha tenido en cuenta al adoptar la respectiva resolución, de tal manera que tras conocerlas se tenga noticia de su contenido para que no aparezca arbitraria, caprichosa, antojadiza, sino producto del análisis objetivo, amén de reflexivo de los diferentes elementos de juicio incorporados al plenario y dentro del marco trazado por el objeto y la causa del proceso”[188]
Así mismo, en reciente jurisprudencia apuntaló que: “Varios principios y derechos en los regímenes democráticos imponen la obligatoriedad de motivar la sentencia judicial: el de publicidad porque asegura la contradicción del fallo y muestra la transparencia con que actúan los jueces, pues si hay silencio en las causas de la decisión no habrá motivos para impugnar; el de racionalidad para disuadir el autoritarismo y la arbitrariedad; el de legalidad porque el fallo debe estar afincado en las en las normas aplicables al caso y en las pruebas válidamente recaudadas; los de seguridad jurídica y confianza legítima y debido proceso, entre otros, para materializar el principio de igualdad y aquilatar el Estado Constitucional.
“El deber de motivar toda providencia que no tenga por única finalidad impulsar el trámite, reclama, como presupuesto sine qua non, que la jurisdicción haga públicas las razones que ha tenido en cuenta al adoptar la respectiva resolución, de tal manera que tras conocérselas se tenga noticia de su contenido para que no aparezca arbitraria, caprichosa, antojadiza, sino producto del análisis objetivo, amén de reflexivo de los diferentes elementos de juicio incorporados al plenario y dentro del marco trazado por el objeto y la causa del proceso”[189]-[190]
236. Como puede observarse, la falta de motivación es una figura que ha sido ampliamente estudiada por la doctrina y por la jurisprudencia, la cual ha sostenido que se presenta cuando (i) la decisión carece totalmente de motivación; (ii) cuando siendo motivada, es dilógica o ambivalente; (iii) cuando su motivación es incompleta y (iv) cuando la motivación es aparente, falsa o sofística.
237. La ausencia de motivación se configura cuando no se precisan las razones de orden probatorio y jurídico que soportan la decisión; la motivación es ambivalente cuando acoge posturas contradictorias que impiden conocer su verdadero sentido, o las consideraciones expuestas son contrarias a la determinación adoptada en la parte resolutiva; es precaria o incompleta la motivación, cuando se omite analizar algún aspecto sustancial o las razones argüidas no alcanzan a traslucir el fundamento de la decisión y es aparente, falsa o sofística, cuando se aparta abiertamente de la verdad probada, por suposición, supresión o tergiversación de pruebas que objetivamente conducen a una conclusión jurídica diversa.
238. La falsedad de una motivación en una providencia judicial, en lo que tiene que ver con el uso de IA, se puede dar cuando esta produce alucinaciones que no son advertidas por el funcionario judicial, lo cual puede generar la violación al derecho fundamental del debido proceso.
239. El anterior riesgo debe ser evaluado por los funcionarios judiciales al momento de decidir su uso como fuente de ayuda, consulta, ampliación de la información, etc. Si bien la congestión del sistema judicial en Colombia y las fallas estructurales que hay en el mismo son barreras para que se acceda de manera idónea a la administración de justicia, las soluciones a esta problemática no deben producir impactos negativos sobre la calidad de las decisiones judiciales, ni menos sobre la efectividad de los derechos fundamentales comprometidos en su adopción.
240. No se puede perder de vista que la adopción de herramientas tecnológicas en la actividad judicial debe seguir plenamente el respeto por la Constitución, sus lineamientos y la salvaguarda de los derechos fundamentales, para que se garantice el acceso a la administración de justicia, el debido proceso, la igualdad y el derecho a la intimidad y la privacidad.
241. Teniendo en cuenta todo lo anterior, los jueces o magistrados tendrán a la mano una herramienta que puede facilitar una primera etapa de búsqueda, análisis, recopilación y síntesis de información, dependiendo del caso de estudio y, posteriormente, una posible ayuda en redacción, síntesis y lenguaje respecto del texto. Sin embargo, aunque existe el potencial de apoyar en la identificación de patrones de decisión y mejorar la coherencia en los fallos, también se generan importantes riesgos sobre el particular.
242. Como se señaló anteriormente, la IA puede producir contenido textual que no tiene sentido o que es gramaticalmente incorrecto. Estos resultados son causados por diferentes factores, tales como (i) que el modelo no está entrenado con suficientes datos, (ii) el modelo se ha entrenado con datos ruidosos o sucios[191], (iii) el modelo no tiene suficiente contexto y (iv) el modelo no tiene suficientes restricciones.
243. En el caso de ChatGPT 3.5, esta plataforma utiliza una base de datos que ha sido alimentada de fuentes públicas, datos de terceros con licencia e información creada por revisores humanos, lo cual, en principio, no garantiza que la información esté actualizada o sea relevante para el contexto nacional en términos de idioma, contexto social, cultural y/o económico[192]. Varios de los intervinientes[193] reiteran la necesidad de analizar la información arrojada por la IA de forma tal que no se llegue a caer en imprecisiones y en conceptos que tengan factores comunes y mayor recurrencia en internet, pero que desconocen el contexto y la especificidad de los asuntos por considerar.
244. Además, es necesario tener en cuenta que ChatGPT 3.5 no es una herramienta licenciada para la administración de justicia estatal y que sus respuestas no corresponden a un ejercicio razonado y especializado de ponderación en derecho. Esto implica que no se tiene un control sobre su diseño, conocimiento sobre la información por la que fue entrenada y la forma en la que la procesa, ni el acceso a ella para conocer o modificar su algoritmo[194].
245. Así, cuando se haga uso de este tipo de tecnologías el usuario debe asegurarse que el modelo adquirido esté entrenado con datos recientes, suficientes y relevantes para el caso nacional y el contexto correspondiente, lo cual no es el caso de ChatGPT 3.5. De lo contrario, si se hace una búsqueda de jurisprudencia o de revisión de literatura para sustanciar una decisión, pueden darse resultados erróneos, falsos o inexactos, con sesgos no controlados ni transparentes, que al final se pueden traducir en afectaciones a los derechos. Por tanto, el uso de un sistema sobre el que no se tiene ningún tipo de control y que además implica un conocimiento limitado, representa mayores riesgos para la identificación de alucinaciones[195]-[196] en las que puede incurrir la IA. De allí que se exija que el funcionario judicial que use estas herramientas y, por lo tanto se apoye en información generada por la IA, deba cumplir con un estándar alto de verificación para la veracidad en cuanto a las fuentes y datos suministrados por la máquina y, adicionalmente, se actualice respecto de la información consultada[197].
246. Lo anterior cobra especial relevancia, bajo el entendido de que la administración de justicia requiere que se cumpla con una alta diligencia de verificación de la veracidad y fiabilidad de la información consultada por el juez y su personal de apoyo. No es admisible que, bajo la excusa de una aparente eficiencia y necesidad de descongestionar el aparato jurisdiccional, se admita la inclusión en las providencias judiciales de textos generados por la IA, sin ningún tipo de control. El juez que así proceda incumple con su responsabilidad en la motivación de su decisión, dado que estaría incorporando datos o argumentos que pueden ser contrarios a la realidad y producto de alucinaciones provenientes de una herramienta tecnológica.
247. La anterior situación se evidencia en la diligencia de consulta en la plataforma ChatGPT, versión 3.5.[198] que se practicó en sede de revisión, en la que tres funcionarios del despacho sustanciador iniciaron sesión en dicha herramienta desde dispositivos y cuentas distintas para realizar las preguntas que formuló el Juez del Circuito, con tres enfoques diferenciados. Uno de los servidores planteó exactamente los mismos interrogantes, otro contextualizó al sistema antes de cada pregunta indicándole «soy un juez laboral de la República de Colombia», y un tercero, hizo lo propio identificándose como estudiante de derecho de una universidad en Colombia. A continuación, se transcribirán tanto las preguntas como las respuestas que le suministró ChatGPT al juez de tutela de segunda instancia, al funcionario del despacho sustanciador que realizó las mismas preguntas y a aquel que le manifestó ser un juez laboral en Colombia[199].
Pregunta a ChatGPT ¿Menor autista esta exonerado de pagar cuotas moderadoras en sus terapias? |
||
Respuesta sentencia objeto de revisión |
Respuesta Corte (pregunta idéntica) |
Respuesta (pregunta contexto juez colombiano) |
Sí, es correcto. De acuerdo con la normativa en Colombia, los menores con diagnóstico de autismo están exonerados de pagar cuotas moderadoras en sus terapias. Este beneficuento (sic) está regulado por la Ley 1753 de 2015 y se aplica a todas las instituciones prestadoras de servicios de salud públicas o privadas que reciban recursos del sistema general de seguridad social en salud. |
La exoneración de pagar cuotas moderadoras en terapias para personas con autismo puede variar según el país y las políticas específicas de salud pública. En algunos lugares, las personas con discapacidad, incluidos aquellos con autismo, pueden estar exentas de pagar ciertas tarifas médicas o pueden tener acceso a subsidios especiales para cubrir los costos de tratamiento. Para obtener información precisa sobre este tema en un país específico, se recomienda consultar con el sistema de salud local o con organizaciones gubernamentales relacionadas con la discapacidad. Además, es importante tener en cuenta que las leyes y políticas pueden cambiar con el tiempo, por lo que es útil buscar información actualizada. |
En Colombia, la normativa relacionada con la atención médica, incluyendo las cuotas moderadoras y copagos, está regulada por el Sistema General de Seguridad Social en Salud (SGSSS). Según la Ley 100 de 1993 y sus reformas posteriores, así como las normativas adicionales emitidas por el Ministerio de Salud y Protección Social, se establece que las personas con discapacidad tienen derecho a recibir atención médica integral sin discriminación. En este sentido, la exoneración de las cuotas moderadoras para personas con discapacidad, incluidos los menores autistas, puede depender de varios factores, como el tipo de discapacidad, la situación económica del paciente y su familia, entre otros. Es importante consultar con un abogado especializado en derecho de la salud o con las autoridades competentes del sistema de salud en Colombia para obtener una orientación precisa sobre este tema, ya que las regulaciones pueden variar y pueden existir disposiciones específicas en determinadas regiones o instituciones de salud. |
Pregunta a ChatGPT ¿Las acciones de tutela en estos casos se deben conceder? |
||
Respuesta sentencia objeto de revisión |
Respuesta Corte (pregunta idéntica) |
Respuesta (pregunta contexto juez colombiano) |
En caso de que una institución prestadora de servicios de salud no cumpla con la exoneración de cuotas moderadoras para un menor con diagnóstico de autismo, la persona o sus representantes legales pueden presentar una acción de tutela para proteger sus derechos. La tutela es un mecanismo judicial rápido y eficaz para proteger derechos fundamentales que se ven vulnerados.
Si se demuestra que el derecho a la salud del menor con autismo está siendo afectado por la exigencia de pagar cuotas moderadoras, es probable que la acción de tutela sea concedida y se ordene a la institución prestadora de servicios de salud cumplir con la exoneración. Sin embargo, cada caso es único y la decisión final depende de los hechos y circunstancias específicas del caso. |
Las acciones de tutela o recursos judiciales similares pueden ser una vía para buscar la protección de los derechos de las personas con autismo en relación con el acceso a la atención médica y los servicios terapéuticos. En muchos países, las personas con discapacidad tienen derechos legales protegidos que garantizan su acceso a servicios de salud y atención médica adecuada. Sin embargo, la concesión de una acción de tutela o recurso judicial específico dependerá de las leyes y regulaciones del país en cuestión, así como de las circunstancias individuales del caso. En general, las acciones de tutela pueden ser concedidas si se puede demostrar que los derechos de la persona con autismo están siendo violados y que existe una necesidad legítima de intervención judicial para proteger esos derechos.
Es importante buscar asesoramiento legal específico o consultar con un abogado especializado en derechos de discapacidad en su país para obtener orientación sobre las opciones disponibles y los pasos a seguir en casos particulares de acceso a la atención médica y servicios terapéuticos para personas con autismo. |
Como juez laboral en la República de Colombia, las acciones de tutela pueden ser un recurso válido en casos donde se considere que se está vulnerando el derecho a la salud de un menor autista al exigirle el pago de cuotas moderadoras en sus terapias. La tutela es un mecanismo legal que protege los derechos fundamentales de las personas cuando estos están siendo amenazados o vulnerados por parte de autoridades públicas o particulares.
En el caso específico de un menor autista que requiere terapias para su desarrollo y bienestar, si se demuestra que la imposición de cuotas moderadoras obstaculiza el acceso a dichas terapias y, por lo tanto, vulnera su derecho a la salud, podría ser procedente presentar una acción de tutela. Sin embargo, cada caso debe evaluarse individualmente y es necesario considerar todos los elementos y circunstancias específicas antes de tomar una decisión.
Como juez laboral, tu función será analizar detalladamente la situación presentada, evaluar si efectivamente se están vulnerando derechos fundamentales y, en caso afirmativo, tomar las medidas necesarias para restablecerlos. Siempre es recomendable buscar asesoramiento legal especializado para abordar correctamente estos casos y asegurar el debido proceso. |
Pregunta a ChatGPT ¿Exigir en estos casos la cuota moderadora es una barrera de acceso al servicio de salud?[200] |
|
Respuesta sentencia objeto de revisión |
Respuesta (pregunta contexto juez colombiano) |
Sí, en algunos casos, la exigencia de pagar cuotas moderadoras puede ser una barrera de acceso al servicio de salud para personas con diagnóstico de autismo, especialmente si tienen dificultades para obtener ingresos o si su situación económica es precaria. La exigencia de pagar cuotas moderadoras puede impedir o dificultar el acceso a tratamientos y terapias esenciales para el bienestar y desarrollo de los niños con autismo.
Por esta razón, la normativa en Colombia exime a los menores con diagnóstico de autismo de pagar cuotas moderadoras en sus terapias, con el objetivo de garantizar el acceso a estos servicios de salud esenciales sin obstáculos financieros. |
Como juez laboral en la República de Colombia, determinar si exigir la cuota moderadora en casos de terapias para menores autistas constituye una barrera de acceso al servicio de salud dependerá de las circunstancias específicas de cada caso. La cuota moderadora es un mecanismo establecido por el Sistema General de Seguridad Social en Salud (SGSSS) para financiar parcialmente los servicios de salud y, en principio, no debería constituir una barrera para acceder a la atención médica.
Sin embargo, en situaciones donde se evidencie que el pago de la cuota moderadora representa una carga financiera excesiva para la familia del menor autista, y que esta carga impide o dificulta significativamente su acceso a las terapias necesarias para su desarrollo y bienestar, podría considerarse como una barrera de acceso al servicio de salud.
Es importante tener en cuenta que en casos donde se involucra a personas con discapacidad, como los menores autistas, se debe garantizar el principio de igualdad y no discriminación en el acceso a los servicios de salud. Por lo tanto, como juez laboral, deberás evaluar si la exigencia de la cuota moderadora en el caso específico representa una limitación injustificada para el acceso a las terapias necesarias para el menor autista, y en caso afirmativo, podrías considerar que constituye una barrera de acceso al servicio de salud. |
Pregunta a ChatGPT ¿La jurisprudencia de la corte constitucional (sic) ha tomado decisiones favorables en casos similares? |
||
Respuesta sentencia objeto de revisión |
Respuesta Corte (pregunta idéntica) |
Respuesta (pregunta contexto juez colombiano) |
Sí, es cierto. La Corte Constitucional de Colombia ha tomado decisiones favorables en casos similares relacionados con la exoneración de cuotas moderadoras para personas con diagnóstico de autismo. La jurisprudencia ha reconocido la importancia de garantizar el acceso a servicios de salud esenciales para las personas con autismo, y ha sostenido que la exigencia de pagar cuotas moderadoras puede ser una barrera de acceso a estos servicios. La jurisprudencia de la Corte Constitucional es una fuente importante para interpretar y aplicar la Constitución y las leyes en Colombia, y sus decisiones son vinculantes para todas las autoridades y entidades públicas del país. Por lo tanto, las decisiones favorables en casos similares pueden ser útiles como precedente para otros casos en los que se debata la exigencia de pagar cuotas moderadoras para personas con diagnóstico de autismo. |
No tengo acceso en tiempo real a bases de datos o jurisprudencia específica de ningún país o corte. Sin embargo, en muchos países, las cortes constitucionales han tomado decisiones favorables en casos relacionados con los derechos de las personas con discapacidad, incluidas aquellas con autismo, en términos de acceso a servicios de salud y terapias. Es posible que la jurisprudencia de la corte constitucional de un país haya establecido precedentes favorables en casos similares, reconociendo el derecho de las personas con autismo a recibir atención médica adecuada y terapias necesarias sin discriminación. Estas decisiones pueden basarse en los principios constitucionales de igualdad, no discriminación y protección de los derechos de las personas con discapacidad.
Para obtener información específica sobre decisiones judiciales en casos de este tipo, se recomienda consultar directamente las bases de datos de jurisprudencia del país en cuestión o buscar asesoramiento legal especializado en derechos de discapacidad. |
Sí, la Corte Constitucional de Colombia ha emitido decisiones favorables en casos similares relacionados con el acceso a la salud de personas con discapacidad, incluidos menores autistas. La jurisprudencia de la Corte Constitucional ha establecido que el acceso a los servicios de salud es un derecho fundamental protegido por la Constitución colombiana, y que cualquier barrera que impida o dificulte injustificadamente el acceso a estos servicios puede ser considerada como una violación de los derechos fundamentales de las personas.
En casos donde se ha demostrado que la imposición de cuotas moderadoras o copagos representa una carga excesiva para las personas con discapacidad, la Corte Constitucional ha ordenado a las entidades de salud exonerar o reducir dichos pagos, con el fin de garantizar el acceso efectivo a la atención médica necesaria.
Es importante consultar la jurisprudencia más reciente de la Corte Constitucional para obtener orientación sobre cómo han sido resueltos casos similares en el pasado y cómo se han interpretado los derechos de acceso a la salud en contextos específicos, incluidos aquellos relacionados con menores autistas y personas con discapacidad en general. Esto proporcionará una base sólida para tomar decisiones como juez laboral en casos similares que se presenten ante ti. |
248. Aunado a lo anterior, en la citada diligencia, se le preguntó a ChatGPT si podía dictar una decisión judicial, a lo que el sistema de IA respondió negativamente. Señaló que ese y otros modelos de lenguaje similares no están diseñados para dictar decisiones judiciales pues, aunque pueden generar texto coherente y contextualmente relevante, «carecen de la capacidad para ejercer el juicio legal y la interpretación de la ley que son necesarios para dictar una decisión judicial válida». Agregó que «la toma de decisiones judiciales implica una comprensión profunda de la ley, precedentes judiciales, argumentos legales y principios éticos, así como un análisis cuidadoso de las pruebas presentadas en un caso», en ese sentido «[s]i bien los modelos de lenguaje como ChatGPT 3.5 pueden ser útiles como herramientas de apoyo para la investigación legal y la redacción de documentos legales, la responsabilidad de dictar decisiones judiciales recae en los jueces y profesionales del derecho con la capacitación y experiencia necesarias en el sistema legal correspondiente».
249. Seguidamente, respondió de manera afirmativa a la pregunta acerca de si podía corregir un proyecto de sentencia, precisando que, para tales efectos, la utilidad de la herramienta radica en la identificación de errores gramaticales o la mejora de la redacción, «pero su uso debe ser complementario a la supervisión y revisión humana, especialmente en lo que respecta al contenido legal». Destacó que, en tales casos, es importante considerar aspectos como (i) las limitaciones del sistema en el conocimiento legal, (ii) la necesidad de supervisión humana y (iii) la confidencialidad y seguridad de los datos.
250. Frente al primer aspecto, resaltó la falta de capacidad del sistema para proporcionar correcciones sustantivas en términos de contenido legal, debido a que no tiene conocimiento específico sobre leyes, jurisprudencia o procedimientos legales en un país particular. En cuanto a la supervisión humana, señaló que ChatGPT puede cometer errores o producir sugerencias que no son adecuadas para un proyecto de sentencia judicial, por lo que cualquier corrección sugerida por el modelo debe ser revisada y validada por un ser humano con experiencia en derecho. Finalmente, advirtió que, al usar un modelo de lenguaje en la corrección de un proyecto de sentencia judicial, se debe garantizar la confidencialidad y seguridad de los datos legales sensibles que puedan estar involucrados en el proceso.
251. En efecto, de la diligencia de consulta que practicó el despacho sustanciador, se observa que al cabo de poco más de un año, las respuestas de la plataforma, pese a formular las mismas preguntas, no se mantienen iguales y que el contexto que se le otorgue también determina el tipo de resolución que aquella brinda. Además, es claro que la misma herramienta conoce sus limitaciones y establece no ser apta para emitir decisiones judiciales o aportar información completa en cuanto al fondo de un caso jurídico, pues no es su especialidad ni está diseñada para cumplir esta función, por lo que el juez o quien la use debe contrastar y confirmar lo comunicado.
252. Aunque la IA generativa puede reproducir referencias y ejemplos correctos de sus datos de entrenamiento, no tiene una base factual sólida ni un método para hacer verificaciones de sus resultados, basadas en los hechos. Por tanto, pueden producirse resultados que parezcan reales, pero que de hecho son fabricados o «alucinados»[201]. De acuerdo con Center Statistics Office[202], alrededor del 62% de la información que se encuentra en la red no es confiable, no está verificada o puede ser falsa[203].
253. En el contexto de la administración de justicia, esto representa un alto riesgo al momento de acudir a una IA que no sea especializada y que no sea administrada por la Rama Judicial, debido a que se puede emplear información falsa o incoherente. En efecto, a nivel mundial se conocen algunos casos fallidos del uso de herramientas de IA a la práctica del derecho. Uno de los más sonados es el caso Mata vs Avianca. En él, un pasajero de la compañía aérea Avianca alegó haber sufrido lesiones al recibir un golpe en la rodilla con un carro metálico del servicio de comida durante un vuelo al aeropuerto internacional Kennedy de Nueva York. La aerolínea le pidió a un juez federal de Manhattan que desestimara el caso, a lo que los abogados del señor Mata se opusieron con un escrito en el que citaron una serie de decisiones judiciales en las que presuntamente se habría aplicado el criterio jurídico que apoyaba la procedencia de las súplicas de la demanda. El abogado y la firma fueron sancionados al constatar que la información presentada ante la corte era falsa y había sido resultado de la consulta que efectuó dicho profesional en ChatGPT.
254. Ahora, estos eventos son problemáticos en la medida en que sólo pueden ser verificados y corregida la información por el propio usuario, si este realmente se toma el tiempo y es riguroso en la realización de su investigación. Situación que, si no se gestiona con cuidado, puede generar un aumento de la carga de trabajo y, en lugar de simplificarse los procesos y ahorrarse costos, puede generarse una necesidad de revisión y validación de los resultados generados por la IA, que termine sobrecargando la gestión del operador. Esta carga de trabajo adicional puede resultar en pérdidas financieras de las organizaciones debido al mayor tiempo y esfuerzo requerido y, además, existe la posibilidad de que aumenten los costos legales y laborales si surgen disputas o problemas relacionados con el contenido generado por la IA y aplicado por el operador.
255. Adicionalmente, la información con la que las IAs son entrenadas y realizan sus predicciones no se renueva de forma automática, lo que implica que estos sistemas requieran de un proceso constante de actualización y revisión para que sus respuestas no se vuelvan anacrónicas. Sin embargo, la Fundación Karisma y El Veinte expusieron que, aunque existiera una herramienta que se actualice con esa agilidad, «los resultados del sistema de aprendizaje automático no dejan de basarse en datos históricos, lo que en últimas implica que no hay lugar a la innovación dentro del sistema»[204]. ChatGPT puede ser una herramienta que genere respuestas ante situaciones novedosas, no obstante, lo hace a través de un proceso de generalización que le permite aplicar su conocimiento programado mediante «entradas nuevas», más no por medio de innovación[205].
256. En conclusión, el uso de IA puede arrojar output incorrectos o falsos que de ser usados en la construcción de una decisión judicial pueden llevar a que su motivación sea incorrecta o falsa y, por tanto, inválida. De darse esta situación, la providencia incurriría en yerros que conducirían a la violación del debido proceso.
257. Ahora bien, en cuanto a la independencia e imparcialidad del juez que utiliza IA, ella dependerá en gran medida de los datos con los que se entrena la herramienta, lo que genera marcadas inquietudes, ya no sobre las alucinaciones, sino sobre posibles sesgos que esta tenga. En efecto, las respuestas ofrecidas por el modelo de lenguaje pueden incorporar sesgos que el usuario final desconoce y aun cuando estos también pueden acaecer en la gestión humana, no cabe duda de su particular incidencia en el ámbito de la IA.
258. Por ejemplo, la Fundación Karisma y El Veinte mencionaron, en su intervención, que «en la medida en que [la IA] está entrenad[a] con información de todo el mundo y el volumen de información disponible sobre el norte global es más amplio que la información del sur global[206], el sistema podría estar, por ejemplo, favoreciendo líneas jurisprudenciales norteamericanas o europeas por el simple hecho de que su volumen en las bases de datos es mayor. Estos sesgos implícitos son difíciles o imposibles de notar para el usuario final, pues no existe una manera de rastrear las fuentes específicas que el modelo usa para ofrecer cada una de sus respuestas»[207].
259. Esta situación indudablemente puede afectar derechos fundamentales. Un caso que ilustra a la perfección el asunto tiene que ver con lo ocurrido en las revisiones del Harm Assessment Risk Tool (HART)[208], el cual reveló que el hecho de que los resultados se den teniendo en cuenta datos como el lugar en donde vive el sujeto, su género o la comunidad a la que pertenece incide en los pronósticos individuales y puede reflejarse en sesgos contra grupos históricamente discriminados. Asimismo, las herramientas de IA usan datos históricos para alimentar su sistema y potenciar su capacidad, estos incluyen sesgos que se han ido superando con el paso de los años, pero que muchas veces la IA no tiene la capacidad de discernir.
260. Tales sesgos, que generan discriminación, también se encuentran presentes en ChatGPT 3.5. La propia plataforma ha establecido que sus resultados pueden resultar sesgados, toda vez que esta herramienta produce datos de salida a través de la generalización que le permite aplicar el conocimiento utilizado en su entrenamiento frente a entradas nuevas, lo que puede incidir en que se perpetúen los sesgos que están presentes en sus datos de entrenamiento, produciendo respuestas basadas en estereotipos o en el favorecimiento de ciertos grupos o ideas[209], lo cual entraña un peligro mayúsculo, por ejemplo, frente a poblaciones minoritarias o sujetos de especial protección constitucional.
261. Sobre este punto, es importante recordar que ChatGPT fue desarrollado con múltiples fines, por un privado (OpenAI) y que no es clara la forma de entrenamiento que se usó para su configuración, por lo que no es posible precisar cuáles son los sesgos que puede contener o aplicar, lo que sumado a la falta de referenciación de las fuentes que utiliza para brindar respuestas, dificulta aún más la posibilidad de identificar aquellos. Estos no se predican sólo de los resultados o predicciones que puede dar una IA sino de todo su ciclo de vida, pues la creación, diseño e implementación de algoritmos implícitamente comprende juicios de valores esenciales[210].
262. En los sistemas procesales tradicionales, la imparcialidad de los jueces se vincula a las causales de impedimento y recusación, las cuales se han clasificado en subjetivas u objetivas[211]. La imparcialidad subjetiva busca que el funcionario no tenga impedimento con respecto a las partes en razón a sus relaciones con los sujetos procesales; por su parte la imparcialidad objetiva busca que el funcionario no tenga impedimento con respecto a la pretensión demandada al haber intervenido de alguna forma en la litis anteriormente.
263. Al usarse IA generativas por parte de los jueces, la imparcialidad debería predicarse también de la herramienta pues, dependiendo de sus sesgos, podrían verse afectada algunas de las partes en la causa, con el agravante de que dicha parcialidad puede llegar a ser desconocida o no percibida y pone en entredicho la transparencia de la judicatura.
264. Por tanto, la transparencia y la explicabilidad de las IA que se usen dentro de los sistemas judiciales son principios que se deben proteger con el fin de no afectar derechos fundamentales, puesto que su ausencia imposibilita que los ciudadanos se enteren, entiendan y evidencien la trazabilidad de las decisiones de los jueces y, de ser el caso, tomen las medidas necesarias para impugnarlas. Es esencial aclarar a todos a quienes afecta una decisión judicial cómo funciona la tecnología utilizada, los beneficios asociados y la descripción del contenido de datos necesarios para impulsar cualquier solución proporcionada o sugerida. Esto no sólo demuestra responsabilidad por parte del juez, sino que también genera confianza en las soluciones ofrecidas y se constituye en un imperativo mínimo de cara a la garantía de derechos procesales y materiales en juego.
265. En razón de ello, la transparencia y explicabilidad de estas tecnologías debe implicar que cuando se usen, se den a conocer de manera irrestricta los datos utilizados, la forma en la que funcionan, los casos en los que se usan y el lugar que ocupan dentro de la decisión judicial. Así, es imperativo aclarar, por ejemplo, que estas herramientas se empleen únicamente para búsquedas de jurisprudencia, literatura, etc., pero que no pueden implicar que la decisión al final deje de ser tomada por el juez.
266. Según el Instituto Nacional de Estándares y Tecnología (NIST por sus siglas en inglés), para que se cumpla con estos principios se debe[212] (i) proporcionar evidencia, apoyo o razonamiento relacionado con un resultado o un proceso de un sistema de IA, es decir, poner en conocimiento de la persona si se hizo uso de una IA; (ii) emitir una explicación comprensible para el receptor de la información. En otras palabras, se busca que la explicación sea inteligible para un determinado público; (iii) ofrecer una explicación precisa, rigurosa y completa, y (iv) identificar y declarar cuales son los límites del sistema utilizado, ya que este no es perfecto o infalible.
267. Adicional, se ha planteado que, en estos casos, la explicación no sólo debe reflejar de manera precisa el razonamiento del sistema, sino que debe ser (i) comprensible y convincente para el usuario, (ii) completa y (iii) específica. Ello, en el sentido de que hay usuarios diferentes, en diferentes circunstancias y con diferentes resultados[213]. En cuanto a lo anterior, es destacable mencionar que el uso de la herramienta sólo ha salido a luz cuando es declarado por los jueces mismos, lo cual podría implicar que se haya utilizado en más casos de los que se conocen, sin que su uso haya sido puesto en conocimiento de las partes involucradas. En este sentido, la transparencia con respecto al uso es un pilar fundamental al considerar el empleo de estas herramientas en la gestión de procesos judiciales.
268. Con el fin de promover la transparencia, un buen punto de discusión es la necesidad que existe de evitar el uso de algoritmos de black box[214], respecto de los cuales se conocen los datos de entrada y el resultado, pero no la forma en la que la información es procesada. Sobre ello debe tenerse en cuenta que, como hasta el momento no se ha generado una IA especializada para la Rama Judicial y que las IAs son mayormente desarrolladas por empresas privadas, es importante encontrar un balance entre la necesidad de transparencia y los derechos que se tienen sobre propiedad intelectual, pues el respeto de estos últimos puede suponer un obstáculo para comprender la manera en que fueron creadas y siguen siendo implementadas a lo largo del ciclo de vida. Por ello, en pro de los intereses generales, el uso de IA en el sistema judicial debería priorizar herramientas que permitan materializar el mandato de transparencia en la utilización de estas tecnologías, por sobre aquellas que no permitan conocer con certeza y claridad el origen de los datos de entrenamiento ni la forma en que funcionan.
269. De otra parte, la política pública sobre IA debe contemplar mecanismos de transparencia y de acceso a la información a lo largo del proceso de implementación. Los usuarios y la sociedad civil deben poder entender en qué etapas de la administración de justicia, o de cualquier proceso público, se usa la tecnología, qué resultados ha producido, qué mecanismos se tienen para impugnarla y qué salvaguardas existen para proteger los derechos fundamentales.
270. La carga que tiene el funcionario judicial de explicar el uso de IA en una decisión judicial, conforme al ejercicio del principio de transparencia, no se limita a que el juez informe que se hizo uso de tal herramienta, sino que le impone el estar también informado respecto de la tecnología que está utilizando. De lo contrario, si el juez o magistrado no comprende el alcance y funcionamiento del instrumento tecnológico, es imposible que se transmita este tipo de información en la decisión judicial y, por ende, que se cumpla con el deber de transparencia.
271. Como se ha advertido a lo largo de esta providencia, algunos usos de la IA generan un alto riesgo de cara a los derechos fundamentales, por tanto, su empleo por parte del funcionario judicial debe ser informado, transparente, ético, respetuoso de la privacidad y responsable. Ello, por lo menos, implica que previo a su utilización, se tenga conocimiento de quién o qué empresa desarrolló la herramienta, cómo fue desarrollada, cómo funciona, qué funciones puede desempeñar, cuáles son sus términos de uso, qué hace la empresa con la información que recolecta del usuario y qué limitaciones y/o riesgos presenta para el usuario y/o para terceros. Además, es esencial que los funcionarios judiciales estén capacitados sobre cómo deben utilizarse estas herramientas, entendiendo el propósito específico de cada una y cómo se puede hacer un uso adecuado de ellas para obtener resultados confiables y apropiados en el contexto judicial. Si bien, la información de estos aspectos no elimina los riesgos, sí contribuye a prevenirlos.
272. Adicionalmente, en virtud de cumplir con los principios de transparencia y responsabilidad, es necesario satisfacer la carga de verificación de los datos, la respectiva identificación de las fuentes y el reconocimiento de la autoría de las tesis incorporadas en su fallo. Como lo señalaron varios de los intervinientes, al no ser el ChatGPT una persona, no puede atribuírsele la coautoría de los textos que produce. Por tal motivo, con el fin de evitar la apropiación indebida de creaciones intelectuales por parte de los jueces o magistrados, los fallos que acudan a este tipo de herramientas deberán dar cuenta del origen y la idoneidad de la información utilizada, ya sean fuentes legales, jurisprudenciales, doctrinarias, entre otras.
273. En conclusión, el uso de IA generativa en la administración de justicia, sin salvaguardas, puede afectar el deber de motivar las decisiones judiciales, las garantías del juez natural independiente e imparcial y el derecho a la defensa al producirse desconfianza sobre la fiabilidad de las decisiones y, por tanto, promoverse que fácticamente se dé un reemplazo del juez por parte de la herramienta y la adopción de los fallos dentro del sistema judicial. La protección de estos derechos, se encuentra basada en el cumplimiento del principio de transparencia y explicabilidad por parte de los jueces, ya que se hace imprescindible que las partes interesadas conozcan los fundamentos usados por estos para que en contraposición se puedan tomar las decisiones procesales adecuadas, en particular, frente al ejercicio del derecho de contradicción, de lo contrario, un mal uso de las IA puede conllevar a la vulneración del derecho fundamental al debido proceso.
(ix) El debido proceso probatorio en un sistema jurisdiccional que utiliza IA[215]
274. Otro de los derechos fundamentales que se puede ver afectado por un mal uso de la IA es el del debido proceso probatorio. Esta corporación ha explicado que este derecho fundamental supone un conjunto de garantías en cabeza de las partes en el marco de toda actuación judicial o administrativa[216]. De este modo, ha afirmado que estas tienen derecho (i) a presentar y solicitar pruebas; (ii) a controvertir las que se presenten en su contra; (iii) a la publicidad de las evidencias, en la medida en que de esta forma se asegura la posibilidad de contradecirlas, bien sea mediante la crítica directa a su capacidad demostrativa o con apoyo en otros elementos; (iv) a que las pruebas sean decretadas, recolectadas y practicadas con base en los estándares legales y constitucionales dispuestos para el efecto; (v) a que el funcionario que conduce la actuación decrete y practique de oficio los elementos probatorios necesarios para asegurar el principio de realización y efectividad de los derechos (arts. 2.º y 228 C.P.) y (vi) a que se evalúen por el juzgador las pruebas incorporadas al proceso[217].
275. Conforme a nuestro ordenamiento jurídico, el decreto y la evaluación de las pruebas es una tarea que debe estar en cabeza del juez natural, cuyo ejercicio no puede dejarse a una IA, tal como se explicó en líneas anteriores. El decreto de pruebas comporta (i) el estudio de la licitud y legalidad de la prueba y (ii) el de pertinencia, conducencia y utilidad de esta.
276. Conforme con lo anterior, le corresponde al juez determinar, al momento de ordenar una prueba, cuáles son sus requisitos legales esenciales y su incidencia en derechos fundamentales, para discernir su proyección y trascendencia sobre el debido proceso, toda vez que su incumplimiento conllevaría la exclusión del medio de prueba[218]. Así, la Sentencia T-916 de 2008, reiterada entre otras en la Sentencia SU-371 de 2021, señala que existe:
[U]na distinción entre la prueba ilegal, entendida como aquella que afecta el debido proceso desde el punto de vista procesal formal (incompatibilidad con las formas propias de cada juicio), y la prueba inconstitucional, que es aquella que transgrede igualmente el debido proceso, pero desde una perspectiva sustancial, en tanto es obtenida vulnerando derechos fundamentales[219]
277. Ahora bien, si el funcionario judicial se apoya en una IA para establecer cuáles son los estándares constitucionales y legales dispuestos para ordenar y practicar un específico medio probatorio, debe tener en cuenta que la herramienta puede producir alucinaciones, señalándole formalidades que no hacen parte del ordenamiento jurídico o tergiversando el alcance de otras, lo cual puede conducir a que la evidencia se tenga como inexistente y no pueda ser aducida a la actuación o deba ser excluida, ante el desconocimiento de las formas propias establecidas para su orden y práctica.
278. El uso de la herramienta, como apoyo a la actividad probatoria mencionada, requiere altos estándares de verificación de la información suministrada por la IA, lo que quiere decir que el juez o magistrado debe hacer una revisión juiciosa al finalizar la consulta de este tipo de tecnologías, con el fin de no verse vulnerado el derecho al debido proceso probatorio.
279. De otra parte, en lo que se refiere a la licitud de la prueba, dicha tarea está ligada, en muchas ocasiones, a juicios de ponderación y proporcionalidad, propios de los sistemas conflictualistas de interpretación, en donde en cada caso, de acuerdo con sus particularidades, se debe establecer cuál es el derecho prevalente. También se podría acudir a la IA para valorar una particular prueba o los elementos probatorios en su conjunto.
280. Realizar las anteriores tareas a través de una IA resulta problemático, en primer lugar, porque en nuestro ordenamiento jurídico la función de valorar la prueba es del juez natural, que debe ser un humano, como ya se explicó. En segundo lugar, porque si para tales fines, se usa la IA como apoyo a la labor judicial, como, por ejemplo, para saber cuántas pruebas testimoniales hay en una actuación, de quien, en qué fechas se rindieron, etc., ello podría suponer la entrega del medio de prueba para que sea introducido como dato (input) a la herramienta, con la finalidad de que esta entregue un resultado (output). Con dicho proceder, si no se guardan las cautelas necesarias, se podría estar violando la reserva procesal, si el proceso la aplica, o afectar derechos fundamentales como el habeas data o la intimidad, como ocurre en el caso de los procesos por acciones de tutela. Así, si la IA es de propiedad de un particular, como lo es ChatGPT, a este, finalmente, es a quien se le estaría entregando la prueba o la información del proceso, lo cual podría originar responsabilidades disciplinarias o penales para el servidor judicial.
281. Respecto al derecho a la intimidad y la privacidad de los datos que obran en la prueba judicial, es esencial que los jueces velen porque las personas conserven los derechos sobre ellos. En ese sentido, el marco de protección debe dirigirse a que se garantice la transparencia frente al usuario del sistema judicial, sobre el uso que el operador judicial de a sus datos y asegurar un tratamiento con salvaguardas para la data sensible. Especialmente, debe evitarse que el uso de algoritmos no licenciados permita que privados o terceros procesen datos personales y los reutilicen haciéndolos ampliamente accesibles.
282. La Superintendencia de Industria y Comercio ha señalado que «la IA involucra la recolección, el almacenamiento, el análisis, procesamiento o in- terpretación de enormes cantidades de información (incluidos los datos personales) que son usados para generar diversos resultados, acciones o comportamientos por parte de las máquinas. En otras palabras, los datos personales son el alimento o el combustible de la IA y mediante la misma se realizan tratamientos de dicha información los cuales deben ser respetuosos de la Ley 1581 de 2012 y sus normas reglamentarias»[220].
283. Como se ve, Colombia[221] cuenta con una legislación en materia de protección de datos personales, contenida principalmente por la Ley 1581 de 2012 y sus decretos reglamentarios. Esta ley establece las bases para el tratamiento adecuado de los datos personales, garantizando los derechos fundamentales de sus titulares. Aquella norma clasifica como datos sensibles:
[A]quellos que afectan la intimidad del Titular o cuyo uso indebido puede generar su discriminación, tales como aquellos que revelen el origen racial o étnico, la orientación política, las convicciones religiosas o filosóficas, la pertenencia a sindicatos, organizaciones sociales, de derechos humanos o que promueva intereses de cualquier partido político o que garanticen los derechos y garantías de partidos políticos de oposición así como los datos relativos a la salud, a la vida sexual y los datos biométricos.
284. En similar sentido, el artículo 18 de la Ley Estatutaria 1712 de 2014[222] excluye del acceso, la información pública cuya circulación pueda ocasionar daño a los derechos fundamentales de personas naturales o jurídicas, especialmente, la intimidad, la vida, la salud o la seguridad y los secretos comerciales, industriales y profesionales. En la misma línea, la Sentencia T-487 de 2017[223] estableció que:
Dentro de esta perspectiva ha dicho la Corte de manera reiterada, que desde el punto de vista cualitativo y en función de su publicidad y de la posibilidad legal de obtener acceso a la misma, la información corresponde a cuatro grandes tipos[224]: la información pública o de dominio público, la información semi-privada, la información privada y la información reservada o secreta.
La información pública, calificada como tal según los mandatos de la ley o de la Constitución, puede ser obtenida y ofrecida sin reserva alguna y sin importar si la misma sea información general, privada o personal. Por vía de ejemplo, pueden contarse los actos normativos de carácter general, los documentos públicos en los términos del artículo 74 de la Constitución, y las providencias judiciales debidamente ejecutoriadas; igualmente serán públicos, los datos sobre el estado civil de las personas o sobre la conformación de la familia. Información que puede solicitarse por cualquier persona de manera directa y sin el deber de satisfacer requisito alguno.
En segundo término se encuentra la información semi-privada, siendo aquella que por versar sobre información personal o impersonal y no estar comprendida por la regla general anterior, presenta para su acceso y conocimiento un grado mínimo de limitación, de tal forma que la misma sólo puede ser obtenida y ofrecida por orden de autoridad administrativa en el cumplimiento de sus funciones o en el marco de los principios de la administración de datos personales. Es el caso de los datos relativos a las relaciones con las entidades de la seguridad social o de los datos relativos al comportamiento financiero de las personas.
Luego se tiene la información privada, aquella que por versar sobre información personal o no, y que por encontrarse en un ámbito privado, sólo puede ser obtenida y ofrecida por orden de autoridad judicial en el cumplimiento de sus funciones. Es el caso de los libros de los comerciantes, de los documentos privados, de las historias clínicas o de la información extraída a partir de la inspección del domicilio.
Finalmente se encuentra la información reservada, que por versar igualmente sobre información personal y sobre todo por su estrecha relación con los derechos fundamentales del titular - dignidad, intimidad y libertad- se encuentra reservada a su órbita exclusiva y no puede siquiera ser obtenida ni ofrecida por autoridad judicial en el cumplimiento de sus funciones. Cabría mencionar aquí la información genética, y los llamados "datos sensibles"[225] o relacionados con la ideología, la inclinación sexual, los hábitos de la persona, etc.
285. En este contexto, el juez que decida usar sistemas de IA generativa debe ser especialmente consciente de su responsabilidad en el manejo de información legal sensible y que contenga datos personales. Lo aconsejable, según los desarrollos pertinentes, sería poder contar con una IA de propiedad y uso exclusivo de la Rama Judicial, frente a la que se sepa cuáles son sus algoritmos, cómo se procesa la información, para tener el control sobre las seguridades de la información.
286. Según la Escuela de Gobierno de la Universidad de los Andes[226] uno de los aspectos clave en esta materia, para las organizaciones, es la realización de un análisis de impacto en cuanto a privacidad (PIA por sus siglas en inglés). Este análisis implica evaluar de manera integral cómo la implementación de sistemas de IA generativa afectará la privacidad de los titulares de datos. Por tanto, debe incluir la identificación de los datos que se recopilarán, el propósito de su recopilación, cómo se almacenarán y protegerán y las posibles implicaciones para los derechos de privacidad de los individuos. Este proceso es fundamental para asegurar que se cumplan con los principios de transparencia, consentimiento, finalidad y seguridad de datos, tal como lo establece la legislación colombiana[227].
287. Del mismo modo, precisó dicha institución que, para garantizar la privacidad y seguridad de los datos en sistemas de IA, las organizaciones deberían implementar medidas sólidas de ciberseguridad. Esto incluye el cifrado de datos, el acceso restringido a información sensible, la formación adecuada del personal y la implementación de políticas de retención de datos. Finalmente, manifestó que es fundamental que la Rama Judicial pueda garantizar todos estos requerimientos como principal responsable de la información a pesar de que se delegue esta tarea a terceros.
288. Sobre la preocupación que existe en cuanto a la seguridad y protección de datos en IA como ChatGPT, varias empresas, entre ellas Samsung, Apple y Goldman Sachs, han prohibido a sus empleados utilizar este tipo de servicios en su trabajo[228]. Dado que muchos de los casos de uso propuestos en el contexto de la administración de justicia implicarían la introducción de datos sensibles, no parece aconsejable asumir tal riesgo cuando las consecuencias de cualquier filtración o exposición de datos serían muy graves.
289. Precisando el análisis en el sistema de ChatGPT es importante indicar que, según los términos y condiciones de uso, la información introducida por los usuarios en sus consultas podrá ser utilizada por la empresa para el desarrollo de sus herramientas y, recientemente, se han presentado incidentes por fallos en la seguridad de la protección de los datos personales de usuarios de ChatGPT[229]. Sumado a lo anterior, se tiene que dicho sistema ha sido investigado por autoridades de protección de datos personales, incluyendo la colombiana[230] y la española[231].
290. Dado que la información que se introduce a la plataforma puede ser apropiada y usada por la dueña del sistema, si la consulta contiene datos personales que involucre información del caso concreto podría verse afectada la seguridad y protección de la intimidad por divulgación de datos que no deberían quedar expuestos y a disposición de terceros. Ante tales circunstancias, no está permitido por el ordenamiento jurídico colombiano introducir datos del proceso que sean semiprivados, privados o reservados a una IA cuyo propietario sea un particular, pues ello conllevaría, se reitera, una transgresión a la reserva sumarial, al habeas data y al derecho a la intimidad, lo cual impide su uso.
291. Además, al no conocerse los datos que alimentan a la IA, sus algoritmos o cómo se realiza su procesamiento de datos, ello les impediría a las partes de un proceso conocer los argumentos en los que se fundan los resultados de la IA, impidiéndoles ejercer debidamente el derecho de contradicción probatorio.
292. En muchas de las IA, entre ellas ChatGPT, no hay certeza sobre el tipo de raciocinios que realizan; para esto sería necesario tener un control sobre ella, lo cual no se tiene frente a las IA privadas.
293. Adicionalmente, debe considerarse que la IA se ha utilizado para otros fines en el sistema judicial. Así por ejemplo en el ámbito de investigación penal se ha hecho uso de la IA especialmente con propósitos predictivos y para la localización de individuos. Particularmente en el escenario de la justicia penal se discute con gran énfasis la utilización de tecnologías de IA para identificar y ubicar presuntos delincuentes, así como en el perfilamiento de sujetos, con el propósito de establecer en términos estadísticos la posibilidad de que cometan conductas penales o reincidan en ellas. Dicho uso ha sido cuestionado al comprobarse que la información suministrada por la IA puede estar llena de sesgos, fundándose en discriminaciones y estigmatizaciones, y además con la posibilidad de incurrir en el desconocimiento del derecho fundamental a la presunción de inocencia.
294. En Estados Unidos de América, uno de los usos centrales de la IA en los ámbitos judiciales ocurre en el sistema penal[232]. Varias jurisdicciones en los Estados Unidos utilizan una herramienta llamada «COMPAS» basada en IA desarrollada por el sector privado para hacer evaluación de riesgos y predicción de conducta criminal. Al indagar sobre la exactitud de los resultados
Se encontró que las predicciones de COMPAS eran precisas el 60% del tiempo en todos los tipos de delitos. Sin embargo, la tasa de precisión de la predicción para delitos violentos fue solo del 20%. Además, el estudio señaló disparidades raciales. El algoritmo identificó erróneamente a los acusados negros como futuros criminales el doble de veces que lo hizo con los acusados blancos. Este estudio atrajo la atención de los medios y sus resultados fueron cuestionados por errores estadísticos. COMPAS es un algoritmo de “caja negra”, lo que significa que nadie, incluidos sus operadores, tiene acceso al código fuente.
El uso de COMPAS fue impugnado en los tribunales con opositores afirmando que su naturaleza propietaria viola el derecho de los acusados a un debido proceso legal. El Tribunal Supremo de Wisconsin aprobó el uso de COMPAS en la sentencia. Sin embargo, debe seguir siendo una herramienta de asistencia y el juez debe conservar plena discreción para determinar factores adicionales y ponderarlos en consecuencia. La Corte Suprema de los Estados Unidos denegó una petición para escuchar el caso[233]
(x) Conclusiones
295. El juez, cuando encuentre necesario y pertinente recurrir a sistemas de IA, puede emplearlos razonada y ponderadamente. Esto supone un enfoque de protección de derechos fundamentales, que valore y considere las mejores prácticas, así como la aplicación de criterios éticos y de respeto a los mandatos superiores. De acuerdo con ello, so pena de comprometer eventualmente su responsabilidad a raíz del uso indiscriminado e imprudente de estas tecnologías, el funcionario judicial que las emplee deberá respetar, como presupuesto mínimo en la materia, el criterio de no sustitución de la racionalidad humana, así como atender las cargas de transparencia, responsabilidad y privacidad.
296. En virtud de aquel criterio, es factible emplear inteligencia artificial en labores propias de la justicia siempre que el uso de dichas herramientas no remplace labores jurisdiccionales indelegables e irremplazables, como lo son aquellas que requieren del razonamiento lógico y humano a efectos de interpretar los hechos, las pruebas, motivar la decisión o adoptarla. La utilización de IA para tales fines implicaría una violación de las garantías del juez natural, autonomía e independencia judiciales y al debido proceso probatorio por sustitución del funcionario judicial. Por el contrario, se podría utilizar la IA en el sistema judicial para los ámbitos de gestión administrativa y documental, así como para el de apoyo a la gestión judicial y la corrección y síntesis de textos. En tales eventos, la utilización de estas tecnologías no remplaza la labor esencial e insustituible que se le ha atribuido al funcionario y servidor judicial humano.
297. La carga de transparencia le impone el deber de exponer claramente cuál fue el uso, el alcance y la ubicación en las actuaciones o decisiones de los resultados obtenidos por la utilización de la IA. La de responsabilidad, por su parte, exige del servidor que haga uso de la herramienta estar capacitado en la materia, entender cabalmente sus riesgos, así como poder dar cuenta del origen, la idoneidad y la necesidad del uso de IA y, principalmente, verificar la información suministrada por ella. La carga de privacidad supone la protección de la reserva de datos personales y sensibles que se le dan a conocer al sistema judicial para posibilitar el adecuado cumplimiento de sus funciones.
298. Consecuencia de lo anterior, el juez incumple sus deberes legales cuando, habiendo utilizado IA en una decisión judicial, (i) la emplea en el ejercicio de funciones de raciocinio que son indelegables e irremplazables; (ii) no es transparente con el usuario de la administración de justicia revelando el uso de IA y, con ello, compromete la garantía efectiva de su derecho de contradicción; (iii) no realiza de manera rigurosa la verificación de la fiabilidad de la información que soporta la motivación del fallo pudiendo comprometer la independencia o imparcialidad debido a los sesgos y alucinaciones de la IA; y/o (iv) no adopta las cautelas necesarias para evitar la transgresión de derechos como el habeas data o la intimidad.
299. Para asumir los retos de los nuevos tiempos y controlar los riesgos asociados a estas prácticas, convendría que el uso razonado y ponderado de estas tecnologías en el sistema judicial colombiano se efectúe a través de una herramienta especializada, motivo por el cual se alienta a la Rama Judicial para desarrollar esfuerzos que conduzcan progresivamente a la implementación de una plataforma de IA propia que, diseñada exclusivamente para el ejercicio de la función pública de administración de justicia, permita contribuir a la eficiencia de los despachos judiciales y facilitar el acceso a la información, así como reducir a la par los riesgos en materia especialmente de transparencia, protección de datos, alucinaciones y sesgos.
300. Por último, cabe advertir que los lineamientos que se imparten en esta providencia representan una aproximación inicial y general a un tema que, además de ser novedoso para la judicatura, está en constante construcción y sujeto a cambios vertiginosos. Por tal motivo, la pertinencia de estas consideraciones debe valorarse (i) en el tiempo, según la evolución que se produzca en los ámbitos de regulación normativa y, por supuesto, en el tecnológico, pero también (ii) atendiendo a las exigencias particulares que puedan desprenderse de la utilización de la IA en las diferentes jurisdicciones. En efecto, los innumerables usos que puedan dársele a estas tecnologías en el ámbito judicial ameritarán análisis especializados y soluciones particulares a los retos puntuales que emerjan en los distintos campos del derecho y en los diferentes frentes procesales y de actuación judicial.
La exoneración de cobros de copagos y cuotas moderadoras en el SGSSS para niños con funcionalidad diversa
(i) Los niños, niñas y adolescentes como sujetos de especial protección constitucional
301. En la actualidad existe un amplio acuerdo en los ámbitos nacional e internacional en cuanto a la necesidad de garantizar, proteger y respetar una serie de derechos a los niños, niñas y adolescentes (en adelante NNA). Este consenso ha conducido a que la incorporación del concepto del interés superior de niños, niñas y adolescentes sea uno de los ejes centrales del análisis constitucional. Desde esta perspectiva, los NNA se hacen acreedores de un trato preferente ligado a su caracterización jurídica como sujetos de especial protección.
302. Por un lado, a nivel nacional, el artículo 13 de la Constitución Política consagra la especial protección que debe brindar el Estado a las personas que, por su condición económica, física o mental, se encuentren en circunstancia de debilidad manifiesta, como es el caso de los NNA en virtud de la vulnerabilidad que se deriva de su corta edad. Igualmente, el artículo 44 superior establece que los derechos de los NNA prevalecen sobre los demás y, en línea con lo anterior, dispone que la «familia, la sociedad y el Estado tienen la obligación de asistir y proteger al niño para garantizar su desarrollo armónico e integral y el ejercicio pleno de sus derechos». Sumado a esto, los artículos 6, 8, y 9 de la Ley 1098 de 2006 protegen el interés superior de los NNA, al precisar que siempre (i) se aplicará la norma más favorable al interés superior del niño, niña o adolescente, (ii) se deben satisfacer todos sus derechos fundamentales y (iii) prevalecen sus derechos sobre los de cualquier otra persona.
303. En varias oportunidades[234] esta corporación ha determinado que el interés superior del NNA es (i) un derecho sustantivo, pues debe ser una consideración primordial al momento de sopesar los distintos intereses en juego en la toma de una decisión en cualquier ámbito. La garantía de este derecho deberá ponerse en práctica siempre que deba adoptarse una decisión que afecte a un niño, niña o adolescente o a un grupo concreto de ellos; (ii) una obligación intrínseca de los Estados, de aplicabilidad inmediata y reclamable ante los jueces; (iii) un principio jurídico interpretativo fundamental, en la medida en que «sí una disposición jurídica admite más de una interpretación, se elegirá la interpretación que satisfaga de manera más efectiva el interés superior del [NNA]»; y (iv) una norma de procedimiento, pues la toma de decisiones que involucre un NNA debe tener una carga argumentativa que estime las repercusiones positivas y negativas en los derechos del menor de edad.
304. Sobre este asunto, la Sentencia T-033 de 2020 advirtió que se reconoce a su favor:
[U]n trato preferente de parte de la familia, la sociedad y el Estado, procurando que se garantice siempre su desarrollo armónico e integral […] el interés superior del menor no constituye un ente abstracto, desprovisto de vínculos con la realidad concreta, sobre el cual se puedan formular reglas generales de aplicación mecánica. Al contrario: el contenido de dicho interés, que es de naturaleza real y relacional, sólo se puede establecer prestando la debida consideración a las circunstancias individuales, únicas e irrepetibles de cada menor de edad
305. Por otro lado, la preocupación por la protección de los derechos de NNA también ha sido un asunto de especial interés en el ámbito del derecho internacional, al punto que existen diversos instrumentos que se encargan de desarrollar estos fundamentos jurídicos. Así, aunque unos son vinculantes y otros no, lo cierto es que todos contienen disposiciones específicas o principios dirigidos a informar el ámbito de protección de los derechos de los NNA. Estos son: la Convención sobre los Derechos de los Niños[235], el Pacto Internacional de Derechos Civiles y Políticos[236], el Pacto Internacional de Derechos Económicos, Sociales y Culturales[237] (PIDESC), la Convención Americana sobre Derechos Humanos[238], la Declaración de las Naciones Unidas sobre los Derechos del Niño[239] y la Declaración Universal de Derechos Humanos de 1948[240].
(ii) Las personas en situación de discapacidad como sujetos de especial protección constitucional
306. La Carta Política de 1991, en su artículo 13, definió como sujetos de especial protección constitucional a todas las personas que por su condición económica, física o mental se encuentren en circunstancia de debilidad manifiesta[241] y, de manera expresa, el mismo artículo señala que los abusos y maltratos que contra dichas personas se cometan serán objeto de sanción por parte del Estado. Asimismo, el Estado colombiano a través del artículo 93, introdujo dentro del ordenamiento jurídico la Convención sobre los Derechos de las Personas con Discapacidad de Naciones Unidas, la cual fue aprobada por el Congreso de la República a través de la Ley 1346 de 2009.
307. Esta Corte también ha señalado que, en razón del artículo 13 de la Constitución, existe una obligación en cabeza del Estado colombiano de proteger de manera privilegiada a aquellas personas que, por su condición económica, física o mental, se encuentren en circunstancias de debilidad manifiesta. Por tanto, la jurisprudencia constitucional ha sostenido, respecto de las personas en situación de discapacidad, que:
[E]l Estado tiene la obligación de brindar una protección cualificada a este grupo poblacional, en ese sentido debe “(i) procurar su igualdad de derechos y oportunidades frente a los demás miembros de la sociedad, (ii) adelantar las políticas pertinentes para lograr su rehabilitación e integración social de acuerdo a sus condiciones y (iii) otorgarles un trato especial, pues la no aplicación de la diferenciación positiva contribuye a perpetuar la marginación o la discriminación[242]
308. En el mismo pronunciamiento, esta corporación sostuvo que «las acciones afirmativas van encaminadas a: (i) favorecer a determinadas personas o grupos de personas para lograr la eliminación o disminución de las desigualdades de tipo social, cultural o económico que los afectan; y (ii) lograr que los miembros de un grupo que usualmente ha sido discriminado tengan una mayor representación y participación social»[243].
309. Partiendo del reconocimiento de las personas en situación de discapacidad como sujetos de especial protección del Estado, se incluye en el artículo 47 de la Constitución[244], la política de discapacidad, señalando que esta deberá adelantarse desde la previsión, rehabilitación e integración social.
310. Sumado a lo anterior, es importante resaltar que el principio de rehabilitación funcional, reconocido en la Ley 1346 de 2009, es entendido como un «[p]roceso de acciones médicas y terapéuticas, encaminadas a lograr que las personas con discapacidad estén en condiciones de alcanzar y mantener un estado funcional óptimo desde el punto de vista físico, sensorial, intelectual, psíquico o social, de manera que les posibilite modificar su propia vida y ser más independientes»[245].
(iii) El derecho a la salud
311. El derecho fundamental a la salud se encuentra consagrado en el artículo 49 de la Constitución Política, el cual dispone que la atención en salud es un servicio público a cargo del Estado que debe ser prestado conforme a los principios de eficiencia, universalidad y solidaridad. Asimismo, el derecho a la salud es desarrollado y protegido por diferentes instrumentos internacionales, los cuales se aplican a Colombia conforme el artículo 93 superior, entre los cuales se encuentran la Declaración Universal de los Derechos Humanos[246], el Protocolo Adicional a la Convención Americana sobre Derechos Humanos[247] y el PIDESC[248]. Igualmente, la Ley Estatutaria de Salud 1751 de 2015 (LES) establece unos lineamientos esenciales para la comprensión del derecho a la salud en Colombia.
312. La Corte Constitucional ha precisado en su jurisprudencia que la protección a la salud abarca una amplia gama de factores socioeconómicos, bienes y servicios, los cuales inciden en que una persona viva una vida bajo condiciones sanas y dignas:
[E]l derecho a la salud abarca una amplia gama de factores socioeconómicos que promueven las condiciones merced a las cuales las personas pueden llevar una vida sana, y hace ese derecho extensivo a los factores determinantes básicos de la salud, como la alimentación y la nutrición, la vivienda, el acceso a agua limpia potable y a condiciones sanitarias adecuadas, condiciones de trabajo seguras y sanas y un medio ambiente sano[249]
Este concepto, a su vez, comprende distintos escenarios constitucionales, entre los cuales se encuentra la prestación y el suministro de servicios y tecnologías en salud[250]
313. Conforme con lo anterior, se ha manifestado por esta Corte en la Sentencia SU-475 de 2023 que el ámbito de protección de este derecho comprende tres puntos claves (i) cuatro componentes, (ii) múltiples derechos de los usuarios del SGSSS y (iii) obligaciones a cargo del Estado:
(i) Componentes. El artículo 6º de la LES dispone que los componentes o “elementos esenciales e interrelacionados” del derecho fundamental a la salud son la: (i) disponibilidad[251], (ii) aceptabilidad[252], (iii) calidad[253] y (iv) accesibilidad[254] […]
(ii) Derechos. El artículo 10 de la LES dispone que son derechos de los usuarios “relacionados con la prestación del servicio a la salud”, entre otros: (a) acceder a los servicios y tecnologías de salud que garanticen una atención integral; (b) recibir prestaciones de salud en las condiciones y términos consagrados en la ley; (c) la provisión y acceso oportuno a los servicios, tecnologías y medicamentos; (d) no ser sometido a tratos crueles o inhumanos que afecten su dignidad, ni a ser obligado a soportar sufrimiento evitable, ni a padecer enfermedades que pueden recibir tratamiento; (e) recibir los servicios de salud en condiciones de higiene, seguridad y respeto a su intimidad y (f) recibir un trato digno, que respete las creencias y costumbres del usuario, así como las opiniones personales que tengan sobre los procedimientos.
(iii) Obligaciones del Estado. El artículo 5º de la LES prescribe que el Estado es el responsable de respetar, proteger y garantizar el goce efectivo del derecho fundamental a la salud. Para ello, el Estado deberá, entre otras, (a) formular y adoptar políticas de salud dirigidas a garantizar el goce efectivo del derecho para toda la población; (b) velar por el cumplimiento de los principios del derecho fundamental a la salud, según las necesidades de la población; (c) crear mecanismos para evitar la violación del derecho fundamental a la salud y su régimen sancionatorio; (d) llevar a cabo un seguimiento continuo de la evolución de las condiciones de salud de la población, así como (e) adoptar la regulación y las políticas para financiar de manera sostenible los servicios de salud y garantizar el flujo de los recursos para atender de manera oportuna y suficiente las necesidades en salud de la población. La Corte Constitucional ha señalado que el artículo 6º de la LES se integra a “un conjunto de obligaciones abierto”, por lo que “las obligaciones legales específicas, las obligaciones internacionales y las obligaciones básicas, incorporadas en [la Observación General 14 del Comité DESC de las Naciones Unidas] hacen parte de las obligaciones del Estado colombiano en materia de salud”
(iv) Los niños, niñas y adolescentes con funcionalidad diversa y la protección de su derecho fundamental a la salud
314. La Ley Estatutaria de la Salud 1751 de 2015[255] y la jurisprudencia[256] disponen que la salud es un derecho fundamental autónomo e irrenunciable. Este derecho comprende el acceso a los servicios de salud de manera completa, oportuna, eficaz y con calidad. En ese sentido, el artículo 8.º de la Ley 1751 de 2015 que consagró el principio de la integralidad[257] ha sido utilizado como base por esta corporación para precisar que los usuarios del sistema de salud tienen derecho a recibir la atención y el tratamiento completo de sus enfermedades, de conformidad con lo prescrito por el médico tratante.
315. En suma, el derecho a la salud de los NNA que se encuentran en situación de discapacidad ostenta una protección constitucional reforzada en atención a su especial condición de vulnerabilidad. Esta se deriva de los artículos 13.3, 44 y 47 de la Constitución Política, el principio constitucional de interés superior del menor e instrumentos internacionales como lo son, en particular, la Convención de los Derechos de las Personas con Discapacidad[258], la Convención sobre los Derechos del Niño[259], el PIDESC[260] y el Protocolo de San Salvador[261].
316. Estas garantías nacen de la necesidad de asegurar el desarrollo armónico y vital de los NNA en situación de discapacidad, ya que «cualquier retraso o negación en la prestación del servicio puede llegar a afectar de manera irreversible su condición médica y proyectar sus procesos relacionales con su entorno, su familia y la sociedad en general, así como sus ciclos de formación académica y cognitiva»[262].
317. Las garantías reforzadas incluyen, entre otras[263]:
Garantías reforzadas del derecho a la salud los NNA en situación de discapacidad |
|
El derecho a recibir cuidados especiales y adecuados |
De acuerdo con los diferentes ciclos vitales se debe garantizar la eliminación o disminución de las limitaciones en las actividades de la vida diaria de forma expedita. |
El mandato de protección a la salud prevalente y prioritaria |
La atención en salud de los NNA en situación de discapacidad requiere que su prestación se garantice de forma inmediata sin obstáculos legales, administrativos, económicos o de ninguna otra índole. |
La garantía cualificada del principio de integralidad |
Las entidades del SGGGS y el juez constitucional deben aplicar un enfoque diferencial y están llamados «a flexibilizar los requisitos para el otorgamiento de los servicios y las tecnologías en salud»[264]. |
(v) La prohibición de anteponer barreras administrativas para la prestación del servicio de salud. Reiteración de jurisprudencia
318. Uno de los problemas más recurrentes que esta corporación ha detectado en cuanto a las fallas en el sistema de salud y la prestación del servicio es la imposición de barreras administrativas que impiden el acceso efectivo a los usuarios. Por tanto, se ha mencionado que «cuando se afecta la atención de un paciente con fundamento en situaciones extrañas a su propia decisión y correspondientes al normal ejercicio de las labores del asegurador, se conculca el derecho fundamental a la salud, en tanto se está obstaculizando por cuenta de cargas administrativas que no deben ser asumidas por el usuario»[265].
319. Consecuentemente, los usuarios del servicio de la salud no pueden ver disminuido su derecho fundamental a la salud por imposición de cargas administrativas. «[L]a prestación efectiva y eficiente del servicio de salud no puede interrumpirse o fraccionarse con base en barreras administrativas que deban adelantar las entidades prestadoras de salud y/o conflictos entre los distintos organismos que componen el Sistema General de Seguridad Social en Salud»[266].
320. Esto también implica la salvaguarda de los principios de accesibilidad e integralidad del SGGGS en Salud, por cuanto todos los usuarios tienen el derecho a recibir una atención y tratamiento completos, como se especificó anteriormente, sin que puedan ser fraccionados por razones administrativas y de falta de coordinación.
321. Si bien existen trámites administrativos en el sistema de salud que son necesarios y deben cumplirse para mantenerse una organización y planeación del servicio, lo cierto es que muchos de ellos corresponden a diligencias propias de la EPS, como la contratación oportuna e ininterrumpida de los servicios médicos con las IPS. El relacionamiento entre EPS y entidad prestadora es una relación exclusivamente de las partes, motivo por el que no existe responsabilidad alguna del paciente en el cumplimiento de los trámites administrativos, coordinación o comunicación entre aquellas, ni se le pueden asignar tareas o imponer trabas y cargas en razón de tal relacionamiento interinstitucional.
322. Es así, como la Sentencia T-405 de 2017 indicó sobre este tema que:
[L]a negligencia de las entidades encargadas de la prestación de un servicio de salud a causa de trámites administrativos, incluso los derivados de las controversias económicas entre aseguradores y prestadores, no puede ser trasladada a los usuarios por cuanto ello conculca gravemente sus derechos, al tiempo que puede agravar su condición física, psicológica e, incluso, poner en riesgo su propia vida. De ahí que la atención médica debe surtirse de manera oportuna, eficiente y con calidad, de conformidad con los principios de integralidad y continuidad, sin que sea constitucionalmente válido que los trámites internos entre EPS e IPS sean imputables para suspender el servicio[267]
323. Adicional, la Corte ha identificado los siguientes efectos perjudiciales en los pacientes a quienes se les impone barreras administrativas injustificadas y desproporcionadas por las EPS:
i) Prolongación del sufrimiento, debido a la angustia emocional que se genera en las personas soportar una espera prolongada para ser atendidas y recibir tratamiento;
ii) Complicaciones médicas del estado de salud por la ausencia de atención oportuna y efectiva que genera el empeoramiento de la condición médica;
iii) Daño permanente o de largo plazo o discapacidad permanente porque ha pasado demasiado tiempo entre el momento en que la persona acude al servicio de salud y el instante en que recibe la atención efectiva;
iv) Muerte, que constituye la peor de las consecuencias y que ocurre por la falta de atención pronta y efectiva, puesto que la demora reduce las posibilidades de sobrevivir o su negación atenta contra la urgencia del cuidado requerido[268]
324. Con base en ello, los desórdenes administrativos que afectan a los usuarios desconocen los principios que guían la prestación del servicio de salud, ya que:
(i) no se puede gozar de la prestación del servicio en el momento que corresponde para la recuperación satisfactoria de su estado de salud (oportunidad), (ii) los trámites administrativos no están siendo razonables (eficiencia), (iii) no está recibiendo el tratamiento necesario para contribuir notoriamente a la mejora de sus condiciones de vida (calidad) y (iv) no está recibiendo un tratamiento integral que garantice la continuidad de sus tratamientos y recuperación (integralidad)[269]
(vi) Marco legal, reglamentario y jurisprudencial de los copagos en el sistema de seguridad social en salud. Exoneración de copagos y cuotas moderadoras para personas con funcionalidad diversa física o cognitiva
325. El artículo 160 de la Ley 100 de 1993 consagra como uno de los deberes de los afiliados y beneficiarios del SGSSS «[f]acilitar el pago, y pagar cuando le corresponda, las cotizaciones y pagos obligatorios a que haya lugar». El régimen de pagos compartidos y cuotas moderadoras propio de dicho sistema se encuentra regulado en el Acuerdo 260 de 2004, expedido por el Consejo Nacional de Seguridad Social en Salud.
326. La referida norma señala que las cuotas moderadoras en salud «tienen por objeto regular la utilización del servicio de salud y estimular su buen uso, promoviendo en los afiliados la inscripción en los programas de atención integral desarrollados por las EPS». Por su parte, los copagos «son los aportes en dinero que corresponden a una parte del valor del servicio demandado y tienen como finalidad ayudar a financiar el sistema». Mientras los primeros tienen como finalidad el financiamiento del sistema, las segundas tienen por objeto regular la utilización del servicio de salud y estimular su buen uso, promoviendo en los afiliados la inscripción en los programas de atención integral desarrollados por las EPS.
327. El artículo 5.º del Acuerdo 260 de 2004 establece que el cobro de los copagos y cuotas moderadoras debe consultar el principio de equidad, es decir, que este sistema no puede tornarse en una barrera para el acceso a los servicios de salud ni ser usado para discriminar a ciertos grupos poblacionales. En el mismo sentido se pronuncia el artículo 187 de la Ley 100 de 1993.
328. Ahora bien, el artículo 6.º del Acuerdo 260 de 2004 enlista los servicios a los que se aplican cuotas moderadoras. Estos son: consulta externa médica, odontológica, paramédica y de medicina alternativa aceptada; consulta externa por médico especialista; fórmula de medicamentos para tratamientos ambulatorios; exámenes de diagnóstico por laboratorio clínico, ordenados en forma ambulatoria y que no requieran autorización adicional a la del médico tratante, entre otras.
329. Por su parte, el artículo 7.º establece que los copagos se aplican a todos los servicios de salud, excepto los servicios de promoción y prevención, enfermedades catastróficas o de alto costo, atención inicial de urgencias, así como programas de control en atención materno infantil y atención de enfermedades transmisibles.
330. A su vez, el anterior listado de excepciones se le suman las establecidas en las resoluciones 3974 de 2009 y 6468 de 2016 del Ministerio de Salud y Protección Social, esta última «[p]or la cual se modifica el Plan de Beneficios en Salud con cargo a la Unidad de Pago por Capitación (UPC)»[270], y en el Decreto 1652 del 2022 expedido por el Ministerio de Salud y Protección Social, que dispuso:
Artículo 2.10.4.9. Excepción del cobro de cuotas moderadoras y copagos para grupos o poblaciones especiales. Además de las excepciones señaladas en los artículos 2.10.4.6 y 2. 10.4.8 del presente decreto, se exceptúa del cobro de cuotas moderadoras y copagos, según corresponda, a los siguientes grupos poblacionales especiales:
En el Régimen Contributivo y Régimen Subsidiado, se exceptúa […]
1.5. Los niños, niñas y adolescentes del Sisbén 1 y 2, con discapacidades físicas, sensoriales y cognitivas, enfermedades catastróficas y ruinosas que sean certificadas por el médico tratante, respecto a los servicios y medicamentos de la parte especial y diferenciada del Plan de Beneficios estarán exceptuados del cobro de cuotas moderadoras y copagos, conforme lo dispuesto en el artículo 18 de la Ley 1438 de 2011 o las normas que los modifiquen o sustituyan […]
1.9. Las personas en situación de discapacidad, en relación con su rehabilitación funcional cuando se haya establecido el procedimiento requerido, estarán exceptuadas del cobro de cuotas moderadoras y copagos, según lo dispuesto en el artículo 9, numeral 9 de la Ley 1618 de 2013[271] o las normas que los modifiquen o sustituyan […]
331. Además, el artículo 18 de la Ley establece que «[l]os servicios y medicamentos de la parte especial y diferenciada del Plan de Beneficios para los niños, niñas y adolescentes con discapacidades físicas, sensoriales y cognitivas que sean certificadas por el médico tratante, serán gratuitos para los niños, niñas y adolescentes de Sisbén 1 y 2».
332. Con todo, la jurisprudencia constitucional ha determinado que «además de la exoneración prevista en las normas pertinentes, hay lugar a la exención de dicho pago cuando se comprueba que el usuario del servicio de salud o su familia no cuentan con recursos económicos suficientes para asumir las cuotas moderadoras, copagos o cuotas de recuperación según al régimen que se encuentre afiliado»[272]. En concreto, la exoneración procede cuando la persona que necesita con urgencia un servicio médico carece de la capacidad económica para asumir el valor de los pagos moderadores o, en caso de tener dicha capacidad, sí tiene problemas para hacer la erogación correspondiente antes de que este sea suministrado. En este último evento, la entidad prestadora deberá brindar oportunidades y formas de pago al afectado, para lo cual podrá exigir garantías adecuadas, sin que la falta de pago pueda convertirse en un obstáculo para acceder a la prestación del servicio.
333. En suma, los copagos y las cuotas moderadoras en salud buscan obtener una contribución económica al sistema en razón a los servicios prestados. Sin embargo, no podrán exigirse en ciertos casos establecidos por la ley o cuando el paciente no tenga la capacidad económica para sufragar este gasto. Lo anterior, con el fin de no crear una barrera de acceso a los servicios de salud.
334. Tratándose de una persona de especial protección constitucional, dada la situación de discapacidad y que es un menor de edad, esta Corte en Sentencia T-401A de 2022[273], amparó los derechos fundamentales de dos niños con autismo a los que su EPS les exigía cancelar copagos para el acceso a terapias de Análisis Conductual Aplicado (ABA por sus siglas en inglés). En esta oportunidad se concluyó que los NNA debían ser exonerados de la cancelación de esos copagos con base en la normatividad vigente.
335. En particular, la decisión se fundamentó en el Acuerdo 260 de 2004 del Ministerio de Salud y Protección Social y la Circular 016 de 2014 del mismo ministerio. Las terapias ABA son un conjunto de actividades tendientes a revertir condiciones de aislamiento en algunas personas con discapacidad y lograr cambios positivos en el comportamiento, las cuales implican un plan rutinario de actividades de control y son parte de un programa especial de atención integral. Así, la Corte reconoció en la Sentencia T-401A de 2022[274] que las terapias ABA deben exonerarse de copagos de acuerdo con la normatividad y jurisprudencia vigente.
336. Para esta corporación el cobro de copagos o cuotas moderadoras no puede convertirse en una barrera de acceso al servicio de salud, sobre todo cuando quienes lo requieren son sujetos de especial protección constitucional y se acreditan los requisitos de la ley y la jurisprudencia. Lo anterior, ya que las causales de exoneración de cobro de copagos tienen una mayor relevancia para estas personas, frente a quienes se busca alcanzar y mantener un mejor estado de salud y el pleno goce de la vida en sociedad.
337. En efecto, la Corte Constitucional ha señalado que «la exequibilidad del cobro de las cuotas moderadoras tendrá que sujetarse a la condición de que con éste nunca se impida a las personas el acceso a los servicios de salud; de tal forma que, si el usuario del servicio -afiliado cotizante o sus beneficiarios- al momento de requerirlo no dispone de los recursos económicos para cancelarlas o controvierte la validez de su exigencia, el Sistema y sus funcionarios no le pueden negar la prestación íntegra y adecuada»[275], regla que adquiere especial valor cuando se trata de personas de especial protección constitucional.
(vii) Tratamiento integral[276]
338. La Corte ha definido el tratamiento integral como una atención en salud de forma «ininterrumpida, completa, diligente, oportuna y con calidad»[277]. En este mismo sentido, la prestación del servicio debe cumplir con todas las órdenes de los médicos tratantes en las condiciones estipuladas[278].
339. De esta manera, para que el juez constitucional pueda ordenar el tratamiento integral debe comprobar que (i) la EPS fue negligente respecto a sus obligaciones con el paciente; (ii) la existencia de órdenes médicas con especificaciones tales como diagnósticos, insumos o servicios requeridos; y (iii) la calidad de sujeto de especial protección constitucional del accionante o su estado extremadamente grave de salud. Cabe destacar que el juez de tutela no puede emitir pronunciamiento sobre hechos futuros e inciertos, por lo que las prescripciones médicas deben ser claras[279].
340. Así las cosas, para la materialización del derecho a la salud la prestación y el suministro de servicios y tecnologías deberá guiarse por el principio de integralidad, entendido como un principio esencial de la seguridad social en salud y que se refiere a la necesidad de garantizar el derecho, de tal manera que los afiliados al sistema puedan acceder a las prestaciones que requieran de manera efectiva, es decir, que se les otorgue una protección completa en relación con todo aquello que sea necesario para mantener su calidad de vida o adecuarla a los estándares regulares[280].
341. Tal y como lo ha reiterado esta corporación, el tratamiento integral tiene la finalidad de «garantizar la continuidad en la prestación del servicio de salud y evitar la interposición de acciones de tutela por cada servicio prescrito por el médico tratante. Entre las circunstancias en las que procede su reconocimiento se encuentra cuando el peticionario es un sujeto de especial protección constitucional, como es el caso de las personas en situación de discapacidad física»[281], por lo que dicha integralidad pretende una garantía plena y confiable por parte del Estado y de los responsables del servicio, para que a futuro no se siga presentando la vulneración del derecho por la falta de prestación de este. Con ello se evita que la activación del aparato jurisdiccional a través de la acción de tutela se convierta en el mecanismo para que los usuarios del sistema de salud soliciten la cobertura y entrega material de cada servicio, con el agravante que la destinataria de este sea una persona de especial protección constitucional, como es el caso de aquellas en situación de discapacidad.
(viii) Reconocimiento de los gastos de transporte para el paciente y un acompañante
342. El literal c) del artículo 6.° de la Ley Estatutaria de Salud 1751 de 2015 dispone: «(l)os servicios y tecnologías de salud deben ser accesibles a todos, en condiciones de igualdad, dentro del respeto a las especificidades de los diversos grupos vulnerables y al pluralismo cultural. La accesibilidad comprende la no discriminación, la accesibilidad física, la asequibilidad económica y el acceso a la información».
343. En relación con lo anterior, aunque el transporte y los viáticos requeridos para asistir a los servicios de salud no constituyen servicios médicos, sí son elementos necesarios para el acceso en condiciones dignas. Entonces, su falta de suministro puede desconocer la faceta de accesibilidad al sistema de salud en los términos del literal c) del artículo 6.º de la Ley Estatutaria de Salud 1751 de 2015.
344. Respecto del transporte intramunicipal, por lo general, debe ser sufragado por el paciente y/o su núcleo familiar o red de apoyo[282]. Sin embargo, la jurisprudencia constitucional ha reconocido que la ausencia del servicio de transporte puede constituir, en ciertas circunstancias, una barrera de acceso a los servicios de salud. En estos casos, la Corte ha determinado que las EPS deben brindar dicho servicio de transporte no cubierto de manera expresa por el PBS, según la Resolución 2481 de 2020, específicamente, cuando «(i) ni el paciente ni sus familiares cercanos tienen los recursos económicos suficientes para pagar el valor del traslado y (ii) de no efectuarse la remisión se pone en riesgo la dignidad, la vida, la integridad física o el estado de salud del usuario»[283].
345. Asimismo, esta corporación no solo ha previsto la necesidad de reconocer el servicio transporte para el usuario sino también para un acompañante, en la medida en que el PBS con cargo a la Unidad de Pago por Capacitación [UPC] no contempla esa posibilidad. Para tal fin, ha establecido que se debe corroborar que el paciente «(i) dependa totalmente de un tercero para su movilización, (ii) necesite de cuidado permanente para garantizar su integridad física y el ejercicio adecuado de sus labores cotidianas y, (iii) ni el paciente ni su familia cuenten con los recursos económicos para cubrir el transporte del tercero»[284].
346. En conclusión, el transporte intramunicipal no está incluido en el PBS y, por lo tanto, prima facie debe ser cubierto por el paciente o su núcleo familiar. No obstante, cuando el paciente no tiene recursos económicos para sufragar este gasto, se constituye en una barrera de acceso a los servicios de salud. En esos casos, entonces, las EPS deben cubrir aquel y, si es necesario, también el de un acompañante.
Análisis del caso concreto
(i) En cuanto a la violación del debido proceso
347. Según se indicó en el acápite de antecedentes, en el trámite de segunda instancia de la acción de tutela, el Juzgado del Circuito utilizó el sistema de IA denominado ChatGPT 3.5, para formular una serie de preguntas en materia de derecho a la salud y exoneración de cuotas moderadoras en sede de tutela, así como sobre las decisiones emitidas por la Corte Constitucional en torno al asunto, las cuales fueron incluidas, junto con las respectivas respuestas, en la sentencia de segunda instancia proferida por esa autoridad judicial el 30 de enero de 2023.
348. En tales condiciones, la Sala de Revisión estima procedente realizar un estudio oficioso acerca de la validez del fallo en cuestión, a efectos de establecer si para la adopción de este se generó alguna irregularidad que implique la violación del derecho al debido proceso, específicamente por el eventual desconocimiento de la garantía del juez natural. Para ello, se analizarán los postulados del debido proceso y, consecuentemente, si se ocasionó o no una afectación al derecho subjetivo al debido proceso de la accionante y de su hijo.
349. Cabe recordar que, en este caso, Blanca, actuando como madre y representante legal de su hijo menor de edad, interpuso una acción de tutela en contra de la EPS a efectos de que se reconociera el derecho del niño a (i) ser exonerado de copagos y cuotas moderadoras en salud respecto de las terapias que le fueron prescritas, (ii) al reconocimiento de los gastos de transporte para asistir a las mismas y (iii) a recibir un tratamiento integral.
350. En sentencia de primera instancia proferida el 7 de diciembre de 2022, el Juzgado Municipal amparó los derechos a la salud y a la vida en condiciones dignas del niño. En consecuencia, le ordenó a la EPS, primero, autorizar el valor del transporte urbano o suministrar el servicio al menor de edad y a un acompañante con el fin de asegurar su desplazamiento a la institución que corresponda, para recibir las terapias integrales prescritas por médico tratante y, segundo, asumir la prestación de los servicios de salud que en adelante requiera el menor como consecuencia del diagnóstico «trastorno de espectro autista», sin exigencia de copagos o cuotas moderadoras mientras subsista la insuficiencia de recursos económicos de sus padres para asumirlas. Por lo demás, se abstuvo de ordenar el tratamiento integral al no hallar prueba dentro del expediente que hubiese sido prescrito por el médico tratante. La EPS, la cual en el trámite de la acción constitucional accedió a brindar el servicio de transporte, pero se negó a exonerar al menor del cobro de copagos y cuotas moderadoras, impugnó la decisión.
351. El Juzgado del Circuito, autoridad a la que correspondió el conocimiento del asunto en segunda instancia, dictó sentencia el 30 de enero de 2023 en la que confirmó integralmente el fallo del 7 de diciembre de 2022. La parte motiva de la decisión se dividió en once numerales, así: (i) pretensiones de la acción de tutela; (ii) situaciones fácticas; (iii) contestación de la acción de tutela; (iv) sentencia de primera instancia, orden judicial y consideraciones relevantes; (v) ¿quién impugna y por qué motivos lo hace?; (vi) problemas constitucionales que resolverá el juez de tutela; (vii) ¿es procedente la presente acción de tutela?; (viii) ¿cuál es la tesis que se tomará en el caso?; (ix) ¿cuáles son las disposiciones jurídicas aplicables en el caso?; (x) la Corte Constitucional, sobre este asunto y/o similar ¿ha proferido alguna decisión que resulta aplicable como precedente?; y (xi) caso concreto ¿se vulneran los derechos fundamentales alegados?
352. En este planteamiento metodológico, el fundamento jurídico de la decisión incluyó en los numerales nueve y diez, los que, en el mismo orden, contienen las normas constitucionales (preámbulo y artículos 1, 2, 3, 4, 48, 49, 50 y 86) y la jurisprudencia que el juez estimó aplicable al caso. En cuanto a esta última, el fallo se refirió a la Sentencia T-674 de 2016, de la que resaltó los hechos relevantes[285] a efectos de demostrar la innegable semejanza fáctica con el caso que estaba conociendo; transcribió la orden de amparo[286] que impartió dicha sentencia y aludió a las circunstancias en las que, según la providencia de la Corte, procedía la exoneración de cobro de copagos y cuotas moderadoras[287].
353. Seguidamente, al estudiar el caso concreto, el Juez del Circuito sostuvo que la EPS accionada no desvirtuó la falta de recursos económicos que alegó la actora como impedimento para sufragar los gastos de copagos y cuotas moderadoras por la atención médica de su hijo. Concluyó entonces que el cobro de esos conceptos representaba una barrera de acceso a los servicios de salud del menor.
354. Dicho lo anterior, «atendiendo que la Ley 2213 de 2022 tiene por objeto la incorporación de las TIC en los procesos judiciales», el juez advirtió que haría uso de herramientas de inteligencia artificial para «extender los argumentos de la decisión adoptada». La sentencia contiene las siguientes preguntas que realizó el juzgador en la interfaz de ChatGPT, cada una de ellas seguida de la respuesta que arrojó la herramienta de IA:
- ¿Menor autista está exonerado de pagar cuotas moderadoras en sus terapias? […]
- ¿Las acciones de tutela en estos casos se deben conceder? […]
- ¿Exigir en estos casos la cuota moderadora es una barrera de acceso al servicio de salud? […]
- ¿La jurisprudencia de la Corte Constitucional ha tomado decisiones favorables en casos similares? […]
355. A continuación, explicó que su propósito con el uso de este tipo de sistemas no era reemplazar la decisión del juez, sino optimizar los tiempos empleados en la redacción de sentencias, previa corroboración de la información obtenida. Hecha esta aclaración, la sentencia procedió con la parte resolutiva.
356. Ahora bien, en el trámite de revisión ante la Corte Constitucional, el despacho del magistrado sustanciador decretó como prueba la declaración del Juez del Circuito. En la diligencia, el funcionario informó que ha tenido una especial curiosidad por la implementación de herramientas tecnológicas al servicio de la justicia. En efecto, indicó que, con el cierre de los despachos judiciales por pandemia, lideró la creación de una «baranda virtual» para permitir el acceso de la ciudadanía a los servicios de su despacho, instrumento que fue ampliamente difundido y, tiempo después, adoptado por el Consejo Superior de la Judicatura. Además, afirmó que, como docente universitario en derecho constitucional y en procesal, siempre ha fomentado en sus estudiantes el uso ético de las tecnologías, pues estas democratizan en mayor medida el proceso de acceso a la administración de justicia.
357. Al ser indagado por el uso de IA en la referida sentencia, el operador judicial sostuvo que acudió a la versión gratuita disponible en ese momento, esto es, ChatGPT 3.5., y explicó que, en todo caso, la decisión la tomó él, no la IA, la que consultó simplemente como una herramienta más de trabajo. Sobre el particular señaló textualmente que:
[L]a resolución del caso tiene dos metodologías, una tradicional y una que podemos denominar a través de uso de inteligencia artificial, parte de reconocer dos cosas. Uno, que el juez cumpla con el deber de transparencia y esta fue la primera idea que tuve en mi cabeza, yo tengo que mandarle un mensaje a la sociedad de que hay transparencia de dónde viene esta información. Dos, que exista corroboración y la sentencia dice que esta información ha sido corroborada por el juez. Y tres, que al final el juez le diga a la sociedad que el responsable de esta decisión sigo siendo yo y me he ayudado en la generación de texto porque considero que la generación de texto predictiva, producto de inteligencia artificial generativa va acorde con lo que yo reconozco intuitivamente como el vector de la jurisprudencia de la Corte Constitucional. Para concluir y cerrar la pregunta, o por lo menos de mi parte, dar la conclusión a la pregunta es: se utilizó la herramienta artificial como herramienta de trabajo. Exactamente en ese momento histórico en el que nos encontramos, que puede ser muy distinto al que sabemos hoy de la interacción de los datos y la interacción de la predicción de los textos y, sobre todo los generados por algoritmos de transformers o algoritmos generativos, en ese momento, bajo la gravedad de juramento, manifiesto a la Corte Constitucional que el uso de la herramienta se utilizó como mera herramienta de colaboración, como exactamente se podría utilizar la búsqueda de un documento en un fichero biblioteca que también se encuentra en internet[288]
358. Más adelante, sobre la que denominó metodología tradicional, afirmó que los demás insumos que utilizó para la motivación del fallo fueron la búsqueda selectiva en base de datos de jurisprudencia, en internet. Además, enfatizó en que la sentencia fue clara al explicar que las respuestas que emitió ChatGPT eran solo un complemento de la decisión que ya había tomado con base en los mecanismos tradicionales. De acuerdo con ello, consideró que el uso de aquella herramienta no desplazó la decisión del juez. Al respecto explicó que:
[L]a decisión está tomada bajo fundamentos clásicos de administración de justicia en razonamiento, tales como lo prevén los artículos 280 y subsiguientes del Código General del Proceso, y en la aplicación de estos, esta incorporación de las consideraciones adicionales no pasa de ser más que mera doctrina sin doctrinantes, porque esto es un nuevo concepto que se está generando a partir de la inteligencia artificial generativa […] yo he revisado esto, yo soy el responsable, por lo tanto, no hay ningún tipo de desplazamiento del juez y esa fue la firme convicción que se tuvo en ese día, es decir, hay que mandar un mensaje de que aquí no hay ningún desplazamiento porque yo he verificado, yo he corroborado y eso está expresamente en la sentencia, luego de haberse corroborado la información, entonces por esa razón considero […] que no hay ningún tipo de desplazamiento de la función de juez en la administración de justicia[289]
359. Visto lo anterior, la Sala de Revisión encuentra que el principio constitucional de acceso a la administración de justicia y los postulados del derecho al debido proceso no se encuentran afectados, pues en lo que interesa al caso concreto la decisión del juez de segunda instancia se motivó bajo los parámetros «tradicionales» de la argumentación jurídica. En ese sentido, aunque se hizo uso de la herramienta de ChatGPT para complementar la parte motiva, en el fallo es evidente que el juez ya había realizado un análisis propio del asunto para el momento en que introdujo el razonamiento de la IA. Además, la sentencia objeto de revisión, proferida el 30 de enero de 2023 por el Juez del Circuito no incurrió en una violación de la garantía del juez natural, pues, en dicho evento, el uso de la IA no suplió al juez ni hizo sus veces.
360. Por ello resulta insostenible afirmar que hubo un remplazo del ejercicio de la función jurisdiccional por parte de ChatGPT. No obstante reconocer el actuar innovador y leal del juez de segunda instancia, esta Sala debe llamar la atención respecto a su gestión, pues, aunque no se cuestiona la validez de la decisión por esta haber sido tomada con antelación del uso de la herramienta de ChatGPT, lo cierto es que en el caso concreto no se cumplen a cabalidad con los principios de transparencia y responsabilidad requeridos al momento de usarse herramientas de IA en la toma de decisiones judiciales. Lo anterior, conforme a lo expuesto en la parte considerativa de este fallo. Sin embargo, desde ahora se deja en claro que el principio de privacidad sí se cumplió, ya que en ningún momento se introdujeron datos sensibles y personales del niño o del caso concreto en el sistema consultado, como por ejemplo podría ser la historia clínica, ni tampoco se agregó información privada de las partes involucradas en la disputa.
361. Respecto al principio de transparencia es importante mencionar que este no se agota con la simple manifestación de que se usó la herramienta y la transcripción de las preguntas y respuestas obtenidas. En este punto es clave considerar la prueba que adelantó el despacho sustanciador, pues con ella quedó claro que para que ChatGPT ofrezca matices en sus respuestas se deben incorporar datos de contexto y otras instrucciones, por eso las respuestas varían dependiendo de si se le informa que quien pregunta es un juez, un estudiante o si no se le brinda esa información a la herramienta. En el caso concreto, se evidencia que la exposición que hizo el juez respecto del uso de la herramienta es apenas parcial.
362. En cuanto a la falta de diligencia sobre la carga que se genera por el principio de responsabilidad, se reitera que este último está estrechamente ligado con la trazabilidad de las fuentes, toda vez que es en este punto en el que las herramientas de IA alucinan y crean o inventan fuentes, como autores o sentencias que no existen. Sobre el particular, si bien resalta la necesidad de verificar toda la información referenciada por una IA no especializada, preocupa el posible aumento de la carga de trabajo por esta doble labor de búsqueda de información y posterior verificación, de manera que, en lugar de simplificarse los procesos y ahorrarse costos, pueda terminarse con una mayor sobrecarga en la gestión del operador.
363. En el asunto en cuestión, el juez manifestó que haría uso de herramientas de IA generativas «atendiendo que la Ley 2213 de 2022 tiene por objeto la incorporación de las TIC en los procesos judiciales». Sin embargo, el artículo 2.º de ese mismo cuerpo normativo prescribe que «[s]e podrán utilizar las tecnologías de la información y de las comunicaciones, cuando se disponga de los mismos de manera idónea, en la gestión y trámite de los procesos judiciales y asuntos en curso, con el fin de facilitar y agilizar el acceso a la justicia»[290].
364. Bajo estos parámetros, el funcionario judicial corrió el riesgo de faltar a la veracidad de la información, dado que incluyó en su fallo datos suministrados por la aplicación de IA que no eran del todo precisos. En punto a la exoneración de copagos y cuotas moderadoras, como lo refiere esta providencia, el régimen jurídico aplicable se encuentra contenido en el Acuerdo 260 de 2004, expedido por el Consejo Nacional de Seguridad Social en Salud, la Resolución 6468 de 2016 del Ministerio de Salud y Protección Social y la Circular 016 de 2014 del Ministerio de Salud. No obstante, ChatGPT suministró una información diferente cuando el juez indagó sobre este asunto, pues le indicó que la exoneración de cuotas moderadoras para niños, niñas y adolescentes con diagnóstico del espectro autista está regulada por la Ley 1753 de 2015[291], pese a que ello no es así.
365. Igualmente, la Sala hace un llamado sobre el debido manejo de los sistemas de IA, pues la forma en que se consultó por parte del juez de instancia a la plataforma ChatGPT no es acorde con la carga de responsabilidad y los principios de prevención de riesgos, pues al final las preguntas iban encaminadas a la posible resolución del caso y pareciera no haber un contexto inicial para consultarle a la IA, lo cual es fundamental, teniendo en cuenta que esta es una herramienta que no se especializa en aplicación del derecho colombiano. Así, el deber de los jueces de dictar decisiones claras y comprensibles para todas las personas, se contrapone con la exposición de argumentaciones innecesarias y superfluas. Lo anterior, sin desconocer el valor y utilidad que tienen las obiter dicta en la estructura de los fallos.
366. En consecuencia, conviene recordar que las fuentes empleadas por los jueces son una parte esencial de la construcción de una decisión judicial, las cuales son, según una orientación de la argumentación jurídica, (i) las razones de hecho que describen la realidad, susceptibles de ser verdaderas o falsas, y (ii) las razones de derecho, que buscan influir en la realidad y se orientan hacia la validez más que a su veracidad.
367. Existe una distinción entre razones de autoridad, cuya fuerza proviene de su origen, como la Constitución, la ley y el precedente, y razones de principios, cuya fuerza radica en su contenido y pueden derivar de consideraciones políticas, económicas o morales. Estas últimas son fundamentales en el discurso práctico y están directamente relacionadas con las fuentes del derecho.
368. En cuanto a la aplicación judicial, hay (i) fuentes que deben citarse obligatoriamente para la validez de una sentencia, tal como la Constitución y la ley; (ii) fuentes cuya omisión podría debilitar, pero no invalidar una decisión, como los antecedentes legislativos y la doctrina autorizada; y (iii) fuentes cuya inclusión es opcional y no afecta la validez de la decisión, como ocurre con el derecho comparado y los textos históricos. La omisión de las primeras compromete la validez de la sentencia, mientras que las segundas y terceras categorías ofrecen un margen de flexibilidad en el sustento de las decisiones judiciales.
369. En razón de ello, el uso de herramientas de IA no especializadas y autorizadas expresamente para la función jurídica colombiana solo deberían ofrecer información sobre el discurso descriptivo, pero no sobre el normativo. Por tanto, preguntas acerca de cómo resolver un caso no son admisibles y si se hacen preguntas descriptivas del tipo, ¿qué es el trastorno de espectro autista? o ¿qué fuentes debo consultar para conocer la jurisprudencia colombiana sobre el derecho a la salud de niños autistas?, entonces el juez debe tener en cuenta que es información riesgosa y, por ello, asumir las cargas de transparencia, responsabilidad y privacidad. También, el juez o magistrado debe tener en cuenta los sesgos y, en caso de que formule una pregunta que pueda verse afectada por los mismos, ha de asumir nuevas cargas, como lo puede ser el manejo del resultado de su búsqueda, lo cual solo se logra si hay una capacitación respecto al uso de estas tecnologías y si se comprende el funcionamiento mismo de la IA correspondiente.
370. Por ello, a continuación, esta Sala expone cuándo se entienden cumplidos los principios de transparencia, responsabilidad y privacidad por los operadores jurídicos que hacen uso de las herramientas de IA.
371. Transparencia. Se cumple cuando el funcionario judicial: (i) pone en conocimiento de las partes que hizo uso de una herramienta de IA en el transcurso del proceso; (ii) expone las razones por las cuales tiene conocimiento del debido uso de estas herramientas tecnológicas, por ejemplo, se ha capacitado, ha hecho estudios especializados en el tema, etc; (iii) precisa el funcionamiento del sistema de IA que se utilizó, entre lo que es de especial importancia resaltar las capacidades de la IA y sus limitaciones; (iv) expone toda fundamentación que se haga alrededor del uso de una IA de manera comprensible, convincente, completa y específica; (v) da a conocer de manera irrestricta los datos utilizados y el lugar que esta información ocupa dentro de la decisión judicial; y (xi) establece la razones por las que el sistema de IA se debe emplear, es decir, se hace un análisis de necesidad e idoneidad sobre el uso de IA.
372. Responsabilidad. Teniendo en cuenta que las decisiones judiciales que acudan a este tipo de herramientas -IA- deberán dar cuenta del origen, idoneidad y necesidad de la información utilizada, la responsabilidad del juez se centra, especialmente, en verificar que la información sea real, apropiada para el asunto, respetuosa de los presupuestos fácticos y jurídicos, y comprensible para la administración de justicia y los administrados. Es responsabilidad del juez estar capacitado y comprender el buen manejo de estas tecnologías al interior de la administración de justicia y sus impactos. Por esta razón, se debe evitar el uso de algoritmos de black box, respecto de los cuales se conocen los datos de entrada y el resultado, pero no la forma en la que la información es procesada. Por lo demás, el juez o magistrado debe asegurarse que el sistema utilizado esté entrenado con datos recientes, suficientes y relevantes para el contexto colombiano o de aplicación y, de evidenciarse algún tipo de inconsistencia, manifestarlo expresamente en la decisión judicial.
373. Privacidad. El funcionario judicial tiene el deber de custodiar y proteger la reserva de los datos personales y sensibles que se ponen en conocimiento de la administración de justicia para cumplir con los fines propios de la Rama Judicial. Consecuentemente, es necesario realizar una evaluación sobre los riesgos que implica suministrar este tipo de datos a sistemas de IA y evitar su filtración, más aún cuando las herramientas tecnológicas son externas al funcionamiento de la justicia en Colombia o no están expresamente autorizadas para la función judicial en el país.
374. Teniendo en cuenta todo lo anterior, se reitera que, aunque el juzgador decidió integrar las respuestas de la IA como parte de la fundamentación de la sentencia, lo hizo luego de haber analizado las normas y precedente aplicables, de estudiar las circunstancias particulares del caso y de tomar una decisión al respecto. Así lo explicó el juez en la declaración que rindió ante esta Corte y así quedó consignado en la sentencia misma, toda vez en el orden metodológico que adoptó el fallo de tutela, el funcionario judicial primero identificó la tesis que sostendría, luego las normas constitucionales aplicables al caso, el referente jurisprudencial que se debía atender por guardar identidad fáctica con el asunto analizado, para posteriormente solucionar el caso concreto al indicar que el cobro de copagos y cuotas moderadoras constituía una barrera de acceso al servicio de salud del menor y, solo entonces, anunció y procedió a efectuar la consulta en el referido sistema de IA. Luego de transcribir las respuestas que arrojó la aplicación, «a título de iniciativa que permita dar celeridad a la resolución de los asuntos de tutela», consideró procedente que estas se extendieran como fundamento de la providencia, no para efectos de «reemplazar la decisión del [j]uez [sino de] optimizar los tiempos empleados en redacción de sentencias, previa corroboración de la información suministrada por IA».
375. El anterior contexto permite afirmar que, aunque hubo un uso indebido de la herramienta de IA, pues no se cumplió con los principios de transparencia y responsabilidad en su totalidad, la decisión del Juez del Circuito está dotada de completa validez. Ello, por cuanto la actividad de motivación, valoración de hechos, análisis de pruebas, aplicación normativa y toma de la decisión fue desarrollada directamente por el juez competente. La generación del texto por parte de ChatGPT que se integró al fallo de tutela no reemplazó el razonamiento lógico y humano que le correspondía al operador judicial para estudiar y solucionar la controversia y con él no se hizo una valoración probatoria de la actuación.
376. En conclusión, no se observa en el presente trámite que se configure una violación del derecho al debido proceso, originada en el fallo de tutela de segunda instancia, pues el uso de ChatGPT en el caso sometido a estudio no comportó una usurpación de la función de administración de justicia a cargo de la autoridad judicial competente.
(ii) En cuanto a la violación al derecho a la salud, relacionada con la exoneración de cobros de copagos y cuotas moderadoras en el SGSSS para niños con funcionalidad diversa
377. En cuanto a este aspecto tenemos que Blanca interpuso acción de tutela en representación de su hijo menor de edad Emilio contra la EPS, para la protección de sus derechos a la salud, la vida digna y la seguridad social. La Sala procederá a relacionar los hechos probados y determinará si han sido vulnerados los derechos fundamentales del niño.
378. Emilio tiene 5 años[292], vive en la ciudad de Cartagena, Bolívar, y se encuentra afiliado a la EPS en el régimen contributivo, en calidad de beneficiario.
379. El niño está diagnosticado con trastorno de espectro autista. A raíz de su condición de salud, recibe atención médica por diferentes especialidades como neuropediatría, otorrinolaringología, neuropsicología y genética. Además, como parte del tratamiento médico, debe asistir a terapias integrales de rehabilitación, con énfasis cognitivo conductual y de integración sensorial, en las áreas de psicología, terapia ocupacional y fonoaudiología.
380. El 31 de agosto de 2022, Blanca, madre del niño, radicó una petición ante la EPS, en la que solicitó que fuera exonerada del «pago de cuotas moderadoras de salud y copagos»[293].
381. Por solicitud de la EPS, la señora presentó un nuevo escrito en el que indicó la causal que hacía procedente la exoneración solicitada, sin embargo, la EPS no adelantó las gestiones necesarias para brindar el beneficio.
382. De forma adicional, Blanca le solicitó a la empresa promotora de salud que corriera con los gastos de transporte para asistir a las terapias. Según informó, la EPS no emitió respuesta a esta solicitud.
383. Por medio de tutela, la señora Blanca pretendió, en relación con la atención médico asistencial de su hijo, la exoneración de copagos y cuotas moderadoras, el reconocimiento de los gastos de transporte suyo y del niño para la asistencia a terapias y el tratamiento integral.
384. La accionante adujo no tener los recursos suficientes a efectos de sufragar tales erogaciones. La Sala de Revisión encuentra que está clasificada en el grupo A4 del SISBEN[294], es decir, en pobreza extrema y, aunque registra en el régimen contributivo de salud[295], lo está en calidad de beneficiaria.
385. La sentencia bajo revisión confirmó la de primera instancia que amparó los derechos a la salud y a la vida en condiciones dignas del niño. En consecuencia, le ordenó a la EPS (i) autorizar el valor del transporte urbano o suministrar el servicio al menor de edad y a un acompañante con el fin de asegurar su desplazamiento a la institución que corresponda, para recibir las terapias integrales prescritas por el médico tratante y (ii) asumir la prestación de los servicios de salud que en adelante requiera el menor de edad como consecuencia del diagnóstico «trastorno de espectro autista», sin exigencia de copagos o cuotas moderadoras mientras subsista la insuficiencia de recursos económicos de sus padres para asumirlas. El tratamiento integral no fue ordenado pues el juez no encontró prueba de haber sido prescrito por el médico tratante del niño.
386. La Sala confirmará parcialmente la sentencia por las razones que se exponen a continuación.
Copagos y cuotas moderadoras
387. Como lo señalaron las decisiones judiciales de instancia, en el presente caso se cumplen las condiciones para exonerar al niño Emilio del cobro de copagos y cuotas moderadoras con ocasión de los servicios y medicamentos que requiera. Esto con fundamento en las leyes 1438 de 2011 y 1618 de 2013, así como el Decreto 1652 del 2022.
388. En efecto, los artículos 18 de la mencionada Ley 1438 y 2.10.4.9 (numeral 1.5.) del Decreto 1652 del 2022 consagran la gratuidad de la atención médica para los niños, niñas y adolescentes con discapacidades físicas, sensoriales y cognitivas, certificadas por el médico tratante, clasificados en el SISBÉN 1 y 2 (antigua metodología de clasificación Sisbén III). Emilio quedaría comprendido dentro del beneficio como quiera que está diagnosticado con trastorno de espectro autista y, su madre, con quien vive y de quien depende, se encuentra clasificada en el grupo A4 del Sisbén (metodología IV), correspondiente a situación de pobreza extrema.
389. El «[p]rotocolo clínico para el diagnóstico, tratamiento y ruta de atención integral de niños y niñas con trastornos del espectro autista»[296], expedido en 2015 por el Ministerio de Salud y Protección Social, define los trastornos del espectro autista (TEA) como «un grupo de alteraciones o déficit del desarrollo de características crónicas y que afectan de manera distinta a cada paciente»[297]. El documento sostiene que los TEA implican una «disfunción neurológica crónica con fuerte base genética que desde edades tempranas se manifiesta en una serie de síntomas basados en la tríada de Wing que incluye: la comunicación, flexibilidad e imaginación e interacción social»[298].
390. Respecto del tratamiento de los TEA, el mencionado protocolo explica que no es curativo sino terapéutico. Sobre el particular, aduce que:
Existen terapias farmacológicas dirigidas al tratamiento o manejo de síntomas asociados o comorbilidades como hiperactividad, depresión, convulsiones, entre otras. (16, 24) La terapia para las personas con diagnóstico de TEA debe estar orientada a la identificación e intervención de la conducta, la comunicación y la convivencia, a través de intervenciones comportamentales, intervenciones educativas e intervenciones psicosociales. Siempre será necesario realizar educación sobre los TEA y consejería después del diagnóstico, dado que puede ayudar a mejorar la interacción posterior con la persona y su entorno. (16) Estas intervenciones buscan enseñarle al niño destrezas específicas que le permitan aumentar su autonomía. Para lo anterior se han diseñado diferentes estrategias o programas de intervención, como los métodos conductuales y de comunicación, que son aquellas que proporcionan estructura, dirección y organización como complemento de la participación familia, dentro de ellos se encuentra el análisis conductual aplicado (ABA)
391. La conclusión en cuanto a la procedencia del amparo que solicitó la madre del menor se ve reforzada por (i) el artículo 66 de la Ley 1438 de 2011, que ordena la atención integral de las personas en situación de discapacidad, así como una política nacional de salud con enfoque diferencial, (ii) el artículo 9.º de la Ley 1618 de 2013, que en desarrollo del anterior, dispone la rehabilitación funcional de las personas con discapacidad sin el pago de cuotas moderadoras o copagos, como parte de las garantías para asegurar su derecho a una habilitación y rehabilitación integral que les permita lograr y mantener la máxima autonomía e independencia, así como la inclusión y participación plena en todos los aspectos de la vida y (iii) el numeral 1.9 del artículo 2.10.4.9 del Decreto 1652 del 2022 que exceptúa del cobro de cuotas moderadoras y copagos a las personas en situación de discapacidad, en relación con su rehabilitación.
392. Visto lo anterior, resulta ajustada la decisión que tomaron los jueces de tutela de instancia consistente en exonerar del cobro de copagos y cuotas moderadoras al menor de edad agenciado. En efecto, según informó la EPS, con ocasión del fallo de tutela de primera instancia, procedió a autorizar dicha exoneración, circunstancia que fue confirmada por la accionante en el informe presentado ante esta corporación.
393. Con todo, lo cierto es que Blanca también informó que, en muchas ocasiones, las IPS encargadas de la atención del niño no tienen conocimiento que deben exonerar al menor de edad los cobros de copagos y cuotas moderadoras, lo que la ha obligado a gestionar diferentes trámites administrativos para que la EPS comunique el beneficio a las entidades prestadoras y ellas puedan aplicarlo.
394. En tales condiciones, aunque esta Sala de Revisión no cuestiona que la accionada haya autorizado la exoneración de tales conceptos, lo cierto es que no ha adelantado diligentemente todos los esfuerzos para que el amparo inherente a esa exoneración se haga completamente efectivo. La falta de comunicación e información a las IPS sobre la gratuidad de los servicios y medicamentos que se le ordenen al niño ha representado una barrera administrativa para la prestación oportuna de los servicios médicos, lo que va en detrimento de los principios de accesibilidad e integralidad del Sistema General de Seguridad Social en Salud. La jurisprudencia de esta Corte ha sido insistente en que el acceso a los servicios y tecnologías del sistema debe garantizarse a todos los usuarios de manera completa, sin que puedan ser fraccionados por razones administrativas y/o financieras.
395. Si bien algunos trámites administrativos en el sistema de salud deben cumplirse por parte de los afiliados, muchos otros son del resorte de la entidad promotora de salud, como en este caso, la comunicación a las IPS acerca de la exoneración de cobros. Así pues, admitir que por ese motivo se dejen de ofrecer o se retarde la atención médica de Emilio, sitúa a la accionante, como representante del menor de edad, en una posición irregular de responsabilidad, que en modo alguno está obligada a soportar.
396. Visto lo anterior, ante la improcedencia de oponer trámites o de admitir irregularidades administrativas que afecten a los usuarios de los servicios médicos, la Sala de Revisión considera procedente para la garantía efectiva del amparo concedido por los jueces de instancia, ordenar a la EPS que realice todas las gestiones y trámites administrativos necesarios para que las IPS encargadas de la atención del niño apliquen diligentemente y sin demoras la exoneración de cobros de copagos y cuotas moderadoras, sin trasladar al niño y a su representante las consecuencias negativas de las eventuales faltas de comunicación entre las entidades del sistema.
El servicio de transporte intermunicipal
397. La EPS accionada tiene el deber de reconocerle el servicio de transporte al niño Emilio y a su acompañante. En primer lugar, está acreditado que ni él ni su madre tienen los recursos económicos suficientes para pagar el valor del traslado pues ella se encuentra en situación de pobreza extrema. Además, por el diagnóstico que padece el menor de edad, la falta de autorización del transporte pondría en riesgo la dignidad y el estado de salud del niño. En relación con el transporte para el acompañante, no cabe duda de que se requiere pues, por su edad y diagnóstico clínico, Emilio depende totalmente de un tercero para garantizar su integridad física y el ejercicio adecuado de sus actividades cotidianas.
398. Ahora bien, en la acción de tutela, Blanca solicitó se ordenara a la EPS accionada que cubriera «los gastos del transporte necesario para el desplazamiento de mi hijo desde el lugar de su residencia al lugar donde le deben practicar las terapias»[299]. Al respecto, el fallo de tutela de primera instancia, confirmado por el superior, resolvió ordenarle a la EPS que «autorice el valor del transporte urbano o suministre ese servicio al menor […] y a un acompañante, con el fin de asegurar su desplazamiento a la institución que le corresponda, para recibir las terapias integrales prescritas por médico tratante en historia clínica de fecha 19 de julio de 2022».
399. La accionante manifestó ante esta corporación que la EPS autorizó el suministro del transporte para la asistencia a las terapias de rehabilitación de su hijo, mas no para los demás desplazamientos asociados a valoraciones y controles con especialistas y ayudas diagnósticas.
400. Lo anterior evidencia que existe una protección incompleta por el amparo concedido por los jueces de instancia, pues la orden impartida no garantiza efectivamente la plena protección de los derechos fundamentales del niño a la salud y la vida digna, en la medida en que limita el reconocimiento del servicio de transporte a las terapias de rehabilitación, e incluso, lo hace de manera específica a aquellas que le fueron ordenadas en la valoración médica del 19 de julio de 2022.
401. Por ese motivo, corresponde a esta Corte, en sede de revisión, adoptar las medidas necesarias para conceder un amparo suficiente y acorde con los mandatos constitucionales, especialmente porque lo que está en discusión es el derecho fundamental a la salud de un niño que, por su diagnóstico de trastorno de espectro autista, se encuentra en una condición de mayor vulnerabilidad.
402. Cabe recordar que el juez de tutela se encuentra facultado para emitir fallos extra y ultra petita, lo que significa que la Corte no tiene limitada su competencia a resolver forzosamente las acusaciones en los términos en que hayan sido formuladas por la parte accionante, ni tiene que ceñirse necesariamente a las pretensiones y a los derechos invocados[300]. De esta forma se puede otorgar una protección más efectiva, acorde con el rol que le corresponde ejercer al juez constitucional. Esta facultad del juez de tutela tiene sustento en el principio iura novit curia, que ha sido explicado por la corporación en los siguientes términos:
[C]orresponde al juez la aplicación del derecho con prescindencia del invocado por las partes, constituyendo tal prerrogativa un deber para el juzgador, a quien incumbe la determinación correcta del derecho, debiendo discernir los conflictos litigiosos y dirimirlos según el derecho vigente, calificando autónomamente la realidad del hecho y subsumiéndolo en las normas jurídicas que lo rigen. En la medida que la tutela es un recurso judicial informal que puede ser interpuesto por personas que desconocen el derecho, es deber del juez de tutela, en principio, analizar el caso más allá de lo alegado por el accionante[301]
403. Visto lo anterior, en ejercicio de sus facultades constitucionales, esta Sala de Revisión de la Corte Constitucional considera procedente modificar los términos en que los jueces de instancia ordenaron a la EPS autorizar el servicio de transporte intermunicipal para el menor de edad agenciado y su acompañante. Esto en el sentido de no limitar dicho reconocimiento al transporte requerido para asistir a las terapias prescritas en la valoración médica del 19 de julio de 2022. En su lugar, la EPS accionada debe suministrar el servicio de transporte, bien sea directamente o mediante el pago de tales expensas, para el traslado respecto de todo tipo de atención médica, asistencial o diagnóstica, las veces que requiera el niño según criterio médico, para el tratamiento de su diagnóstico de trastorno de espectro autista, mientras subsista la insuficiencia de recursos económicos de sus padres para asumirlas.
Sobre el tratamiento integral
404. No hay lugar a ordenar el tratamiento integral pues no existe prueba en el expediente de que la EPS se haya negado a autorizar alguna orden médica que prescribiera alguna valoración, tratamiento, servicio asistencial, ayuda diagnóstica, control o cualquier otro parecido para la atención médica del menor de edad. Así, de conceder hipotéticamente el tratamiento integral no se estaría ordenando nada adicional, pues de acuerdo con las subreglas jurisprudenciales, este cubre únicamente los servicios y tecnologías para los que exista una orden médica.
405. Aunque la acción de tutela incorporó tal pretensión, lo cierto es que esta se formuló de manera genérica para solicitar que se le garantizara al niño la atención médica requerida, sin embargo, la accionante no reprochó ninguna actitud pasiva u omisiva con la que la EPS accionada estuviese negando el tratamiento integral de Emilio. En efecto, ni en dicho acto procesal ni en ningún otro a lo largo del proceso de tutela y del presente trámite de revisión, se alegó por la actora una negativa o insuficiencia en la autorización y prestación efectiva de la prestación del servicio de salud. Por el contrario, Blanca le manifestó expresamente a esta Corte que el menor de edad está recibiendo toda la atención médico asistencial prescrita por sus médicos tratantes.
Órdenes por proferir
- En cuanto a la protección del derecho al debido proceso por uso de IA
Orden al Consejo Superior de la Judicatura
406. Aunque la Sala verificó que no existió una vulneración al debido proceso en la presente actuación, estima, sin embargo, que en el marco de la promoción y el respeto de los derechos fundamentales y de la salvaguarda de las garantías constitucionales para los usuarios del sistema de administración de justicia y dadas las posibilidades de alucinaciones, sesgos discriminatorios y demás riesgos asociados a la IA, resulta procedente adoptar una decisión que prevenga el inadecuado entendimiento frente al uso de herramientas o el ejercicio de prácticas inconstitucionales en cuanto a la IA. Por ello, considera necesario exhortar a los jueces de la República y ordenar al Consejo Superior de la Judicatura para que emita guías y lineamientos sobre el uso de IAs artificiales en los despachos judiciales y que desde la judicatura misma se adopten las mejores prácticas que, conforme a los principios y mandatos constitucionales, permitan hacer uso razonable y proporcionado de herramientas innovadoras y dinámicas como las referidas, sin permitir en modo alguno que se impacte el debido proceso o se restrinjan de cualquier forma la autonomía e independencia judiciales, teniendo en cuenta las consideraciones expuestas en esta providencia.
407. Conforme con la relevancia del asunto novedoso que se revisa, la Sala estima pertinente poner de presente que todo juez de la República que utilice tecnologías de IA como apoyo para resolver acciones de tutela debe hacer un uso responsable y ético de ellas.
408. Aunque en este caso, la Sala se encuentre ante la revisión de un fallo proferido en el trámite de una acción de tutela, las consideraciones acá expuestas podrán servir de referente para el análisis que proceda frente a procesos judiciales de diferente naturaleza pues si el debido proceso es un derecho fundamental que abarca cada tipo de procedimiento, resulta necesario velar por una utilización adecuada de la herramienta que salvaguarde las garantías propias de aquel derecho con independencia del trámite judicial que se trate. Ello llama a considerar otros escenarios, diferentes al de la revisión por esta corporación, en los que se puede analizar la validez de la decisión judicial por la implementación y el uso de IA ChatGPT como, por ejemplo, sucedería con el estudio que haga el mismo juez que conoce el proceso a través de un incidente de nulidad o en una etapa de saneamiento rogada u oficiosa, o en sede de instancia, o por el juez constitucional que conozca de una acción de tutela contra una providencia judicial dictada con la utilización de alguno de estos sistemas.
409. Al respecto es importante mencionar que, la resolución judicial emitida por la Corte Constitucional en el marco de los fallos de tutela tiene efectos inter partes[302]. Sin embargo, en algunas ocasiones, según las particularidades e importancia del caso es posible que este tribunal extienda los efectos subjetivos de sus decisiones en razón a la misión constitucional que cumple esta corporación en el ejercicio de su función de revisión[303], para, por ejemplo, «evitar proliferación de decisiones encontradas, o equivocadas»[304].
410. Así, se han reconocido dos alternativas excepcionales para modular la regla contenida en las citadas normas, que son: los efectos inter comunis y los efectos inter pares, los cuales se denominan y aplican de la siguiente forma:
Efector inter comunis[305] |
Efectos inter pares[306] |
Se presenta en aquellos eventos en los que la decisión de tutela debe hacerse extensiva a todos los sujetos que, junto con las partes del proceso específico, integran una misma comunidad que, debido a la identidad fáctica, conforman un grupo social que se verá directamente impactado por la determinación de la Corte Constitucional. |
Son aplicados por la Corte Constitucional en aquellos eventos en los que esta resuelve un problema jurídico relacionado con la interpretación y/o aplicación de un marco normativo concreto, en un contexto fáctico específico. En estos eventos, se dispone que la resolución que ha dado al asunto debe ser asumida en los casos que, sin integrar necesariamente una misma comunidad, son o llegarán a ser semejantes. |
411. Teniendo en cuenta que si bien al momento no hay una reglamentación o guía oficial expedida por el Consejo Superior de la Judicatura o una normativa dictada por el Congreso de la República, es esencial cumplir de forma rigurosa con los principios de transparencia y responsabilidad en la corroboración humana de la información, así como de confidencialidad y respeto de datos personales (privacidad), para que no se afecten o pongan en entredicho los derechos fundamentales de los involucrados cuando se haga uso de herramientas de IA en el trámite de procesos judiciales. Por ello, es importante que la sentencia cobre efectos inter comunis. Esto, en particular, para que no se llegue a vulnerar en tales casos el derecho al debido proceso, en su garantía de juez natural y en relación con la autonomía e independencia judicial.
412. Como se ha señalado, para la Sala la utilización de IA en el sistema judicial puede generar un impacto en materia de derechos fundamentales, motivo por el cual no resulta pertinente admitir o fomentar en los operadores judiciales su uso libre e intuitivo. En otras palabras, aunque prohibir la IA en este ámbito sería ingenuo e impertinente, tampoco es acertado permitir que se utilice sin responsabilidad y sin una regulación ni acuerdos básicos que aseguren el cumplimiento de unas pautas mínimas para el uso ético y responsable de estas herramientas.
413. La Sala de Revisión no es ajena a los ingentes esfuerzos que se están adelantando desde la administración de la Rama Judicial para avanzar en la adopción de un uso ético y responsable de la IA en este escenario. Así, dentro del marco de la política de justicia digital, la transformación digital, el desarrollo tecnológico y la innovación son prioridades estratégicas esenciales consignadas en el Plan Sectorial de Desarrollo Rama Judicial 2023-2026, «Hacia una justicia confiable, digital e incluyente»[307]. El documento, al desarrollar los objetivos del sistema judicial, señala que «se avanzará en soluciones que apoyen la prestación del servicio de justicia con innovación y utilizando tecnologías de robotización de procesos, analítica de datos e inteligencia artificial. Estas soluciones partirán de una adecuada identificación y mitigación de los riesgos y del respeto por el criterio judicial y los principios y valores éticos que rigen la prestación del servicio de justicia». Este propósito se manifiesta actualmente de diversas formas que incluyen capacitación a funcionarios judiciales, eventos académicos, mesas de trabajo, entre otros, espacios en los que se fomenta un espacio dialógico y de construcción colectiva en torno a la materia.
414. Dicho lo anterior, es importante señalar que, actualmente, existen dos escuelas diferentes de pensamiento que están moldeando el desarrollo de la regulación en torno a la IA:
La primera solamente tiene en cuenta los riesgos, centrándose principalmente en la autorregulación y en la autoevaluación por parte de los desarrolladores de IA. En lugar de acogerse a normas detalladas, la regulación basada en los riesgos pone énfasis en identificar y mitigar los riesgos para poder lograr resultados […]
El otro enfoque integra los derechos humanos en todo el ciclo de vida de la IA. De principio a fin, los principios de derechos humanos se incorporan a la recopilación y selección de datos; así como al diseño, desarrollo, implantación y uso de los modelos, instrumentos y servicios resultantes[308] (negrilla fuera del texto original)
415. Aunque prevalece la regulación de la IA fundamentada en riesgos o en principios, tal como se señaló en el acápite anterior, los expertos en la materia también resaltan que la reglamentación del asunto puede adoptar un enfoque en valores, en estándares, en deberes de revelación (transparencia algorítmica), en derechos y en reglas de mando y control.
416. Por otro lado, el esfuerzo por regular el uso de estas tecnologías no debe perder de vista la dificultad que surge de que estas se utilicen en distintas aristas de nuestra vida en comunidad y que se actualizan vertiginosa y progresivamente. Por esta razón, las normas que busquen abordar el fenómeno de forma generalizada probablemente incurran en definiciones inoperantes, dejen por fuera muchas consideraciones importantes para sus distintos usos y agrupen usos cuyos riesgos potenciales son muy diferentes. Por esto mismo, el debate respecto del uso de estas tecnologías en un ámbito de tal importancia como la administración de justicia debería ser específico, amplio y participativo, además de estar basado en un enfoque de protección de derechos fundamentales, que más allá de una regulación, exige a los magistrados, jueces y demás servidores de la Rama Judicial que en el uso de IA tengan auto regulaciones, restricciones propias y autocontroles.
417. Bajo este sentir, la comisionada de Derechos Humanos del Consejo Europeo ha llamado la atención sobre la importancia de que las personas involucradas en el desarrollo y aplicación de IA sean educadas en el funcionamiento e impacto de derechos humanos por parte de tales tecnologías[309].
418. Además, la Carta Iberoamericana de Inteligencia Artificial en la Administración Pública[310] asume la necesidad de promover una serie de principios orientadores en el desarrollo de la IA en la Administración Pública, que puedan ser compartidos por todos los países de la región. Los anteriores están sustentados en los derechos humanos como fundamento para una IA centrada en las personas, confiable, robusta y orientada a la innovación, incluyendo el respeto de la dignidad humana, la libertad individual, la igualdad y no discriminación, el respeto a la democracia y el Estado de derecho, la libertad de pensamiento, conciencia y opinión, el derecho a la educación, así como a tener buenos gobiernos y administraciones públicas. La Recomendación se centra en cuestiones de política que son específicas de la IA y se esfuerza por establecer un estándar que sea implementable y lo suficientemente flexible como para soportar la prueba del tiempo en un campo en rápida evolución.
419. Los anteriores instrumentos precisan algunos principios para la administración responsable de la IA confiable, como lo son (i) el crecimiento inclusivo, desarrollo sostenible y bienestar; (ii) los valores y equidad centrados en el ser humano; (iii) la transparencia y explicabilidad; (iv) la robustez, seguridad y protección y (v) la rendición de cuentas.
420. Los citados instrumentos también plantean algunas recomendaciones, tales como (i) invertir en la investigación y el desarrollo de la IA; (ii) fomentar un ecosistema digital para la IA; (iii) dar forma a un entorno político propicio para la IA; (iv) desarrollar la capacidad humana y prepararse para la transformación del mercado laboral; y (v) cooperación internacional para una IA confiable.
421. La aplicación de la IA en la administración de justicia se debe introducir de manera sólida, técnica y con infraestructuras tecnológicas abiertas que hagan realidad las oportunidades disponibles, con el fin de que no se creen desigualdades en el sistema legal. Se deben desarrollar reglamentos y normativas flexibles para poder anticipar los riesgos, dotándose de la máxima seguridad posible para que sea realmente efectivo al momento de ser usado como herramienta de apoyo en la jurisdicción. Asimismo, la seguridad y la transparencia de los datos deben ser preocupaciones cruciales, ya que los errores o el uso indebido de estas tecnologías pueden generar consecuencias sobre los derechos de las personas que hacen uso del sistema jurídico nacional.
422. Así, se exhorta a los jueces de la República para que evalúen el adecuado uso de la herramienta tecnológica ChatGPT y otras análogas o que se desarrollen en el ámbito de la IA, valoren y consideren las mejores prácticas y apliquen criterios éticos y de respeto a los mandatos superiores, en orden a garantizar los derechos fundamentales, en especial el debido proceso, cuando hagan uso de aquellas, y asegurar la independencia y autonomía judiciales, como garantías insustituibles para la vigencia del Estado Social de Derecho y la democracia.
423. De manera particular, la Sala Segunda de Revisión considera esenciales la apropiación y aplicación de los siguientes criterios orientadores en cuanto al uso de herramientas de IA como ChatGPT por parte de los despachos judiciales en el país:
a. Transparencia, entendida como la obligación de evidenciar con claridad y precisión el uso, alcances y ubicación en las actuaciones o decisiones de los resultados obtenidos por la utilización de tales herramientas, que permita a los usuarios e interesados su pleno conocimiento y la posibilidad efectiva de contradicción.
b. Responsabilidad, comprendida como aquella obligación que existe de que el usuario de la herramienta de IA se encuentre capacitado y comprenda los impactos del uso de estas tecnologías, para a su vez dar cuenta del origen, idoneidad y necesidad del uso de la IA y la información suministrada por la misma, la cual debe ser verificada.
c. Privacidad, es aquel deber de custodiar y proteger la reserva de los datos personales y sensibles que se ponen en conocimiento de la administración de justicia para cumplir con los fines propios de la Rama Judicial.
d. No sustitución de la racionalidad humana, como expresión de la imposibilidad ética y jurídica de sustituir la acción y la responsabilidad del individuo de la especie humana en la gestión de las actuaciones y decisiones judiciales.
e. Seriedad y verificación, que implica la obligación de realizar un estricto escrutinio sobre las fuentes, alcances, restricciones, posibilidades, falencias y riesgos que presente la herramienta de cara a la actuación en curso o a la solución del problema jurídico correspondiente.
f. Prevención de riesgos, como mandato en cuanto aplicar los estándares adecuados de control sobre situaciones que generen riesgo por la aplicación de tecnologías tales, en aspectos como imprecisiones, desactualizaciones, alucinaciones, sesgos, inconsistencias y demás.
g. Igualdad y equidad, en cuanto se erradiquen todas las formas de discriminación relacionadas con la aplicación de sesgos derivada del uso de tales tecnologías y su impacto negativo en la eficacia de los derechos humanos.
h. Control humano, en tanto considerando los anteriores criterios, siempre se permita la realización efectiva de escrutinios sobre las actuaciones y decisiones en que se usen herramientas de IA, mediante el acceso a la debida información y el uso de recursos que deban ser resueltos por autoridades humanas.
i. Regulación ética, que implica el desarrollo de estándares de comportamiento individual que se adecúen a los mandatos superiores y legales y a las pautas razonables para el uso de tales tecnologías por parte de los funcionarios y servidores de la Rama Judicial.
j. Adecuación a buenas prácticas y estándares colectivos, en tanto se apliquen los esquemas razonables que se definan para el funcionamiento de la Rama Judicial, desde su autonomía e independencia, a partir de las definiciones que adopten sus autoridades, tanto en sede de administración como de orientación jurisprudencial.
k. Seguimiento continuo y adaptación, a efecto que el uso de tales tecnologías consulte los avances jurídicos, sociológicos y tecnológicos que se vayan implementando, así como los esquemas de mejora y control que se construyan en forma progresiva.
l. Idoneidad. El uso de las tecnologías de la información y de las comunicaciones en la gestión y trámite de los procesos judiciales y asuntos en curso debe ser adecuado para facilitar y agilizar el acceso a la justicia.
424. También se ordenará al Consejo Superior de la Judicatura que fije unos lineamientos sobre el uso de IA en la Rama Judicial, en los que, como mínimo, tenga en cuenta los puntos que se exponen a continuación:
(i) Las IA no pueden ser usada para sustituir el razonamiento lógico y humano que le compete realizar a cada juez a efectos de interpretar los hechos, valorar las pruebas, motivar y adoptar la decisión, pues ello conllevaría una violación de la garantía del juez natural y al debido proceso probatorio. En las instancias y en sede de revision de tutelas se deberán aplicar controles que eviten la violación del derecho al debido proceso por uso indebido de IA, entre los que se destaca la autrorregulación ética.
(ii) La IA se podrá utilizar en el sistema judicial para los ámbitos de gestión administrativa y documental, así como el de apoyo a la gestión judicial y la corrección y síntesis de textos; en tales eventos, la utilización de estas tecnologías no remplaza la labor esencial que se le ha atribuido al funcionario judicial, sin embargo, en estos casos, se deberán tener las cautelas necesarias para evitar la transgresión de derechos, tales como el habeas data o la intimidad, o que el funcionario judicial pierda la independencia o imparcialidad debido a los sesgos y alucinaciones de la IA.
(iii) Para efecto de lo anterior, se deberán garantizar los principios de transparencia, responsabilidad y privacidad respecto al uso de la IA, conforme a los parámetros ya establecidos con anterioridad.
(iv) Identificar a un humano responsable, es decir, que haya una persona individualizable e identificable a quien se le pueda plantear las preocupaciones relacionadas con las decisiones tomadas y que pueda evaluar las intervenciones realizadas por la IA.
(v) Materializarse un lenguaje claro y comprensible para los seres humanos, sobre las respuestas que genera la IA.
(vi) Lo anterior implica que los jueces, magistrados y demás funcionarios y servidores de la Rama Judicial empleen la autorregulación ética y los autocontroles al momento de apoyarse en IA para la gestión judicial.
(vii) En cualquier caso, es necesario resaltar que el proceso de digitalización de la justicia en Colombia, sean cuales sean los lineamientos que se adopten por el Consejo Superior de la Judicatura, debe hacerse dentro del marco de respeto por los derechos fundamentales y con las garantías para el acceso efectivo y la no vulneración de tales, especialmente el debido proceso, los cuales se sopesen con los riesgos potenciales de cada nueva tecnología en este ámbito y los nuevos usos que se les pueda dar a estas.
(viii) Se adelanten las gestiones necesarias de coordinación con las diferentes autoridades concernidas con el tema de tecnología en el Estado, con el Congreso de la República, el Gobierno nacional, los funcionarios y empleados de la Rama Judicial y las diferentes autoridades públicas, así como agencias internacionales u organismos especializados en herramientas de IA como ChatGPT, para informar y coordinar sobre los requerimientos que demande específicamente la Rama Judicial.
(ix) Se establezca un adecuado sistema de control, seguimiento, alerta, evaluación y mejora en cuanto a las prácticas que impliquen el uso de herramientas de IA como ChatGPT por los despachos judiciales del país y se divulguen sus resultados, como parte de las rendiciones de cuentas a cargo de la Rama Judicial. Se insta al Consejo Superior de la Judicatura para que adopte medidas que le permitan identificar los casos en los que funcionarios judiciales hayan hecho uso de IA en sus decisiones, para que tome las medidas judiciales y administrativas pertinentes.
(x) Igualmente se ordena al Consejo Superior de la Judicatura que, como lo viene haciendo, a través de la Escuela Judicial Rodrigo Lara Bonilla, desarrolle habilidades digitales en los operadores jurídicos (a) desde un enfoque interseccional e interdisciplinario, a través de cursos que permitan comprender y discutir sobre las nuevas tecnologías, en especial sobre las IA; que los temarios (b) sean producto de una construcción colectiva en que se tenga en cuenta a todos los servidores de la Rama Judicial, y (c) que los de formación jurídica sobre IA sean incluidos en el curso concurso para ingresar en la Rama Judicial, así como (d) que se desarrollen proyectos de extensión de despliegue de sistemas de IA de acuerdo con los lineamientos propuestos.
425. Hasta que se emitan dichos lineamientos, los funcionarios y empleados de la Rama Judicial deben aplicar los parámetros precisados anteriormente, en caso de que se utilicen las herramientas de IA para sus funciones y, en especial, para la emisión de providencias.
- En cuanto a la violación al derecho a la salud, relacionada con la exoneración de cobros de copagos y cuotas moderadoras en el SGSSS para niños con funcionalidad diversa
426. En cuanto a este aspecto, esta Corte confirmará parcialmente el fallo de tutela de segunda instancia, proferido el 30 de enero de 2023, que confirmó en su integridad el del 7 de diciembre de 2022, emitido en primera instancia. Lo anterior con el fin de (i) modificar el numeral segundo de la sentencia del 7 de diciembre de 2022 en el sentido de ordenar a la EPS que autorice el servicio de transporte intermunicipal para Emilio y su acompañante, desde su residencia en la ciudad de Cartagena hasta la IPS en la que le corresponda recibir la atención médica, asistencial o diagnóstica, ida y vuelta, las veces que requiera para el tratamiento de su diagnóstico de trastorno de espectro autista, mientras subsista la insuficiencia de recursos económicos de sus padres para asumirlas; y (ii) complementar el numeral tercero del fallo de tutela del 7 de diciembre de 2022 con un párrafo adicional en el que se ordene a la EPS que realice todas las gestiones y trámites administrativos necesarios para que las IPS encargadas de la atención del niño apliquen diligentemente y sin demoras la exoneración de cobros de copagos y cuotas moderadoras, sin trasladar al menor de edad y a su representante las consecuencias negativas de las eventuales faltas de comunicación entre las entidades del sistema.
DECISIÓN
En mérito de lo expuesto, la Sala Segunda de Revisión de la Corte Constitucional, administrando justicia, en nombre del Pueblo y por mandato de la Constitución Política,
RESUELVE
PRIMERO. CONFIRMAR PARCIALMENTE la sentencia de segunda instancia proferida el 30 de enero de 2023 por el Juzgado del Circuito, que confirmó la decisión de primera instancia del 7 de diciembre de 2022, que dictó el Juzgado Municipal, dentro de la acción de tutela formulada por Blanca en contra de la EPS.
SEGUNDO. MODIFICAR el numeral segundo de la sentencia del 7 de diciembre de 2022, que dictó el Juzgado Municipal, la cual quedará así:
ORDENAR a la EPS que, dentro del término de cuarenta y ocho (48) horas contadas a partir del momento de la notificación de esta providencia, autorice el valor del transporte urbano o suministre ese servicio al menor Emilio y a un acompañante, desde su residencia en la ciudad de Cartagena hasta la IPS en la que le corresponda recibir la atención médica, asistencial o diagnóstica, ida y vuelta, las veces que requiera para el tratamiento de su diagnóstico trastorno de espectro autista, mientras subsista la insuficiencia de recursos económicos de sus padres para asumirlas.
TERCERO. ADICIONAR un segundo inciso al numeral tercero de la sentencia del 7 de diciembre de 2022, proferida por el Juzgado Municipal, en los siguientes términos:
ORDENAR a la EPS que, dentro del término de cuarenta y ocho (48) horas contadas a partir del momento de la notificación de esta providencia, realice todas las gestiones y trámites administrativos necesarios para que las IPS encargadas de la atención del niño apliquen diligentemente y sin demoras la exoneración de cobros de copagos y cuotas moderadoras, sin trasladar al niño y a su representante las consecuencias negativas de las eventuales faltas de comunicación entre las entidades del sistema.
CUARTO. EXHORTAR a los jueces de la República para que evalúen el adecuado uso de la herramienta tecnológica ChatGPT y otras análogas o que se desarrollen en el ámbito de la inteligencia artificial IA, valoren y consideren las mejores prácticas, y apliquen criterios éticos y de respeto a los mandatos superiores, en orden a garantizar los derechos fundamentales, en especial el debido proceso, cuando encuentren necesario y pertinente hacer uso de aquellas, y asegurar la independencia y autonomía judiciales, como garantías insustituibles para la vigencia del Estado Social de Derecho y la democracia.
En consecuencia, los funcionarios y empleados de la Rama Judicial aplicarán los principios de (i) transparencia, (ii) responsabilidad, (iii) privacidad, (iv) no sustitución de la racionalidad humana, (v) seriedad y verificación, (vi) prevención de riesgos, (vii) igualdad y equidad, (viii) control humano, (ix) regulación ética, (x) adecuación a buenas prácticas y estándares colectivos, (xi) seguimiento continuo y adaptación y (xii) idoneidad.
QUINTO. ORDENAR al Consejo Superior de la Judicatura que, en el término de cuatro (4) meses, contados a partir de la notificación de esta providencia, divulgue una guía, manual o lineamiento en relación con la implementación de la IA generativa en la Rama Judicial, especialmente en cuanto al uso de la herramienta ChatGPT, regulación que deberá ser acorde con los aspectos establecidos en esta providencia y, en particular, con lo dispuesto en su fundamento jurídico 423.
SEXTO. ORDENAR al Consejo Superior de la Judicatura que, a través de la Escuela Judicial Rodrigo Lara Bonilla, divulgue esta providencia a todos los despachos judiciales del país y continúe generando espacios de capacitación que fomenten el aprendizaje de conocimientos básicos sobre el uso de la inteligencia artificial IA en el contexto judicial, junto con sus riesgos y beneficios, con un enfoque de derechos.
SÉPTIMO. Por la Secretaría General de la Corte Constitucional, LÍBRESE la comunicación prevista en el artículo 36 del Decreto 2591 de 1991.
Notifíquese, comuníquese y cúmplase.
JUAN CARLOS CORTÉS GONZÁLEZ
Magistrado
DIANA FAJARDO RIVERA
Magistrada
VLADIMIR FERNÁNDEZ ANDRADE
Magistrado
ANDREA LILIANA ROMERO LOPEZ
Secretaria General
[1] «Artículo 62. Publicación de providencias. En la publicación de sus providencias, las Salas de la Corte o el magistrado sustanciador, en su caso, podrán disponer que se omitan nombres o circunstancias que identifiquen a las partes».
[2] «Por medio del cual se unifica y actualiza el Reglamento de la Corte Constitucional».
[3] Sobre anonimización de nombres en las providencias disponibles al público en la página web de la Corte Constitucional.
[4] Expediente T-9.301.656. Escrito de tutela, pág.1.
[5] «Prevención sanitaria: Las personas con discapacidad mental tienen derecho a los servicios de salud, incluidos los relacionados con la salud sexual y reproductiva, de manera gratuita, a menos que la fuerza de su propio patrimonio, directo o derivado de la prestación alimentaría, le permitan asumir tales gastos. La atención sanitaria y el aseguramiento de los riesgos de vida, salud, laborales o profesionales para quienes sufran discapacidad mental se prestará en las mismas condiciones de calidad y alcance que a los demás miembros de la sociedad. Las exclusiones que en esta materia se hagan, por parte de los servicios de salud o de las aseguradoras, tendrán que ser autorizadas por vía general o particular, por el Comité Consultivo Nacional de las Personas con Limitación. Los encargados de velar por el bienestar de las personas con discapacidad mental tomarán las medidas necesarias para impedir o limitar la incidencia de agentes nocivos externos en la salud psíquica o de comportamiento del sujeto y para evitar que se les discrimine en la atención de su salud o aseguramiento de sus riesgos personales por razón de su situación de discapacidad. Los individuos con discapacidad mental quedan relevados de cumplir los deberes cívicos, políticos, militares o religiosos cuando quiera que ellos puedan afectar su salud o agravar su situación».
[6] Esta circular exceptúa del pago de cuotas moderadoras y copagos a «[l]as personas con discapacidad mental que tienen derecho a los servicios de salud de manera gratuita, a menos que su patrimonio directo o derivado de la prestación alimentaria, le permita asumir tales gastos».
[7] Esta información fue consultada en: https://www.sisben.gov.co/Paginas/consulta-tu-grupo.html URL 18/03/2024.
[8] Expediente T-9.301.656. Archivo «01DEMANDA.pdf».
[9] Ibidem. Archivo «03AutoAdmite.pdf».
[10] Ibidem. Archivo «05CONTESTACION.pdf».
[11] Expediente T-9.301.656. Archivo «09SENTENCIA.pdf».
[12] Ibidem. Sentencia de primera instancia proferida por el Juzgado Municipal, pág.16.
[13] Ibidem, pág.15.
[14] Expediente T-9.301.656. Archivo «11SOLICITUDIMPUGNACION.pdf».
[15] Expediente T-9.301.656. Archivo «04SENTENCIASEGUNDAINSTANCIA.pdf».
[16] Expediente digital. Archivo « 04SENTENCIASEGUNDAINSTANCIA.pdf». Negrilla y cursiva propia del texto original.
[17] Expediente digital. Archivo «Anexo secretaria Corte T-9301656 Toma de Declaracion Juez.pdf».
[18] Expediente T-9.301.656. Archivo «Anexo secretaria Corte T9301656 MAGISTRADA PAOLA ANDREA MENESES MOSQUERA.pdf».
[19] Expediente T-9.301.656. Archivo «Anexo secretaria Corte T9301656 MAGISTRADO JOSE FERNANDO REYES CUARTAS.pdf».
[20] Expediente T-9.301.656. Archivo «Anexo secretaria Corte T9301656 DEFENSORIA DEL PUEBLO.pdf».
[21] Expediente T-9.301.656. Archivo «Anexo secretaria Corte T-9301656 Auto de Pruebas 22-Ago-2023.pdf».
[22] Expediente T-9.301.656. Archivo «Anexo secretaria Corte T-9301656 Diligencia Consulta Chat GPT Juez.pdf»
[23] «Artículo 86. Toda persona tendrá acción de tutela para reclamar ante los jueces, en todo momento y lugar, mediante un procedimiento preferente y sumario, por sí misma o por quien actúe a su nombre, la protección inmediata de sus derechos constitucionales fundamentales, cuando quiera que éstos resulten vulnerados o amenazados por la acción o la omisión de cualquier autoridad pública».
[24] «Artículo 10. La acción de tutela podrá ser ejercida, en todo momento y lugar, por cualquiera persona vulnerada o amenazada en uno de sus derechos fundamentales, quien actuará por sí misma o a través de representante. Los poderes se presumirán auténticos. También se pueden agenciar derechos ajenos cuando el titular de los mismos no esté en condiciones de promover su propia defensa. Cuando tal circunstancia ocurra, deberá manifestarse en la solicitud. También podrá ejercerla el defensor del pueblo y los personeros municipales».
[25] Sentencia T-531 de 2002, M.P. Eduardo Montealegre Lynett.
[26] Sentencias T-1015 de 2006, Álvaro Tafur Galvis; T-780 de 2011, M.P. Jorge Ignacio Pretelt Chaljub; y T- 262 de 2022, M.P. José Fernando Reyes Cuartas.
[27] «La acción de tutela procederá contra acciones u omisiones de particulares en los siguientes casos […] 2. Cuando aquél contra quien se hubiere hecho la solicitud esté encargado de la prestación del servicio público de salud».
[28] Sentencias T-148 de 2019, T-608 de 2019 y T-117 de 2020, M.P. Gloria Stella Ortiz Delgado.
[29] Sentencias T-606 de 2004, M.P. Rodrigo Uprimny Yepes, y T-679 de 2017, M.P. Alejandro Cantillo.
[30] Sentencia SU-016 de 2021, M.P. Gloria Stella Ortiz Delgado.
[31] Con el escrito de tutela, la tutelante allega una respuesta del 30 de junio de 2022. Sin embargo, no adjunta la contestación a la solicitud del 31 de agosto de 2022 que también anexó a la acción de tutela.
[32] Según el acta de reparto que se encuentra en el expediente digital.
[33] Sentencia T-310 de 2023, M.P. Juan Carlos Cortés González.
[34] Sentencia T-364 de 2023, M.P. Juan Carlos Cortés González.
[35] Sentencias T-1015 de 2006, M.P. Álvaro Tafur Galvis; T-896 de 2007, M.P. Manuel José Cepeda Espinosa; y T-780 de 2011, M.P. Jorge Ignacio Pretelt Chaljub.
[36] Sentencia T-258 de 2022, M.P. José Fernando Reyes Cuartas.
[37] Sentencias T-200 de 2016, M.P. Jorge Iván Palacio Palacio; T-171 de 2018, M.P. Cristina Pardo Schlesinger; y SU-508 de 2020, M.P. José Fernando Reyes Cuartas. En particular, la Sentencia T-235 de 2018, M.P. Gloria Stella Ortiz Delgado, señala que, en los casos de salud y sobre todo cuando se trata de un sujeto de especial protección constitucional, se deben analizar las circunstancias de cada caso y no es necesario agotar per se el mecanismo ante la Superintendencia Nacional de Salud. Esto cuando se ha advertido en el caso concreto la urgencia de la protección y el riesgo que se cierne sobre los derechos, de modo que el mecanismo ordinario no resultaría idóneo y la tutela procedería como medio principal de protección.
[38] Esta información fue consultada en: https://www.sisben.gov.co/Paginas/consulta-tu-grupo.html URL 18/03/2024.
[39] Esta información fue consultada en: https://servicios.adres.gov.co/BDUA/Consulta-Afiliados-BDUA URL 18/03/2024.
[40] Sentencia T-419 de 2018, M.P. Diana Fajardo Rivera.
[41] Sentencia SU-522 de 2019, M.P. Diana Fajardo Rivera.
[42] Ibidem.
[43] Ibidem.
[44] Ibidem.
[45] Expediente digital. Archivo «Anexo secretaria Corte Rta. Blanca.pdf».
[46] Ibidem.
[47] Ibidem.
[48] Al respecto, se pueden consultar los autos 11 de 1998, M.P. Eduardo Cifuentes Muñoz; 50 de 2000, M.P. José Gregorio Hernández Galindo; 32 de 2002, M.P. Clara Inés Vargas Hernández; 15 de 2007, M.P. Humberto Antonio Sierra Porto; 82 de 2010, M.P. Nilson Pinilla Pinilla; y 177 de 2021, M.P. Jorge Enrique Ibáñez Najar.
[49] Auto 177 de 2021, M.P. Jorge Enrique Ibáñez Najar.
[50] Sentencia C-341 de 2014, M.P. Mauricio González Cuervo.
[51] Sentencia T-039/96, M.P. Antonio Barrera Carbonell.
[52] Sentencia C-341 de 2014, M.P. Mauricio González Cuervo.
[53] Sentencias C-957 de 2011, M.P. Gabriel Eduardo Mendoza Martelo; C-248 de 2013, M.P. Mauricio González Cuervo; y C-341 de 2014, M.P. Mauricio González Cuervo.
[54] Como parte de esta garantía se encuentran el derecho (i) a la independencia y (ii) a la imparcialidad del juez. La primera implica que los servidores públicos a los cuales confía la Constitución la tarea de administrar justicia ejerzan sus funciones separadas de aquellas atribuidas al ejecutivo y al legislativo. La imparcialidad, por su parte, supone que decisiones que se tomen en un proceso jurídico o administrativo deben ser tomadas con fundamento en los hechos, conforme a los imperativos del orden jurídico, sin designios anticipados ni prevenciones, presiones o influencias ilícitas.
[55] El origen de lo que hoy se conoce como IA data de 1950, cuando Alan Turing, quien es considerado uno de los padres de la ciencia de la computación y precursor de la informática moderna, planteó por primera vez el interrogante acerca de si las máquinas pueden pensar. El término se acuñó en 1956, desde entonces la IA ha evolucionado de una IA simbólica, en la que los humanos construían sistemas basados en la lógica, a una IA basada en técnicas de aprendizaje automático, que les permite a las máquinas aprender de datos históricos para hacer predicciones en situaciones nuevas. Esta información fue consultada en el texto «Artificiall Intelligence in Society», Organización para la Cooperación y el Desarrollo Económicos (OCDE). Disponible en la biblioteca digital de la OCDE en https://www.oecd-ilibrary.org/science-and-technology/artificial-intelligence-in-society/summary/spanish_603ce8a2-es?parentId=http%3A%2F%2Finstance.metastore.ingenta.com%2Fcontent%2Fpublication%2Feedfee77-en
[56] Rusell, Stuart. y Norvig, Peter. (2008). Inteligencia Artificial. Un enfoque moderno. Pearson Educación, S.A. Segunda Edición.
[57] Ibidem.
[58] Universidad Autónoma de Occidente. ¿Cómo razona una inteligencia artificial?. Disponible en: https://virtual.uao.edu.co/blog/como-razona-una-ia#%C2%BFQue_es_el_razonamiento_en_la_inteligencia_artificial.
[59] «En la inteligencia artificial, los actuadores son los componentes encargados de convertir la energía en movimiento. Estos mecanismos son responsables de ejecutar las acciones físicas en el entorno del agente inteligente». Disponible en https://iccsi.com.ar/la-componen-mecanismos-actuadores-inteligentes-y-sensores/#:~:text=de%20AS%2DInterface-,%C2%BFQu%C3%A9%20son%20los%20actuadores%20y%20sensores%20en%20la%20inteligencia%20artificial,el%20entorno%20del%20agente%20inteligente.
[60] Esta explicación se basa en el documento «A definition of Artificial Intelligence: main capabilities and scientific discipline» realizado en 2019 por el Grupo de Expertos de Alto Nivel en Inteligencia Artificial que conformó la Comisión Europea. Disponible en: https://digital-strategy.ec.europa.eu/en/library/definition-artificial-intelligence-main-capabilities-and-scientific-disciplines.
[61] Lavrentyeva, Nadya. «The Alignment Problem: Machine Learning and Human Values». Y, Rusell, Stuart. y Norvig, Peter. (2008). Inteligencia Artificial. Un enfoque moderno. Pearson Educación, S.A. Segunda Edición.
[62] Danaher, John. «The Ethics of Artificial Intelligence».
[63] La Comisión Europea es el órgano ejecutivo, políticamente independiente, de la Unión Europea (UE). Es la única instancia responsable de elaborar propuestas de nueva legislación europea y de aplicar las decisiones del Parlamento Europeo y del Consejo de la UE. Además de presentar nuevas leyes para que el Parlamento y el Consejo de la UE las aprueben, la Comisión gestiona las políticas europeas y asigna los fondos de la UE, vela por que se cumpla la legislación de la UE (en conjunto con el Tribunal de Justicia), y representa a la UE en la escena internacional. Este organismo está compuesto por 27 comisarios, uno de cada país miembro, bajo la dirección del presidente de la Comisión. Sobre el particular puede consultarse el siguiente link https://european-union.europa.eu/institutions-law-budget/institutions-and-bodies/search-all-eu-institutions-and-bodies/european-commission_es
[64] Grupo de Expertos de Alto Nivel en Inteligencia Artificial de la Comisión Europea (2019) A definition of Artificial Intelligence: main capabilities and scientific disciplines. Disponible en: https://digital-strategy.ec.europa.eu/en/library/definition-artificial-intelligence-main-capabilities-and-scientific-disciplines. El despacho se apoyó de la herramienta Deepl para la traducción del apartado.
[65] El memorando realiza aclaraciones a la definición de sistema de IA contenida en el documento Recommendation of The Council of Artificial Intelligence (OCDE, 2019), adoptadas el 21 de mayo de 2019. El documento define la IA como «un sistema de ingeniería o basado en máquinas que puede, para un conjunto determinado de objetivos, generar resultados como predicciones, recomendaciones o decisiones que influyen en entornos reales o virtuales. Los sistemas de IA están diseñados para funcionar con distintos niveles de autonomía». Disponible en https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449#dates
[66] La figura, cuyos gráficos fueron adaptados y su texto traducido por el despacho, fue tomada del «Memorando explicativo n.º 8 sobre la definición actualizada de la OCDE de un sistema de IA». A su vez, la figura fue tomada por la misma OCDE, de un documento previo de su autoría, denominado «OECD Framework for the Classification of AI systems», OECD Digital Economy Papers, No. 323. Disponible en https://www.oecd-ilibrary.org/science-and-technology/oecd-framework-for-the-classification-of-ai-systems_cb6d9eca-en
[67] OCDE. «Memorando explicativo n.º 8 sobre la definición actualizada de la OCDE de un sistema de IA».
[68] Ibidem.
[69] La explicación contenida en este párrafo se basa en el concepto que emitió en el presente trámite de revisión la experta Agneris Sampieri Ortega, analista de políticas públicas para América Latina y el Caribe en la empresa Acces Now. Expediente digital. Archivo «Anexo secretaria Corte Rta. Agneris Sampieri.pdf».
[70] CUSTERS, Bart (2022). Law and Artificial Intelligence. Regulating AI and applying AI in legal practice. Países Bajos: Leiden University. Volumen 35, págs.19-20.
[71] Martínez, Goretty. La inteligencia artificial y su aplicación al campo del Derecho. Disponible en: https://www.corteidh.or.cr/tablas/r30570.pdf.
[72] SINGH, Karan. Principles of Generative AI. A Technical Introduction. Carnegie Mellon University: Tepper School of Business. Disponible en: https://www.cmu.edu/intelligentbusiness/expertise/genai-principles.pdf URL 1/02/2023.
[73] El despacho se apoyó de la herramienta Deepl para la traducción del apartado.
[74] Se trata del primer Índice Latinoamericano de Inteligencia Artificial (ILIA) elaborado por el Centro Nacional de Inteligencia Artificial de Chile (Cenia) con apoyo del BID, CAF y la OEA, con el objetivo de revisar el estado actual de la inteligencia artificial (IA) en 12 países de la región. El documento puede consultarse en https://indicelatam.cl/wp-content/uploads/2023/09/ILIA-ESP_compressed.pdf
[75] La adopción, que fue una de las subdimensiones evaluadas en el estudio, mide la intensidad con que el sector privado integra la IA y los mecanismos del Estado para promover esta integración. Para eso cuantifica el número de compañías que usan IA como elemento fundamental de su modelo de negocios para reflejar la penetración de esta tecnología en el sector privado. Por otro lado, mide cómo los gobiernos están impulsando la IA a través del gasto en I+D y la promoción de inversión en tecnologías emergentes.
[76] Guibourg, Ricardo. (2015). «Informática jurídica», en FABRA, Jorge y Núñez, Álvaro (eds.). Enciclopedia de filosofía y teoría del derecho. Universidad Nacional Autónoma de México, vol. I, pp. 791-825.
[77] Se pueden consultar otras 92 IA usadas para cuestiones judiciales, en diferentes países del mundo, en el Centro de Recursos sobre Ciberjusticia e Inteligencia Artificial del Consejo de Europa, en https://public.tableau.com/app/profile/cepej/viz/ResourceCentreCyberjusticeandAI/AITOOLSINITIATIVESREPORT?publish=yes
[78] En el informe que presentó dentro del presente trámite de revisión, Open AI informó que su misión es «garantizar que la Inteligencia Artificial (“IA”) beneficie a toda la humanidad. OpenAI lleva a cabo investigaciones sobre IA, desarrolla modelos de IA y proporciona acceso a esos modelos. El objetivo de OpenAI es cumplir su misión de desarrollar una IA segura y beneficiosa en lugar de maximizar los ingresos y los beneficios. Es por eso por lo que OpenAI está controlada por una organización sin fines de lucro, y opera como una entidad de “beneficio/lucro limitado” la cual limita legalmente los beneficios que puede proporcionar a sus inversores y empleados. Cuando OpenAI sea rentable, cualquier beneficio económico que obtenga después de una cantidad predeterminada se devolverá a la organización sin fines de lucro para promover el objetivo de que la IA beneficie a la humanidad».
[79] Esta definición fue tomada del concepto que emitió en el presente trámite de revisión la experta Agneris Sampieri Ortega, analista de políticas públicas para América Latina y el Caribe en la empresa Acces Now. Expediente digital. Archivo «Anexo secretaria Corte Rta. Agneris Sampieri.pdf».
[80] El Espectador. Así es ChatGPT-4o, la nueva versión gratuita, más rápida y mejorada del ‘chatbot’. Disponible en: https://www.elespectador.com/tecnologia/asi-es-chatgpt-4o-la-nueva-version-gratuita-mas-rapida-y-mejorada-del-chatbot/. Ver: https://openai.com/index/gpt-4/.
[81] Expediente digital. Archivo «Anexo secretaria Corte T-9301656 Rta. OPEN AI 13-10-23.pdf».
[82] Actualizados a 14 de noviembre de 2023. Señalan. Disponible en https://openai.com/es/policies/terms-of-use.
[83] Actualizada a 14 de noviembre de 2023. Disponible en https://openai.com/es/policies/privacy-policy.
[84] El artículo se encuentra disponible en idioma inglés en https://help.openai.com/en/articles/6783457-what-is-chatgpt, sin embargo, la traducción usada corresponde a aquella que reposa en el informe que OpenAI allegó a esta Corte.
[85] Disponible en https://openai.com/blog/chatgpt.
[86] Disponible en https://openai.com/policies/usage-policies.
[87] SCHWAB, Klaus (2016). «The Fourth Industrial Revolution». World Economic Forum. Disponible en https://law.unimelb.edu.au/__data/assets/pdf_file/0005/3385454/Schwab-The_Fourth_Industrial_Revolution_Klaus_S.pdf
[88] Rojas Ahumada, Kenner Alexander, Verónica López Zavaleta, y Alberto Carlos Mendoza de los Santos. 2023. «El Impacto De La Inteligencia Artificial En La Mejora De La atención Al Cliente: Una revisión sistémica». Innovación Y Software 4 (2), 201-22. Disponible en: https://doi.org/10.48168/innosoft.s12.a90.
[89] IBM. «¿Qué es la inteligencia artificial en la medicina?». Disponible en: https://www.ibm.com/mx-es/topics/artificial-intelligence-medicine.
[90] Benites Ocampo, Cesar Alexis. 2023. «Detectando El Fraude Con Inteligencia Artificial: Una Perspectiva Avanzada En Auditoría Forense». Revista La Junta 6 (2):13-40. Disponible en: https://doi.org/10.53641/junta.v6i2.116.
[91] Pedraza Caro, Jarod David. 2023. «La inteligencia artificial en la sociedad: explorando su impacto actual y los desafíos futuros». Disponible en: https://oa.upm.es/cgi/export/75068/.
[92] Disponible en: https://www.ohchr.org/es/instruments-mechanisms/instruments/declaration-use-scientific-and-technological-progress-interests.
[93] Centro Latinoamericano de Administración para el Desarrollo. Carta Iberoamericana de Inteligencia Artificial en la Administración Pública. Págs 8 y 9. Disponible en https://clad.org/wp-content/uploads/2023/08/Borrador-CIIA-V2-ES-08-2023.pdf.
[94] Se refiere a la «utilización de sistemas de recomendación dentro de redes y plataformas digitales que, a través del desarrollo de algoritmos, aprenden de las preferencias humanas y sirven contenido digitales personalizados, según las expectativas aprendidas de cada individuo».
[95] Es aquella tecnología que «busca en bases de datos que las organizaciones han ido acumulando a lo largo de los años sobre las personas que interactúan con ellas, con el fin de generar patrones para predecir tendencias. En este nivel de desarrollo se pueden activar cambios más profundos en las organizaciones, más allá del incremento de la automatización de tareas hacia oportunidades predictivas, y el impacto en las personas también aumenta de manera paralela, ya que las nuevas capacidades de predicción modelan progresivamente las decisiones humanas y sus oportunidades de actuación».
[96] «Aquí, la Inteligencia Artificial se extiende gracias a la profundización en nuestro entorno social, a través de la digitalización creciente del entorno físico, mediante la presencia e interacción con sensores, dispositivos inteligentes y neuro-tecnologías, incluyendo una, capacidad de procesamiento en aumento (que será todavía mayor en el futuro con la computación cuántica), permitiendo un crecimiento exponencial de la percepción del mundo y de la actividad de los seres humanos».
[97] «En este caso, la Inteligencia Artificial se movería más allá y entraría en un estadio en el que robots y máquinas inteligentes no sólo serían capaces de ayudar a mejorar la percepción y comprensión del mundo, sino que también podrían colaborar para moldearlo a través del desarrollo de capacidades autónomas respecto de los seres humanos».
[98] Pontificia Universidad Católica de Chile. «¿Qué impactos socioculturales tienen los usos de la inteligencia artificial?». Disponible en: https://www.uc.cl/noticias/header-que-impactos-socioculturales-tienen-los-usos-de-la-inteligencia-artificial/.
[99] Expediente digital. «Anexo secretaria Corte T-9301656 Rta. SECRETARIA GENERAL SENADO DE LA REPUBLICA 31-01-24.pdf».
[100]«Por medio de la cual se crea la armonización de la inteligencia artificial con el derecho al trabajo de las personas». Estado: pendiente de discutirse la ponencia para primer debate en el Senado de la República.
[101]«Mediante la cual se establece el deber de información para el uso responsable de la inteligencia artificial en Colombia y se dictan otras disposiciones». Estado: pendiente de discutir ponencia para primer debate en el Senado de la República.
[102]«Por medio de la cual se establecen los lineamientos de política pública para el desarrollo, uso e implementación de inteligencia artificial y se dictan otras disposiciones». Estado: pendiente de rendir ponencia para segundo debate en el Senado de la República.
[103] «Por medio de la cual se establecen los lineamientos de política pública para el desarrollo, uso e implementación de inteligencia artificial y se dictan otras disposiciones».
[104] Expediente T-9.301.656. Archivo «Anexo secretaria Corte Rta Camara de Representantes despues de traslado.pdf».
[105] Según la Gaceta del Congreso 1260 del 14 de septiembre de 2023 el proyecto, que consta de 27 artículos, se encuentra dividido en cinco títulos, así: TITULO I. Disposiciones generales. Allí se encuentra el objeto, (art. 1); el ámbito de aplicación, (art. 2); definiciones para la aplicación e interpretación de la ley, (art. 3); los principios que rigen su interpretación y aplicación, (art. 4); valores, (art. 5); TITULO II. Condiciones para el desarrollo, uso e implementación de la inteligencia artificial. Se regula la clasificación del riesgo de los sistemas de IA, (art. 6); uso en entidades públicas y privadas, (art. 7); las afectaciones derivadas de la IA, (art. 8); la transparencia en su uso, (art. 9); el consentimiento informado, (art. 10); la capacidad legal para el uso e implementación de esta herramienta, (art. 11); la garantía de estabilidad laboral, (art. 12); las actividades excluidas de los sistemas de IA, (art. 13); la responsabilidad legal y socioambiental del uso de IA, (arts. 14 y 15); TITULO III. Inspección, control y vigilancia en materia de IA. En este título se propone la modificación de algunas normas de la Ley 1581 de 1012 para reglar lo concerniente a la autoridad de protección de datos y las funciones de la Superintendencia de Industria y Comercio en esa materia, (arts. 16 y 17); se regula la auditoría de algoritmos, (art. 18); dispone el uso de una plataforma de certificación de sistemas de IA, (art. 19); se consagra una prohibición de transferencia de información personal, (art. 20); se asigna a la referida Superintendencia la función de adelantar los procedimientos e imponer las sanciones que correspondan por el incumplimiento de lo dispuesto en la ley, (art. 21); TÍTULO IV. Medidas para el apoyo y promoción de la IA. Se dispone que el Ministerio de las TIC tiene a su cargo el deber de difundir en la sociedad las implicaciones y riesgos de la IA, (art. 22), así como de realizar campañas de prevención y capacitación sobre la materia a los estudiantes de instituciones públicas y privadas, y promover incentivos al desarrollo e implementación de la IA, (arts. 22, 23 y 24). TÍTULO V. Otras disposiciones. Este título se ocupa de prever un régimen de transición en el desarrollo, uso o implementación de herramientas de IA, (art. 25); la reglamentación del Gobierno nacional que debe expedir en la materia, (art. 26); y la vigencia de la ley, (art. 27). De otro lado, cabe resaltar que la exposición de motivos, al justificar la pertinencia del proyecto, señala particularmente que «[e]n el ámbito judicial, la inteligencia artificial facilita la sistematización y búsqueda de información jurídica útil para jueces, abogados y la sociedad en su conjunto, y permite predicciones basadas en decisiones judiciales que se han dictado y pueden ser reproducidas, pero no tiene capacidad de argumentación y garantiza imparcialidad, precisión y decisión adecuada, lo que la hace vulnerable a «resultados inexactos, discriminatorios, sesgos implícitos o inherentes». Acelerar el acceso a la justicia no conducirá a una sociedad más justa si no se garantiza que las decisiones del sistema sean justas, correctas y ajustadas a derecho».
[106] Es un enfoque regulatorio que busca evaluar y mitigar los riesgos asociados al uso de tecnologías de IA. Se centra en identificar y clasificar los riesgos potenciales que las aplicaciones de IA pueden representar para la sociedad, la economía, la seguridad nacional y mundial, entre otros ámbitos, y luego establecer medidas regulatorias proporcionales a esos riesgos. Un ejemplo de regulación basada en riesgos es el Reglamento de Inteligencia Artificial de la Unión Europea.
[107] Este enfoque busca asegurar que el desarrollo, implementación y uso de la IA respeten y protejan los derechos humanos fundamentales. Considera la protección de derechos como la privacidad, la igualdad, la no discriminación, la libertad de expresión y otros derechos reconocidos en instrumentos internacionales de derechos humanos y en las constituciones de los diferentes Estados.
[108] Este enfoque pretende establecer directrices y estándares éticos que deben guiar el desarrollo, la implementación y el uso de la IA de manera segura, ética y beneficiosa para la sociedad. En esta categoría se enmarca el proyecto de ley 253/22 del Senado de Colombia.
[109] Este enfoque se base en la creación y adopción de normas técnicas y de calidad por parte de organizaciones internacionales, nacionales o sectoriales que sirvan de parámetro para un desarrollo, implementación y uso de la IA seguros, efectivos y coherentes con las mejores prácticas en la materia.
[110] Bajo este enfoque las autoridades reguladoras establecen reglas y directrices específicas y exhaustivas, acompañadas de una supervisión directa y detallada del desarrollo, implementación y uso de las tecnologías de IA.
[111] «Por medio del cual se expide el Decreto Único Reglamentario del sector de Tecnologías de la Información y las Comunicaciones».
[112] Consejería Presidencial para asuntos económicos y transformación digital. (Noviembre de 2021). Task Force para el desarrollo e implementación de la inteligencia artificial en Colombia. Disponible en https://dapre.presidencia.gov.co/AtencionCiudadana/Documents/TASK-FORCE-para-desarrollo-implementacion-Colombia-propuest a-201120.pdf
[113] https://inteligenciaartificial.gov.co/politicas_y_publicaciones/
[114] Departamento Nacional de Planeación. (27 de abril de 2021). Departamento Administrativo de la Presidencia de la República. Astrid Rocío Angarita Cruz, Elena Tamayo Uribe. Disponible en https://dapre.presidencia.gov.co/TD/plan-seguimiento-implementacion-colombia-estandares-internacionales-inteligencia-artificial-oc de.pdf?TSPD_101_R0=08394a21d4ab20003ce781987b45f801b436fefee21570395b2f0af80498840c752d7f9356e396f508f3d002e2 14500049b04
[115] Expediente digital «Anexo secretaria Corte Rta. MINTIC.pdf».
[116] «Por el cual se adoptan medidas para implementar las tecnologías de la información y las comunicaciones en las actuaciones judiciales, agilizar los procesos judiciales y flexibilizar la atención a los usuarios del servicio de justicia». Este decreto fue declarado exequible por la Corte Constitucional, mediante la Sentencia C-420 de 2020, M.P.(e) Richard S. Ramírez Grisales.
[117] Sentencia SU-387 de 2022, M.P. Paola Andrea Meneses Mosquera, la cual a su vez cita el Decreto Legislativo 806 de 2020, artículo 1.º.
[118] Modificada por la Ley 2157 de 2021.
[119] Un ejemplo que puede evidenciar el impacto de este tipo de dato es el procedimiento establecido para la búsqueda selectiva en bases de datos (Ley 906 de 2004, artículo 244).
[120] Ferrajoli, L. (2016). El derecho como sistema de garantías. Nuevo Foro Penal, 12(60), 59–75. Recuperado a partir de https://publicaciones.eafit.edu.co/index.php/nuevo-foro-penal/article/view/3896.
[121] Corte Suprema de Justicia, Sala de Casación Civil, Agraria y Rural, Sentencia SC370-2023 del 10 de octubre de 2023, M.P. Aroldo Wilson Quiroz Monsalvo, radicación 11001319900120160210601. La decisión se dictó en el trámite del recurso de casación que interpuso la empresa de Comunicaciones Tech y Transporte S.A. – Cotech S.A. contra la sentencia que profirió el Tribunal Superior de Distrito Judicial de Bogotá, Sala Civil, en proceso declarativo que promovió aquella contra Uber B.V., Uber Technologies, Inc. y Uber Colombia S.A.S. con el fin de que se declarara que estas últimas incurrieron en desviación de la clientela y violación de las normas de competencia y, en consecuencia, se les ordenara cesar la prestación del servicio de transporte individual de pasajeros en vehículos y se les prohibiera el uso de la respectiva aplicación en Colombia. En el marco de dicha controversia el Alto Tribunal señaló que el uso de los avances de las tecnologías de la información y la comunicación no puede calificarse como medio desleal para desviar clientes o como un mecanismo de competencia desleal pues ello supondría la violación del derecho humano a gozar de los adelantos tecnológicos.
[122] Declaración Universal de Derechos Humanos «Artículo 27. 1. Toda persona tiene derecho a tomar parte libremente en la vida cultural de la comunidad, a gozar de las artes y a participar en el progreso científico y en los beneficios que de él resulten […]».
[123] Carta de Organización de los Estados Americanos. «Artículo 38. Los Estados miembros difundirán entre sí los beneficios de la ciencia y de la tecnología, promoviendo, de acuerdo con los tratados vigentes y leyes nacionales, el intercambio y el aprovechamiento de los conocimientos científicos y técnicos [...]».
[124] Pacto Internacional de Derechos Económicos, Sociales y Culturales. «Artículo 15. 1. Los Estados Partes en el presente Pacto reconocen el derecho de toda persona a: [...] b) Gozar de los beneficios del progreso científico y de sus aplicaciones […]».
[125] El soft law o derecho blando es aquel que «no tienen un carácter reglamentario sino interpretativo o explicativo de la significación y alcance de las normas positivas […] Por estos motivos, las normas de derecho blando tienen la característica de ser metajurídicas, no están incrustadas en el derecho para concretizar las reglas, ni las fuentes del derecho administrativo, sino para acreditar una función preventiva, ser un cauce o una guía para la aplicación e interpretación de los textos jurídicos e impedir así que haya confusión, conflictos, desorganización y caos administrativo». Alexander Sánchez Pérez. Las normas del derecho blando: Un análisis jurídico de los efectos de la reserva de instrucción sobre el derecho territorial, Universidad Externado de Colombia, 2012, pp. 74 y 75.
[126] OECD Legal Instruments. Recommendation of the Council on Artificial Intelligence. Disponible en https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449. Sobre la obligatoriedad de lo allí dispuesto, el documento señala que «[l]as recomendaciones son adoptadas por el Consejo y no son jurídicamente vinculantes. Representan un compromiso político con los principios que contienen y conllevan la expectativa de que los Adherentes harán todo lo posible por aplicarlos». El despacho se apoyó de la herramienta Deepl para la traducción del apartado.
[127] UNESCO (2022). Recomendación sobre la ética de la inteligencia artificial. Disponible en: https://www.unesco.org/es/articles/recomendacion-sobre-la-etica-de-la-inteligencia-artificial URL 3/02/2023.
[128] La «Orden ejecutiva sobre el desarrollo y la utilización segura y fiable de la inteligencia artificial» dictada por el presidente Biden en 2023 define el «red teaming» como un «esfuerzo de prueba estructurado para encontrar fallos y vulnerabilidades en un sistema de IA, a menudo en un entorno controlado y en colaboración con los desarrolladores de IA. En la mayoría de los casos, los "equipos rojos" dedicados a la Inteligencia Artificial son los que llevan a cabo estas pruebas y adoptan métodos de confrontación para detectar fallos y vulnerabilidades, como resultados perjudiciales o discriminatorios de un sistema de IA, comportamientos imprevistos o indeseables del sistema, limitaciones o riesgos potenciales asociados al uso indebido del sistema». El despacho se apoyó en la herramienta Deepl para la traducción respectiva.
[129] El documento se encuentra disponible en https://www.weforum.org/publications/the-presidio-recommendations-on-responsible-generative-ai/
[130] El Foro Económico Mundial es una organización internacional para la cooperación público-privada. Establecido en 1971 como una organización sin ánimo de lucro, proporciona una plataforma global de colaboración para los líderes mundiales, a fin de establecer confianza y crear iniciativas de cooperación y progreso. Para tales efectos, involucra a líderes políticos, empresariales, académicos, de la sociedad civil y de otros ámbitos de la sociedad para dar forma a las agendas globales, regionales e industriales. Tiene un estatus consultivo de ONG con el Consejo Económico y Social dela Organización de las Naciones Unidas.
[131] El mismo documento lo define como un método de análisis crítico de perspectiva para identificar debilidades potenciales, vulnerabilidades y áreas de mejora.
[132] Disponible en https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pdf. El despacho se apoyó de la herramienta Deepl para la traducción del apartado.
[133] «Gobernar la IA para la Humanidad».
[134] La figura, cuyos gráficos fueron adaptados y su texto traducido por el despacho, fue tomada del informe provisional de asesoramiento sobre IA de la ONU «Governing AI for Humanity». Disponible en https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pdf. El despacho se apoyó en la herramienta Deepl para la traducción respectiva.
[135] Disponible en:
https://www.undocs.org/Home/Mobile?FinalSymbol=A%2FRES%2F78%2F265&Language=E&DeviceType=Desktop&LangRequested=False o se puede realizar la búsqueda a través del portal https://research.un.org/en/docs/ga/quick/regular/78.
[136] Disponible en:
[137] Disponible en: https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c.
[138] Disponible en https://unesdoc.unesco.org/ark:/48223/pf0000387331_spa
[139] Disponible en https://fairlac.iadb.org/
[140] fAIr LAC. Herramienta de autoevaluación ética para el sector público. Disponible en https://self-fairlac.iadb.org/
[141] La profesora Anne Garland Mahler, de la Universidad de Virginia, explica que «[e]l Sur Global como concepto crítico tiene tres definiciones principales. En primer lugar, se ha utilizado tradicionalmente en las organizaciones intergubernamentales de desarrollo […] para referirse a los Estados-nación económicamente desfavorecidos y como alternativa al "Tercer Mundo" de la posguerra fría. Sin embargo, en los últimos años y en diversos ámbitos, el Sur Global se emplea en un sentido posnacional para referirse a espacios y pueblos afectados negativamente por la globalización capitalista contemporánea. En esta segunda definición, el Sur Global recoge una geografía desterritorializada de las externalidades del capitalismo y significa dar cuenta de los pueblos subyugados dentro de las fronteras de los países más ricos, de tal forma que hay “Sures” económicos en el Norte geográfico y “Nortes” económicos en el Sur geográfico. Aunque este uso se basa en una larga tradición de análisis de los Sures geográficos del Norte -en la que el Sur representa una periferia interna y una posición relacional subalterna-, el epíteto "global" se utiliza para desvincular al Sur de una relación de uno a uno con la geografía. Es a través de esta conceptualización desterritorial que se atribuye un tercer significado al Sur Global en el que se refiere al imaginario resistente de un sujeto político transnacional que resulta de una experiencia compartida de subyugación bajo el capitalismo global contemporáneo». https://globalsouthstudies.as.virginia.edu/what-is-global-south. El despacho se apoyó en la herramienta Deepl para la traducción del apartado.
[142] Comisión Europea. (21 de abril de 2021). Reglamento del Parlamento Europeo y del Consejo «por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la unión». Disponible en https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0008.02/DOC_1&format=PDF
[143] La propuesta forma parte de un paquete de IA más amplio, que también incluye el Plan Coordinado sobre IA actualizado. Juntos, el marco regulatorio y el Plan Coordinado buscan garantizar la seguridad y los derechos fundamentales de las personas y las empresas en lo que respecta a la IA.
[144] El texto con las enmiendas del Parlamento Europeo al proyecto que presentó la Comisión Europea puede consultarse https://media.licdn.com/dms/document/media/D4D1FAQHOhE25bs_spQ/feedshare-document-pdf-analyzed/0/1709904595391?e=1710979200&v=beta&t=uiJde3YTHr8yTeozZ8hW-Dphnxh3qAFRvexLh9-_bZs
[145] «por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial)». Disponible en https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:32024R1689
[146] Artículo 1-1 del Reglamento de IA.
[147] Artículo 5.º del Reglamento de IA.
[148] Artículo 6.º del Reglamento de IA, en armonía con el Anexo III.
[149] Reglamento de IA, «Artículo 6.º […] 3.º. No obstante lo dispuesto en el apartado 2, un sistema de IA no se considerará de alto riesgo si no plantea un riesgo importante de causar un perjuicio a la salud, la seguridad o los derechos fundamentales de las personas físicas, en particular al no influir sustancialmente en el resultado de la toma de decisiones. Así será cuando se cumplan una o varias de las condiciones siguientes: a) que el sistema de IA tenga por objeto llevar a cabo una tarea de procedimiento limitada; b) que el sistema de IA tenga por objeto mejorar el resultado de una actividad humana previamente realizada; c) que el sistema de IA tenga por objeto detectar patrones de toma de decisiones o desviaciones con respecto a patrones de toma de decisiones anteriores y no esté destinado a sustituir la evaluación humana previamente realizada sin una revisión humana adecuada, ni a influir en ella; o d) que el sistema de IA tenga por objeto llevar a cabo una tarea preparatoria para una evaluación pertinente a efectos de los casos de uso enumerados en el anexo III. No obstante lo dispuesto en el párrafo primero, los sistemas de IA a que se refiere el anexo III siempre se considerarán de alto riesgo cuando el sistema de IA lleve a cabo la elaboración de perfiles de personas físicas».
[150] Disponible en https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/.
[151] Disponible en https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf.
[152] El despacho se apoyó en la herramienta Deepl para la traducción de estos principios.
[153] National Institute of Standards and Technology. U.S. Department of Commerce. (Enero de 2023). Artificial Intelligence Risk Management Framework. Disponible en https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf
[154] Consumer Financial Protection Bureau. (19 de septiembre de 2023). CFPB Issues Guidance on Credit Denials by Lenders Using Artificial Intelligence. Consumers must receive accurate and specific reasons for credit denials. Disponible en https://www.consumerfinance.gov/about-us/newsroom/cfpb-issues-guidance-on-credit-denials-by-lenders-using-artificial-intelligence/
[155] Estas pueden buscarse en el rastreador de legislación en IA del Brennan Center for Justice. Disponible en https://www.brennancenter.org/our-work/research-reports/artificial-intelligence-legislation-tracker
[156] Expediente digital. Archivo «Anexo secretaria Corte Rta. Agneris Sampieri.pdf».
[157] Ley 31814 del 5 de julio de 2023, que «promueve el uso de la inteligencia artificial en favor del desarrollo económico y social del país». Disponible en https://www.gob.pe/institucion/congreso-de-la-republica/normas-legales/4565760-31814. A los días de sancionarse la mencionada ley, se publicó el Decreto supremo 085-2023-PCM, que aprobó la Política Nacional de Transformación Digital al 2030 (PNTD), que entre otros propósitos, busca desarrollar la Agenda Digital Peruana y determina la provisión de servicios y estándares de cumplimiento que utilizan la IA para su despliegue. Disponible en https://www.gob.pe/institucion/pcm/normas-legales/4471543-085-2023-pcm.
[158] Expediente digital. Archivo «Anexo secretaria Corte Rta. Agneris Sampieri.pdf».
[159] Ibidem.
[160] Ibidem.
[161] Proyecto de Ley 5763-2023-CR del 25 de agosto de 2023. Disponible en https://wb2server.congreso.gob.pe/spley-portal-service/archivo/MTI0NzI3/pdf/PL0576320230825.
[162] Disponible en https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pdf. El despacho se apoyó en la herramienta Deepl para la traducción del apartado.
[163] Catedrático de derecho y director del Centro de Derecho, Ciencia e Innovación de la Facultad de Derecho de la Universidad Estatal de Arizona, Estados Unidos.
[164] MARCHANT Gary. “Soft Law”. Governance of Artificial Intelligence. AI Pulse. Disponible en https://escholarship.org/content/qt0jq252ks/qt0jq252ks_noSplash_1ff6445b4d4efd438fd6e06cc2df4775.pdf?t=po1uh8#:~:text=Thes e%20soft%20law%20instruments%20include,for%20the%20governance%20of%20AI. El despacho se apoyó en la herramienta Deepl para la traducción del apartado.
[165] Esta expresión no se refiere a la región geográfica en sentido tradicional o geográfico sino al poder relativo y la riqueza de los países en distintas partes del mundo.
[166] En algunos ámbitos es traducido como «solución de compromiso», «intercambio», «compromiso» o «sacrificio». Se refiere a la decisión que se toma ante una situación conflictiva que supone perder o reducir cierta cualidad a cambio de ganar otra.
[167] Governing AI for Humanity (2023). Disponible en https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pdf. El despacho se apoyó en la herramienta Deepl para la traducción del apartado.
[168] https://www.airhelp.com/es/press/como-la-inteligencia-artificial-esta-revolucionando-las-reclamaciones-a-las-aerolineas/
[169] Expediente digital. Archivo «Anexo secretaria Corte Rta. Mujeres TIC.pdf».
[170] Ibidem.
[171] Pretoria es un sistema que ayuda a clasificar y buscar información en las más de 3.400 tutelas que recibe a diario la Corte Constitucional desde todos los municipios del país. Por ejemplo, permite saber su lugar de origen, la decisión del juez, la presencia de un sujeto de especial protección o el derecho invocado antes de que una persona lea la sentencia. Pretoria no selecciona ni prioriza casos, pero sí contribuye a la identificación de patrones y de casos novedosos y a tener un panorama general de las tutelas que recibe la Corte. Es el usuario el que decide lo que quiere buscar apoyándose en la herramienta. A nivel funcional, los principales módulos de Pretoria son: (i) búsqueda de palabras y frases dentro del total de sentencias; (ii) permite filtrar información por distintas categorías; por ejemplo, el lugar de origen de la tutela, el derecho tutelado, la decisión del juez o la presencia de un sujeto de especial protección. Esta categorización de información se lleva a cabo a partir del uso de técnicas de inteligencia artificial y no reemplaza el análisis individual de cada tutela, cuyas principales características se consolidan en una ficha que diligencian los judicantes y auxiliares judiciales; (iii) genera gráficos estadísticos y mapas de calor sobre las consultas realizadas. De esta forma, Pretoria hace uso de algoritmos de inteligencia artificial, pero no usa tecnologías del mercado como ChatGPT o similares.
[172] El desarrollo contenido en este acápite en torno a la garantía del juez natural es reiteración parcial de la Sentencia C-674 de 2017, M.P. Luis Guillermo Guerrero Pérez.
[173] Sentencia C-030 de 2023. MM.PP. José Fernando Reyes Cuartas y Juan Carlos Cortés González.
[174] Sentencia C-429 de 2001, M.P. Jaime Araujo Rentería. Sobre esta materia también puede consultarse las sentencias C-208 de 1993, M.P. Hernando Herrera Vergara; C-597 de 1996, M.P. Alejandro Martínez Caballero; C-392 de 2000, M.P. Antonio Barrera Carbonell; y C-200 de 2002, M.P. Álvaro Tafur Galvis.
[176] Sobre el contenido del derecho al juez natural en el contexto del sistema interamericano de derechos humanos cfr. (i) Corte IDH, caso Barreto Leiva vs Venezuela, sentencia del 17 de noviembre de 2009, Serie C N.º 206; (ii) Corte IDH, caso Yvon Neptune vs Haití, sentencia del 6 de mayo de 2008, Serie C N.º 180; (iii) Corte IDH, caso Palarama Iribarne vs Chile, sentencia del 22 de noviembre de 2005, Serie C N.º 135; (iv) Corte IDH, caso Baena Ricardo vs Panamá, sentencia del 2 de febrero de 2001, Serie C N.º 72; (v) Corte IDH, caso Genie Lacayo vs Nicaragua, sentencia del 29 de enero de 1997, Serie C N.º 33; (vi) Corte IDH, caso Loayza Tamayo vs Perú, sentencia del 17 de septiembre de 1997, Serie C N.º 33.
[177] Corte Interamericana de Derechos Humanos, caso Barreto Leiva Vs. Venezuela, sentencia de 17 de noviembre de 2009, Serie C N.º 206.
[178] Ibidem.
[179] Sentencia T-916 de 2014, M.P. (e) Martha Victoria Sáchica Méndez.
[180] Sentencia C-208 de 1993, M.P. Hernando Herrera Vergara.
[181] Cantaro, Alejandro. «Sobre la Imparcialidad de los Jueces y su Actividad Probatoria en el Proceso». Ponencia al Congreso Argentino de Derecho. Ver http://www.ilustrados.com/publicaciones/EplkEuFFZpdhoanQek.php
[182] Al respecto se puede consultar la Sentencia SU-174 de 2021, M.P. Manuel José Cepeda Espinosa, que a su vez cita la Sentencia C-037 de 1996, reiterada en las sentencias C-365 de 2000, M.P. Vladimiro Naranjo Mesa, y C-496 de 2016, M.P. María Victoria Calle Correa.
[183] Reglamento de Inteligencia Artificial, considerando 61.
[184] Ibidem.
[185] Ibidem.
[186] Sentencia T-214 de 2012, M.P. Luis Ernesto Vargas Silva.
[187] En la doctrina se ha dado cuenta del designatorum, «el conjunto de argumentaciones con base en las cuales el juez presenta la decisión como algo fundado». Michel Taruffo. La Motivación de la Sentencia Civil. Trotta, Madrid, 2011, pág. 131. Esto es, con la motivación o justificación se pretende afianzar la «lógica deductiva del silogismo judicial» Jerzy Wróbleuski. «Legal Decision and its Iustification». En: La Raisonnement Juridique: actes du congrés modial de philosophie du droit et de philosophie sociele, Peeters Publishers, Brueselas, 1971.
[188] C.S.J. STC, 21 agt. 2019, rad. 11143.
[189] C.S.J. STC 4964-2020, 30 jul. 2020.
[190] Confrontar sentencia de impugnación de tutela de la Sala Civil de la Corte Suprema de Justicia STC 16122-2021, Rad. 11001-02-000-2021-01265-01, magistrado ponente Francisco Ternera Barrios.
[191] Emma Uprichard. Dirty data: longitudinal classification systems. Texto traducido: «[c]ualquier dato que sea inexacto, incompleto o inconsistente es un dato sucio. Para escribir una definición de datos sucios, son datos que son incorrectos o que no se pueden usar fácilmente». Recuperado de: https://blogs.cim.warwick.ac.uk/foodmatters/wp-content/uploads/sites/17/2014/01/Uprichard-Dirty-Data-2011-Published-version.pdf
[192] Expediente digital. Archivo «Anexo secretaria Corte Rta. Escuela de Gobierno de la Universidad de los Andes (despues de traslado).pdf».
[193] Como la Universidad de los Andes, Accesnow, Fundación Karisma, ISUR, entre otros.
[194] Ibidem.
[195] Las alucinaciones corresponden a un fenómeno en el que un modelo de lenguaje LLM (Large Language Model), percibe patrones que son inexistentes o imperceptibles para los observadores humanos, creando resultados inesperados.
[196] Expediente digital. Archivo «Anexo secretaria Corte Rta. Fundacion Karisma y El Veinte (despues de traslado).pdf». Este interviniente expone que las alucinaciones son un fenómeno en el cual el sistema proporciona respuestas que son incorrectas, irrelevantes o sin sentido y cita «New York Times, “Artificial Intelligence Glossary: Neural Networks and Other Terms Explained”, https://www.nytimes.com/article/ai-artificial-intelligence-glossary.html».
[197] Estas incluyen, por ejemplo: la verificación de fuentes, la consulta de doctrina relevante y la búsqueda de jurisprudencia de respaldo. Se debe poder asegurar que la aplicación de la información es adecuada y fundada.
[198] Ver anexo 3.
[199] A continuación se transcriben las respuestas que proporcionó ChatGPT a las preguntas que le formuló la funcionaria del despacho que se identificó como estudiante de derecho de una universidad en Colombia. Pregunta: «Soy estudiante de derecho de una universidad en Colombia ¿Menor autista esta exonerado de pagar cuotas moderadoras en sus terapias?» respuesta: «La exoneración de cuotas moderadoras para terapias de un menor autista en Colombia puede depender de diversos factores, y es importante revisar la normativa actualizada y consultar con fuentes especializadas para obtener información precisa. En general, la exoneración de cuotas moderadoras o copagos puede depender del tipo de servicio de salud, del régimen al que esté afiliado el menor y de las disposiciones específicas de las entidades encargadas de la salud en Colombia. Aquí hay algunos aspectos que podrían ser relevantes: 1. Leyes y normativas: Revisa la normativa actual en Colombia relacionada con la atención de personas con discapacidad y la exoneración de pagos en servicios de salud. Puedes consultar leyes como la Ley 1751 de 2015 y cualquier normativa específica que regule los derechos de las personas con discapacidad. 2. Régimen de afiliación: El tipo de régimen de seguridad social al que esté afiliado el menor (contributivo o subsidiado) podría influir en la aplicación de cuotas moderadoras. Asegúrate de entender las reglas específicas de cada régimen. 3. Recomendación médica: Es posible que la exoneración de cuotas moderadoras esté sujeta a una recomendación médica que respalde la necesidad de las terapias para el menor. Obtener un informe médico puede ser útil en este caso. 4. Entidades de salud: Consulta directamente con la EPS (Entidad Promotora de Salud) a la que esté afiliado el menor para obtener información detallada sobre la exoneración de cuotas moderadoras en su caso específico. Dado que las normativas pueden cambiar y la información puede variar, te recomendaría que busques asesoramiento legal específico para obtener la información más precisa y actualizada sobre la exoneración de cuotas moderadoras en terapias para un menor autista en Colombia». Pregunta «Soy estudiante de derecho de una universidad en Colombia ¿Las acciones de tutela en estos casos se deben conceder?» Respuesta «[l]a acción de tutela en Colombia es un mecanismo legal que busca proteger los derechos fundamentales de las personas cuando estos están siendo vulnerados o amenazados de manera inminente. La decisión de conceder o no una acción de tutela depende de la evaluación del juez frente a la situación específica presentada. En el caso de un menor autista y la posible exoneración de cuotas moderadoras en terapias, el juez analizará varios elementos, como la normativa vigente, la evidencia médica y las circunstancias particulares del caso. Aquí hay algunos puntos a considerar: 1. Vulneración de derechos fundamentales: La acción de tutela se concede cuando se evidencia una vulneración actual o inminente de derechos fundamentales. En el caso de un menor autista, se argumentaría que la falta de exoneración de cuotas moderadoras afecta sus derechos fundamentales a la salud y a la igualdad. 2. Prueba de la necesidad: Es importante contar con evidencia médica y argumentos sólidos que respalden la necesidad de las terapias y la exoneración de cuotas moderadoras para el menor autista. Un informe médico detallado podría ser crucial para respaldar la solicitud de tutela. 3. Normativa aplicable: El juez evaluará la normativa vigente, incluyendo leyes relacionadas con la salud y los derechos de las personas con discapacidad, para determinar si hay bases legales para conceder la tutela en este caso. 4. Recurso de amparo inmediato: La tutela es un recurso de amparo inmediato, por lo que se espera que se presente tan pronto como sea posible después de conocer la situación que vulnera los derechos fundamentales. Es importante destacar que cada caso es único, y la decisión final dependerá de la interpretación del juez. Si estás considerando presentar una acción de tutela en este caso, te recomendaría consultar con un profesional del derecho en Colombia para obtener asesoramiento específico sobre la situación y los pasos a seguir.» Pregunta «Soy estudiante de derecho de una universidad en Colombia ¿Exigir en estos casos la cuota moderadora es una barrera de acceso al servicio de salud?». Respuesta «[e]n el contexto de la atención médica para personas con discapacidad, como el caso de un menor autista que requiere terapias, la exigencia de cuotas moderadoras podría considerarse una barrera de acceso al servicio de salud. La barrera de acceso se produce cuando las condiciones impuestas dificultan o limitan el acceso efectivo a los servicios de salud, especialmente para aquellos que se encuentran en situaciones de vulnerabilidad, como personas con discapacidad. Aquí hay algunos puntos a considerar: 1. Principio de accesibilidad: El principio de accesibilidad es fundamental en el derecho a la salud. Las barreras económicas, como las cuotas moderadoras, podrían impedir que las personas accedan a los servicios de salud necesarios, especialmente en el caso de personas con discapacidad que pueden requerir tratamientos continuos y especializados. 2. Derechos de las personas con discapacidad: En Colombia, existen normativas que protegen los derechos de las personas con discapacidad, como la Ley 1145 de 2007 y la Convención sobre los Derechos de las Personas con Discapacidad. Estas normativas buscan garantizar la igualdad de oportunidades y la eliminación de barreras que dificulten la participación plena y efectiva en la sociedad. 3. Principio de no discriminación: La discriminación por motivos de discapacidad está prohibida, y cualquier práctica que genere discriminación, como la imposición de cuotas moderadoras que dificulten el acceso a servicios esenciales, podría ser cuestionada desde la perspectiva legal. Si consideras que la exigencia de cuotas moderadoras constituye una barrera de acceso al servicio de salud para el menor autista, podría ser relevante presentar esta argumentación en una posible acción de tutela o en cualquier otro recurso legal que estés contemplando. Recuerda que es importante contar con asesoramiento legal específico para tu caso particular y revisar la normativa vigente en Colombia para respaldar tus argumentos». Pregunta «Soy estudiante de derecho de una universidad en Colombia ¿La jurisprudencia de la corte constitucional ha tomado decisiones favorables en casos similares?». Respuesta «Mi conocimiento se basa en información hasta enero de 2022, y no tengo acceso a actualizaciones en tiempo real ni a la jurisprudencia más reciente de la Corte Constitucional de Colombia. Sin embargo, hasta la fecha de mi última actualización, la Corte Constitucional colombiana ha emitido decisiones en casos relacionados con la protección de los derechos de las personas con discapacidad, y algunas de estas decisiones podrían haber abordado la cuestión de las cuotas moderadoras y barreras de acceso a servicios de salud. Para obtener información actualizada sobre la jurisprudencia específica relacionada con casos similares al que estás investigando, te recomendaría consultar la base de datos de la Corte Constitucional de Colombia o buscar asesoramiento legal en tu universidad. Los casos y sus resoluciones pueden proporcionar orientación sobre cómo la Corte ha interpretado y aplicado la normativa en situaciones similares. Además, podrías considerar hablar con profesores, abogados especializados en derecho de la salud o buscar recursos en bibliotecas jurídicas que podrían tener información actualizada sobre la jurisprudencia relevante en este ámbito. Recuerda que la jurisprudencia puede evolucionar con el tiempo, y es importante tener en cuenta las decisiones más recientes de la Corte Constitucional para obtener la información más actualizada y precisa sobre cómo aborda casos similares al que estás investigando».
[200] En este caso, el despacho sustanciador omitió inintencionalmente la formulación de la misma pregunta que realizó el juez de segunda instancia.
[201] Juliani, Arthur. (10 de marzo de 2023). Large Language Models Don’t “Hallucinate”: Using this term attributes properties to the LLMs they don’t have while also ignoring the real dynamics behind the production of their made-up information. Disponible en: https://betterprogramming.pub/large-language-models-dont-hallucinate-b9bdfa202edf
[202] Texto traducido: La Oficina Central de Estadística (CSO por sus siglas en inglés) es la oficina nacional de estadística de Irlanda y su propósito es recopilar, analizar y poner a disposición estadísticas imparciales sobre la gente, la sociedad y la economía. Disponible en: https://www.cso.ie/en/aboutus/whoweare/.
[204] Expediente digital. Archivo «Anexo secretaria Corte Rta. Fundacion Karisma y El Veinte (despues de traslado).pdf»: «Marion Oswald, et al. Pág. 235».
[205] Emilio Ferrara. (s/f). Should ChatGPT be biased? Challenges and risks of bias in large language models. Disponible en: Arxiv.org. http://arxiv.org/abs/2304.03738.
[206] «Usage Statistics and Market Share of Content Languages for Websites, September 2023», accedido el 8 de septiembre de 2023, https://w3techs.com/technologies/overview/content_language».
[207] Expediente digital. Archivo «Anexo secretaria Corte Rta. Fundacion Karisma y El Veinte (despues de traslado).pdf».
[208] Este es un sistema utilizado por la policía de Durham en Inglaterra con el fin de predecir la posibilidad de reincidencia de una persona, basa sus decisiones en información de retenciones pasadas, historial criminal de la persona y otros datos como su género o código postal. Ver. Marion Oswald, Jamie Grace, Sheena Urwin & Geoffrey. C. Barnes (2018) Algorithmic risk assessment policing models: lessons from the Durham HART model and ‘Experimental’ proportionality, Information & Communications Technology Law, 27:2, 223-250. DOI: 10.1080/13600834.2018.1458455. Pág. 228.
[209] Emilio Ferrara. (s/f). Should ChatGPT be biased? Challenges and risks of bias in large language models. Arxiv.org. http://arxiv.org/abs/2304.03738.
[210] Expediente digital. Archivo «Anexo secretaria Corte Rta. Fundacion Karisma y El Veinte (despues de traslado).pdf».
[211] Esta clasificación fue hecha por el Tribunal Constitucional Español, en la sentencia STCE 0154/2001, expedida el 02 de julio del 2001, en donde señaló: