CORTE CONSTITUCIONAL
Sala Primera de Revisión
SENTENCIA T-256 DE 2025
Referencia: Expediente T-8.764.298.
Acción de tutela presentada por Esperanza Gómez Silva en contra de Facebook Colombia S.A.S y Meta Platforms, Inc.
Magistrada ponente:
Natalia Ángel Cabo.
Bogotá D.C., doce (12) de junio de dos mil veinticinco (2025).
La Sala Primera de Revisión de la Corte Constitucional, integrada por la magistrada Natalia Ángel Cabo, quien la preside, y los magistrados Juan Carlos Cortés González y César Humberto Carvajal Santoyo (e), en ejercicio de sus competencias constitucionales y legales establecidas en el artículo 86 y el numeral 9 del artículo 241 de la Constitución Política, en concordancia con los artículos 33 y 34 del Decreto 2591 de 1991, profiere la siguiente
SENTENCIA.
Esta decisión se adopta en el trámite de revisión del fallo proferido por el Juzgado 34 Penal Municipal con función de conocimiento de Cali el 17 de febrero de 2023, que declaró la improcedencia de la acción de tutela formulada por Esperanza Gómez Silva contra Facebook Colombia S.A.S. y Meta Platforms, Inc.
SINTESIS DE LA DECISIÓN
La Sala Primera de Revisión de Tutelas resolvió la acción de tutela presentada por Esperanza Gómez Silva contra Meta Platforms, Inc. La demandante alegó la violación de sus derechos a la libertad de expresión, la igualdad y no discriminación, al debido proceso, al trabajo y a la libertad de escoger profesión u oficio. La Corte encontró que Meta vulneró los derechos fundamentales de la accionante.
En sus consideraciones, la Corte reconoció la novedad del asunto objeto de estudio, toda vez que es el primero de esta Corporación en abordar de forma amplia el debate sobre los derechos fundamentales y la moderación de contenidos que adelantan los operadores de redes sociales. Sobre el particular, la Corte destacó que, si bien dicha facultad es esencial para garantizar un Internet libre y seguro, los operadores de redes sociales deben respetar unos límites que se enmarcan en la protección de derechos fundamentales reconocidos en la Constitución y el bloque de constitucionalidad.
Este caso también planteó un debate novedoso sobre la competencia de los jueces colombianos para pronunciarse sobre controversias relacionadas con redes sociales, las cuales suceden en un espacio virtual, pero cuya casa matriz está ubicada en el exterior. La Corte explicó que, cuando una controversia sucede en el ciberespacio, los jueces nacionales deben adaptar el principio de territorialidad para identificar si la controversia tiene una conexión relevante con el país, como la prestación de servicios a usuarios en Colombia o el tratamiento de datos personales en el territorio nacional. En este sentido, la Corte enfatizó que el carácter trasnacional de Internet no excluye la obligación del Estado colombiano de proteger los derechos fundamentales. De esta forma, cuando la amenaza o vulneración de los derechos fundamentales sucede en el ciberespacio, el juez de tutela tendrá competencia para pronunciarse si dicha amenaza o vulneración produce efectos relevantes en Colombia.
La Corte también señaló que las empresas que administran redes sociales son un espacio sui generis en el que convergen su naturaleza de foro público digital con la administración exclusiva de compañías con intereses económicos, entre otros, relacionados con la obtención masiva de datos. Esta característica no excluye a los intermediarios de redes sociales del deber de maximizar la libertad de expresión y otros derechos fundamentales al establecer sus normas comunitarias o las llamadas “normas de la casa”. Ello implica que toda restricción a los discursos que circulan en redes sociales debe cumplir con los elementos del test tripartito de libertad de expresión: legalidad de la medida, su necesidad y su proporcionalidad.
Asimismo, la Corte destacó que los intermediarios tienen un deber de transparencia no sólo frente a sus normas comunitarias, sino también frente a los procedimientos de moderación de contenidos. Esto se traduce en que los intermediarios deben fijar reglas claras tanto sobre los procedimientos a seguir como sobre las consecuencias de publicar un contenido infractor. En el mismo sentido, la Sala destacó que los intermediarios tienen un deber de asegurar una aplicación uniforme, coherente, no discriminatoria y sensible al contexto de sus normas comunitarias.
Por último, la Corte señaló que, aunque no existe una regulación precisa en el ámbito nacional sobre el alcance de las actividades como influenciador o influenciadora en redes sociales, lo cierto es que estas actividades, en el marco de actividades no prohibidas, pueden calificarse como propias de un trabajo independiente y, por lo tanto, susceptibles de protección a la luz de la Constitución Política.
Si bien la Corte reconoció que en la creación de perfiles de redes sociales hay varios riesgos de que personas inescrupulosas los utilicen para actividades ilícitas, como por ejemplo para fines de explotación sexual, este hecho no puede servir como fundamento para que se cierren sin transparencia y justificación suficiente las cuentas de personas que ejercen o han ejercido la pornografía fuera de línea. Si las redes sociales tienen como criterios para la moderación de contenidos las actividades offline que ejercen las personas, estos criterios deben ser expuestos con claridad en sus reglas de casa. También debe permitirse un debido proceso para poder cuestionar de manera razonable la decisión de la red social.
A la luz de estos criterios, la Corte concluyó que las decisiones que resultaron en la eliminación de los contenidos de la cuenta de Instagram de la accionante y, finalmente, en la supresión de la cuenta misma restringieron ilegítimamente su derecho a la libertad de expresión, entre otras razones, porque la compañía no fue transparente en sus procedimientos y en la aplicación de sanciones en su caso. En consecuencia, la Corte determinó que también se vulneró el derecho al debido proceso.
Asimismo, la Sala consideró que la eliminación sistemática de los contenidos de la accionante, así como de su cuenta con el dominio @esperanzagomez, resultó inconsistente respecto de otras cuentas en las que se publican contenidos similares y que aún permanecen activas en el servicio de Instagram. En esa medida, la Corte calificó este trato diferenciado como discriminatorio, pues Meta no probó por qué sí aplicó sus políticas sobre desnudez y servicios sexuales de adultos en este caso, pero no en otros comparables.
Por estas razones, la Corte estableció una serie de órdenes encaminadas a garantizar la aplicación uniforme y no discriminatoria de sus normas comunitarias. En igual sentido, dio órdenes para asegurar el acceso a las políticas de la compañía en castellano y en un sitio web unificado, así como los mecanismos con los que cuentan los usuarios para impugnar las decisiones propias de la moderación de contenidos. Por último, la Corte invitó al Consejo Asesor de Meta a publicar un dictamen consultivo sobre la aplicación de estándares de derechos humanos frente a contenidos potencialmente violatorios de las normas sobre desnudos y actividad sexual entre adultos.
TABLA DE CONTENIDO
2. Traslado y contestación de la tutela
3. Decisiones objeto de revisión inicial
4. Primeras actuaciones en sede de revisión
5. Decisión de primera instancia objeto de revisión
6. Nuevas actuaciones en sede de revisión
7. Intervenciones presentadas en el trámite de tutela
1. Planteamiento del caso y problema jurídico a resolver
3. Consideraciones generales sobre la moderación de contenidos
3.1. Evolución de la moderación de contenidos y su funcionamiento.
3.2. Críticas y desafíos de la moderación de contenidos
3.3. La intervención del Estado en la moderación de contenidos
4.1. Libertad de expresión y moderación de contenidos
4.2. Debido proceso y moderación de contenidos
4.3. Igualdad y no discriminación en la moderación de contenidos
5.1. Competencia de la Corte Constitucional
5.2. Análisis de los requisitos de procedibilidad
5.2.1. Legitimación por activa
5.2.2. Legitimación por pasiva
5.3. Sobre la alegada carencia actual de objeto
5.4. Estudio de los debates de fondo
1. Esperanza Gómez Silva es una ciudadana colombiana que, según indica en su demanda, goza de amplio reconocimiento nacional e internacional como modelo y por haber participado en actividades de pornografía[1]. En su escrito de tutela, la accionante señaló que con el objetivo de consolidar su marca personal y diversificar sus negocios, abrió una cuenta en la red social Instagram hace varios años.
2. Entre el mes de marzo y el 15 de mayo de 2021, los administradores de la plataforma le informaron a la demandante que habían eliminado al menos 17 de sus publicaciones debido a que contenían fotografías calificadas de ofrecer “servicios sexuales de adultos”, de manera que infringían las normas comunitarias de Instagram[2]. La red social también le advirtió a la señora Gómez Silva que, para evitar la eliminación total de su cuenta, incluidos sus archivos, publicaciones, mensajes y seguidores, debía cumplir con las normas comunitarias[3].
3. El 16 de mayo de 2021, Meta desactivó su cuenta de Instagram, en la que tenía más de cinco millones cuatrocientos mil seguidores[4]. La accionante consideró que esta acción fue arbitraria porque ella cumplió con las normas comunitarias. Al respecto, aseguró que: (i) nunca infringió los derechos de autor; (ii) siempre publicó contenido real apto para todo público; (iii) no promovió servicios sexuales, actos de terrorismo, de odio, ni juegos de azar; (iv) tampoco promovió drogas ilegales, medicamentos sin receta médica o armas de fuego; (v) respetó al resto de miembros de la comunidad pues no discriminó, amenazó ni acosó a persona alguna; (vi) siempre usó un lenguaje apropiado; (vii) no fomentó autolesiones; y, (viii) sus publicaciones nunca promovieron la violencia o alguna práctica inadecuada[5]. La peticionaria insistió especialmente en que las publicaciones que originaron el cierre de su cuenta nunca incluyeron servicios sexuales para adultos; ellas consistieron en fotografías suyas en las que aparecía en ropa interior, similares a las de otras modelos e influencers, cuyas cuentas no fueron desactivadas[6].
4. Según el escrito de tutela, Esperanza Gómez Silva presentó sin éxito alrededor de veinte solicitudes al operador de Instagram para que restableciera su cuenta[7]. La accionante indicó, además, que, si bien abrió una nueva cuenta en Instagram, la desactivación de la original, con más de cinco millones de usuarios, le causó graves perjuicios económicos. Lo anterior, según queda expuesto en su demanda, se debe a que el éxito de las actividades publicitarias como influencer dependen de la cantidad de seguidores que se tengan en una cuenta[8].
5. En diciembre de 2021, con fundamento en los hechos expuestos, Esperanza Gómez Silva formuló una acción de tutela en contra de Facebook Colombia S.A.S e Instagram Colombia, para obtener la protección de sus derechos fundamentales a la igualdad y a la no discriminación, a la libertad de expresión, al libre desarrollo de la personalidad, al trabajo, a la vida digna y al mínimo vital y móvil. Estos derechos, en su opinión, fueron vulnerados por las accionadas que tomaron la determinación de eliminar su cuenta. En particular, argumentó que Instagram la discriminó por subir contenidos que otras personas publican libremente en esa red social pero que, a diferencia de ella, no desarrollan actividades de pornografía fuera de la plataforma. En consecuencia, la demandante solicitó al juez constitucional ordenarle a las accionadas restablecer su cuenta de Instagram (con seguidores incluidos), conminarlas a cesar la persecución en su contra y condenarlas en abstracto al pago de una indemnización por lucro cesante y daño emergente[9].
6. Mediante el Auto 488 del 10 de diciembre de 2021, el Juzgado Treinta y Cuatro Penal Municipal con Funciones de Conocimiento de Cali admitió la demanda de tutela, ordenó el traslado a Facebook Colombia S.A.S y vinculó a “META PLATFORMS, INC. con sede en Colombia”, a la Superintendencia de Industria y Comercio y al Ministerio de Tecnologías de la Información y las Comunicaciones (en adelante MinTIC)[10]. Asimismo, el juzgador de primera instancia ordenó a Facebook Colombia y al MinTIC aportar la dirección de correo electrónico para notificaciones de Facebook, Inc. y Meta Platforms, Inc. A continuación, se reseñan las respuestas de las entidades accionadas y vinculadas al proceso.
2.1. Facebook Colombia S.A.S.
7. Facebook Colombia S.A.S declaró carecer de legitimación en la causa por pasiva, por cuanto Meta Platforms, Inc. es la empresa encargada del manejo y administración del servicio de Instagram para los usuarios que residen en Colombia. Asimismo, la sociedad manifestó que la acción resulta improcedente porque: (i) no tiene relevancia constitucional, al tratarse de un asunto estrictamente económico; y (ii) no cumple con los requisitos de inmediatez y subsidiariedad. Al respecto, Facebook Colombia S.A.S. sostuvo que el amparo fue interpuesto más de seis meses después de la vulneración alegada y que la tutelante cuenta con otros mecanismos de defensa judicial, en la jurisdicción ordinaria, para ventilar la discusión contractual por las condiciones de uso de la cuenta de Instagram. La entidad también aseguró que la actora si bien hubiera podido acudir a las herramientas disponibles en el servicio de Instagram no demostró haber completado el proceso ante el operador de la red social para solicitar la reactivación de su cuenta[11]. Por todo ello, la sociedad solicitó su desvinculación del proceso y, de forma subsidiaria, rechazar la acción por improcedente o denegar la protección solicitada.
2.2. Instagram Colombia, Meta Platforms, Inc. “con sede en Colombia”
8. Los accionados no dieron respuesta a la acción de tutela de la referencia.
2.3. Superintendencia de Industria y Comercio y Ministerio de Tecnologías de la Información y las Comunicaciones
9. La Superintendencia de Industria y Comercio indicó que, a la fecha de la contestación de la acción de tutela de la referencia, no existían procesos adelantados por Esperanza Gómez Silva ante dicha entidad. En el escrito la Superintendencia reseñó sus competencias, e insistió en que en el presente caso debería ser desvinculada del proceso debido a que no vulneró los derechos fundamentales de la accionante[12].
10. Por su parte, el Ministerio de Tecnologías de la Información y las Comunicaciones no respondió a la acción de tutela.
11. El Juzgado 34 Penal Municipal con función de conocimiento de Cali, en sentencia del 20 de diciembre de 2021, declaró improcedente la acción de tutela por incumplimiento del requisito de subsidiariedad. El juez estimó que la demandante no agotó en debida forma los mecanismos de protección que tenía a su alcance ni demostró un perjuicio irremediable. Por un lado, la accionante no probó haber completado el proceso de restablecimiento de su cuenta ante el operador de la red social y, por el otro, no acudió a la jurisdicción ordinaria para dirimir un conflicto que versaba sobre cuestiones legales derivadas del incumplimiento de las políticas comunitarias establecidas por Instagram. El juez de primera instancia también sostuvo que la empresa Meta Platforms, Inc. era la encargada del manejo y administración del servicio de Instagram y, como se trata de una compañía con sede en el extranjero, no podía “emitir algún tipo de orden en su contra”[13].
12. Esperanza Gómez Silva impugnó la sentencia de primera instancia con base en los siguientes argumentos. En primer lugar, la accionante indicó que, al contrario de lo señalado por el juez de primera instancia, Meta Platforms Inc. sí está sometida a la jurisdicción constitucional del país, puesto que todas las empresas nacionales o extranjeras que usan el espectro electromagnético colombiano para desarrollar actividades comerciales, deben respetar la Constitución y a las leyes de Colombia. Asimismo, Esperanza Gómez Silva manifestó que el juez de primera instancia desconoció que, según las condiciones de uso de Instagram, los tribunales nacionales son competentes para resolver los conflictos que se presenten entre los usuarios de esa red social y la empresa Meta Platforms, Inc.
13. En segundo lugar, la demandante señaló que la controversia planteada en su acción de tutela no versa sobre un asunto de naturaleza civil relacionado con las obligaciones que se desprenden de un contrato de adhesión, sino que su petición está dirigida a obtener la protección de sus derechos fundamentales a la libertad de expresión, a la igualdad y a la no discriminación, al libre desarrollo de la personalidad, al trabajo, a la vida digna y al mínimo vital y móvil. En tercer lugar, la accionante manifestó que, al contrario de lo señalado por el juez de primera instancia, antes de acudir a la acción de tutela, le solicitó en más de veinte ocasiones a Instagram que restableciera su cuenta y siguió el procedimiento interno para tal efecto, sin obtener una respuesta. En cuarto y último lugar, la señora Esperanza Gómez Silva afirmó que el juez de primera instancia omitió vincular al proceso en debida forma a Meta Platforms, Inc. y usar la figura del curador ad litem para garantizar el derecho al debido proceso de dicha empresa[14].
14. El Juzgado 7 Penal del Circuito con función de conocimiento de Cali, en sentencia del 9 de febrero de 2022, confirmó la decisión impugnada. Este juzgado también consideró que la tutela no cumplía con el requisito de subsidiariedad, pues la accionante contaba con medios judiciales ordinarios para resolver cualquier controversia relacionada con las condiciones de uso de Instagram[15].
La Sala de Selección de Tutelas Número 6 seleccionó el expediente de la referencia por medio del auto del 30 de junio de 2022. La sustanciación de su trámite fue asignada por sorteo a la Sala Novena de Revisión[16]. A partir del 11 de enero de 2023, de conformidad con el cambio en la integración de las Salas de Revisión de Tutelas, el análisis del presente expediente pasó a la Sala Primera. A continuación, se resumen los autos proferidos por esta corporación en el proceso.
4.1. Auto del 26 de septiembre de 2022
15. La Sala Novena de Revisión de la Corte Constitucional profirió el Auto del 26 de septiembre de 2022 a través del cual decretó la práctica de pruebas y la suspensión del término para fallar. En la providencia, ordenó a Facebook Colombia S.A.S. y a Instagram Colombia allegar al despacho de la magistrada sustanciadora un certificado de existencia y representación legal de la empresa Instagram Colombia, y responder a un conjunto de cuestiones relacionadas con: (i) las condiciones de uso y la política comunitaria de Instagram; (ii) el cierre de cuentas, su restablecimiento y la moderación de contenidos; (iii) el procedimiento que pueden seguir los usuarios para controvertir la inhabilitación de una cuenta; (iv) las razones y procedimientos usados para la desactivación de la cuenta de Esperanza Gómez Silva; (v) el correo electrónico de notificaciones de Meta Platforms, Inc; y (vi) las relaciones entre Facebook Colombia S.A.S. y Meta Platforms, Inc.
16. Dentro del término probatorio, Facebook Colombia S.A.S. informó al despacho de la magistrada sustanciadora que “no está en capacidad legal de proporcionar la información requerida por cuanto no es la entidad encargada legalmente del manejo y la administración del servicio de Instagram”[17]. Al respecto, reiteró que su objeto social se limita a brindar “servicios relacionados con soportes de ventas para publicidad, marketing y relaciones públicas”, que es una empresa “distinta y autónoma de Meta (…), con personalidad jurídica y patrimonio propio e independiente de terceros” y no es “la mandataria, agente o representante de Meta”[18].
17. La apoderada también informó que Facebook Colombia S.A.S. está en una situación de control indirecto respecto de Meta Platforms, Inc. a través de Facebook Global Holdings II LLC, conforme a lo señalado en su certificado de existencia y representación. Pese a lo anterior, Facebook Colombia S.A.S. manifestó que, “en el espíritu de colaboración y buena fe, se proporciona información públicamente disponible en relación con el Servicio de Instagram”[19]. En este sentido, dicha empresa señaló que, para fallar el caso de la referencia, la Corte Constitucional puede consultar: (i) las condiciones de uso, (ii) las normas comunitarias, (iii) las herramientas de información para reportar o apelar la inhabilitación de cuentas, (iv) las políticas de desnudos y actividad sexual de adultos y servicios sexuales y (v) las medidas para aplicar las políticas del servicio de Instagram e inhabilitar cuentas[20].
18. El 4 de noviembre de 2022, la Sala Novena de Revisión de Tutelas de la Corte Constitucional profirió el Auto 1678 de 2022, a través del cual vinculó al proceso a Meta Platforms, Inc. En esa misma providencia, se convocó a Meta Platforms, Inc., a Facebook Colombia S.A.S, a Esperanza Gómez Silva y a diecisiete expertos a una sesión técnica, para obtener mayores elementos de juicio para adoptar una decisión de fondo en virtud de los debates complejos y novedad que representa el caso. Esa sesión se celebró el 15 de noviembre de 2022 de forma virtual.
19. Por otro lado, la entonces Sala Novena de Revisión de Tutelas ordenó a Meta Platforms, Inc. responder un conjunto de preguntas relacionadas con: (i) las condiciones de uso y la política comunitaria de Instagram que prohíben la publicación de contenido calificado de ofrecer servicios sexuales para adultos; (ii) las reglas y los procedimientos aplicables al cierre de cuentas, su restablecimiento y la moderación de contenidos; (iii) las actuaciones que pueden seguir los usuarios para controvertir la inhabilitación de una cuenta; (iv) el procedimiento seguido para desactivar la cuenta de la accionante; (v) el correo electrónico de notificaciones de Meta Platforms, Inc.; (vi) las herramientas técnicas que usa la plataforma para luchar en contra de la trata de personas y la pornografía infantil; (vii) la temática de las y los influencers y la monetización de publicaciones; y (viii) las relaciones entre Facebook Colombia S.A.S. y Meta Platforms, Inc.
4.3. Contestación de Meta Platforms, Inc. y solicitud de nulidad
20. Dentro del término de traslado, Meta Platforms, Inc. presentó un memorial mediante el cual se pronunció sobre la acción de tutela de la referencia[21] y, además, solicitó decretar la nulidad del proceso y ordenar la devolución del expediente al juez de primera instancia “para que realice el trámite de la acción de tutela integrando debidamente el contradictorio”[22]. En esencia, dicha sociedad sostuvo que el proceso debía anularse pues “no fue debidamente vinculada y notificada en el trámite de las dos instancias que se surtieron en este expediente”[23]. Además, según lo dispuesto en el Auto 288 de 2009, cuando una parte no es debidamente vinculada, “el procedimiento adecuado consiste en devolver el expediente al juez de instancia con la finalidad que subsane el vicio y se integre correctamente el contradictorio”[24].
“Meta ha sido privada de la misma oportunidad que se les otorgó a las demás partes del proceso de poder actuar en la audiencia y hablar directamente ante la H. Corte Constitucional, así como de debatir en tiempo real las consideraciones de los demás intervinientes, y de responder las preguntas de los H. Magistrados en el marco de una audiencia pública.”[25].
22. Por otra parte, Meta Platforms, Inc. señaló que, de conformidad con lo expresado por la demandante en la sesión técnica del 15 de noviembre de 2022 y en diversos medios de comunicación, existen indicios de que Esperanza Gómez Silva está domiciliada en Miami, situación que, de comprobarse, “sustraería la jurisdicción y competencia de los jueces colombianos para conocer de este asunto”[26], en virtud de lo señalado en los artículos 37 del Decreto 2591 de 1991, 18 y 19 del Código Civil, la Sentencia T-213 de 2001 y las condiciones de uso del servicio de Instagram. Por ese motivo, con base en los artículos 265 a 268 del Código General del Proceso y con el fin de determinar cuál es el domicilio de la peticionaria, la sociedad accionada solicitó, primero, que se ordene a Esperanza Gómez Silva allegar una copia de las páginas de su pasaporte en las que consten los registros de entrada y salida a Colombia desde el 1º de enero de 2019 hasta la fecha de la exhibición del mencionado documento. Segundo, que se oficie al Ministerio de Relaciones Exteriores y a Migración Colombia, para que alleguen al proceso una certificación de los movimientos migratorios de la peticionaria desde el 1º de enero de 2019.
23. El 30 de enero de 2023, la Sala Primera de Revisión de la Corte Constitucional estudió la solicitud de nulidad elevada por la parte accionada. En su análisis, la Sala encontró que, efectivamente, se produjo una vulneración del derecho a la defensa de Meta Platforms, Inc. porque no se le notificó adecuadamente del auto admisorio del trámite de tutela. En sus consideraciones, la Sala estimó que, en primer lugar, por ser una sociedad extranjera constituida al amparo de las leyes del estado de Delaware, Estados Unidos, y domiciliada en 1601 Willow Road, Menlo Park, California 94025, Meta Platforms, Inc. no contaba con una dirección para ser notificada en Colombia.
24. En segundo lugar, la providencia señaló que la vinculación de Facebook Colombia S.A.S. desde el inicio del trámite no subsanó la falta de notificación a Meta Platforms, Inc. En tercer lugar, la providencia indicó que, aunque en el presente caso se alega la presunta vulneración de los derechos fundamentales de la señora Esperanza Gómez Silva, lo cierto es que la actora no se encuentra en una situación de debilidad manifiesta que haga imperioso resolver el asunto inmediatamente. En cuarto lugar, aunque las decisiones de instancia no afectaron materialmente los intereses de Meta Platforms, Inc., la Sala consideró esencial surtir el trámite de primera instancia con la debida notificación.
25. En todo caso, la Corte Constitucional consideró que no se configuró una vulneración del derecho al debido proceso de Meta Platforms, Inc. por la ausencia de participación en la sesión técnica que se celebró el 15 de noviembre de 2022. En particular, para la Sala no se violó el derecho al debido proceso, porque: (i) la sesión técnica es un espacio para la consecución de pruebas, pero no es el único escenario ni oportunidad para que la Corte recoja un acervo probatorio; (ii) no se trata de un espacio de confrontación entre partes; y, (iii) Meta tuvo la oportunidad de pronunciarse sobre las preguntas que le fueron remitidas a propósito de la convocatoria a la sesión técnica.
26. En consecuencia, por medio del Auto 064 de 2023 se declaró la nulidad de todas las actuaciones surtidas en el proceso T-8.764.298 luego del auto admisorio de la demanda, salvo de las pruebas recaudas en el curso del proceso de tutela -incluida la sesión técnica- y se ordenó al Juzgado 34 Penal Municipal con función de conocimiento de Cali rehacer el trámite.
27. Una vez se avocó nuevamente conocimiento del proceso, el juez de primera instancia ordenó la práctica de las pruebas solicitadas por Meta Platforms, Inc., de manera que le pidió a la accionante remitir copia de las hojas de su pasaporte y ofició a Migración Colombia para que informara sobre las entradas y salidas de Esperanza Gómez Silva entre el 2019 y la fecha de la providencia. Surtido el traslado de las pruebas, Meta Platforms, Inc. indicó que, teniendo en cuenta que la señora Gómez permaneció tan solo 352 días en el país entre enero de 2019 y diciembre de 2022, era evidente que su domicilio principal no estaba en Colombia y, por ende, el juez de tutela carecía de competencia para pronunciarse de fondo. La accionante también respondió con la reiteración de que su domicilio principal estaba en Cali, pero que ocasionalmente viajaba a Miami por cuestiones laborales.
28. Por otro lado, el juez de primera instancia vinculó al proceso al Ministerio de Tecnologías de la Información y las Comunicación (MINTIC) y a la Superintendencia de Industria y Comercio para que se pronunciaran sobre la demanda[27]. Sin embargo, no consta en el expediente respuesta alguna por parte de MINTIC. Por su parte, la Superintendencia de Industria y Comercio se pronunció sobre el caso. En su respuesta referenció el alcance de su competencia jurisdiccional específicamente en relación con el derecho a la protección de datos personales o habeas data. Según la Superintendencia, a partir de las leyes 1266 de 2008 y 1581 de 2015, el legislador le confió a dicha entidad la facultad de vigilar que el tratamiento de datos personales respete “los principios, derechos, garantías y procedimientos previstos” en la ley. En ese sentido, argumentó que no tiene competencia para vigilar la posible violación de los derechos que alega la accionante, a saber, libertad de expresión, igualdad, debido proceso, entre otros[28]. En consecuencia, solicitó ser desvinculada. No obstante, el juez no se pronunció sobre tal solicitud[29].
29. Mediante sentencia del 17 de febrero de 2023, el Juzgado 34 Penal Municipal con función de conocimiento de Cali declaró nuevamente la improcedencia de la acción de tutela. El juez fundamentó su decisión en el incumplimiento del principio de subsidiariedad. Al respecto, el juez señaló que la accionante contaba con un mecanismo idóneo para impugnar las decisiones de eliminación de cuentas o contenido de Instagram, esto es, la impugnación directa ante Instagram[30]. Sobre este punto, el juzgador consideró que la accionante no probó que hubiera acudido a esos mecanismos[31].
30. Por último, el juez señaló que si la demandante tenía objeciones sobre las Condiciones de Uso de Instagram podría ventilarlas ante la jurisdicción ordinaria, especialidad civil[32]. En efecto, el juez señaló que, aunque la accionante alega una violación a sus derechos fundamentales, en el fondo la disputa se relaciona con la interpretación y aplicación de las Condiciones de Uso de Instagram, que según indicó el juzgador, fueron aceptadas libre y voluntariamente por la demandante. Así las cosas, el juez consideró que todas las objeciones que tenga la accionante sobre la aplicación de esas normas constituye una disputa de tipo legal y no constitucional, de manera que es la jurisdicción ordinaria, especialidad civil, la llamada a conocerlas.
31. La sentencia de primera instancia después de la nulidad no fue impugnada. Por eso, el 1 de marzo de 2023, el Juzgado 34 Penal Municipal con función de conocimiento de Cali remitió el expediente al despacho de la magistrada sustanciadora. Mediante informe secretarial de 2 de marzo, la Secretaría General de la Corte Constitucional envió el expediente con la subsanación del trámite de primera instancia para proceder con el estudio del caso.
32. Mediante el auto de 29 de mayo de 2023, la Sala Primera de Revisión de Tutelas ordenó: (i) remitir un cuestionario a Meta Platforms, Inc.[33] y otro a Esperanza Gómez Silva[34]; y (ii) poner a disposición de Meta Platforms, Inc. el contenido de la sesión técnica celebrada el 16 de noviembre de 2022 con el ánimo de que se pronuncie, de considerarlo pertinente, sobre las preguntas que allí se realizaron.
33. Esperanza Gómez Silva remitió oficio de respuesta a las preguntas formuladas por el despacho sustanciador el 6 de junio de 2023, en el que afirmó estar domiciliada en Cali. Además, aportó pruebas de nuevos cierres en su cuenta actual de Instagram. Por su parte, Meta Platforms, Inc., el 29 de junio de 2023, remitió oficio de respuesta al cuestionario formulado por la Corte y no aportó pruebas adicionales.
34. La Sala emitió un último auto de pruebas y suspensión de términos el 9 de octubre de 2023, con el fin de consultar a expertos sobre temáticas relacionadas con la moderación de contenidos e inteligencia artificial. En respuesta, las partes enviaron sus apreciaciones sobre el cuestionario remitido. Además, la organización Internet Lab remitió un concepto sobre los procesos automatizados de moderación de contenidos. Mediante auto del 12 de diciembre, el despacho sustanciador formuló una actualización de términos para dejar claro el término para emitir sentencia.
35. La Sala convocó una sesión técnica mediante el Auto 1678 de 2022, de manera que académicos, organizaciones sociales que trabajan en temas de Internet y derechos humanos y expertos independientes pudiesen ilustrar a la Corte sobre varias temáticas como la libertad de expresión, el enfoque de género en la curación de contenidos en redes sociales, el tema de los influenciadores y la administración de redes sociales. Además, la Corte recibió varios conceptos a lo largo del trámite de tutela. A continuación, se presenta un resumen de cada una de las intervenciones con una síntesis de las experticias presentadas, según los bloques temáticos propuestos por la Sala durante la audiencia pública celebrada.
Tabla 1. Intervenciones recibidas en el trámite de la tutela.
Tema 1: libertad de expresión en redes sociales, enfoque de género, moderación de contenidos y límites a lo que puede o no ser publicado en redes sociales |
|
Interviniente |
Contenido de la intervención |
Profesor Eric Goldman. Decano Asociado para la Investigación, Facultad de Derecho de la Universidad de Santa Clara |
El profesor Goldman presentó un escrito y una intervención oral en los que abordó dos cuestiones. En primer lugar, explicó la naturaleza jurídica de las demandas por la eliminación de cuentas en plataformas digitales en Estados Unidos. En segundo lugar, argumentó que imponer restricciones legales a la capacidad de los servicios de Internet para recoger, organizar y diseminar contenido generado por usuarios, con el fin de eliminar cuentas o remover contenido, puede conducir a resultados contraproducentes para la libertad de expresión, en la medida en que puede permitir aún más limitaciones a las voces que pueden participar en el entorno digital. |
Lorna Woods. Miembro del Centro de Derechos Humanos y docente de Derecho de la Internet en la Universidad de Essex en el Reino Unido |
Respecto de este bloque temático, la experticia oral y escrita de la profesora Woods hizo referencia a las obligaciones de derechos humanos que les corresponde observar a las empresas que prestan servicios de intermediación en Internet, y las tensiones que pueden existir en el entorno europeo frente al ejercicio de sus derechos como empresa. Al respecto, mencionó la necesidad de abordar las tensiones mencionadas desde un estudio de proporcionalidad que, entre otros elementos, tenga en cuenta las alternativas con las que cuentan los intermediarios, diferentes a la eliminación de cuentas, para limitar la circulación de contenidos chocantes en sus plataformas. |
Fundación Pro-bono Colombia |
Respecto de este bloque temático, la Fundación se refirió a la tensión entre libertad de empresa y libertad de expresión que se configura en el caso objeto de estudio. Al respecto, la Fundación señaló que, si bien la definición de las reglas o condiciones de uso está amparada por la libertad de empresa, es deber de la compañía respetar los derechos humanos y “no establecer condiciones de uso ambiguas que permitan la vulneración de derechos”. Además, propuso un análisis a partir del juicio de proporcionalidad para establecer si las medidas adoptadas por Meta en este caso son idóneas, necesarias y proporcionales para satisfacer el interés superior de los niños, niñas y adolescentes. Al respecto, concluyó que no hubo proporcionalidad con la medida relativa al cierre de las cuentas para proteger los derechos de los niños, niñas y adolescentes. |
Juan Carlos Cortés. Director de la Organización Linterna Verde |
En primer lugar, la organización se refirió a la relación entre moderación de contenidos, censura y libertad de expresión. Al respecto, indicó que la moderación de contenidos a escala es fundamental para mantener a flote el ecosistema digital, por lo que no es deseable comparar esa actividad con la censura. En segundo lugar, Linterna Verde se refirió a las normas sobre desnudos y servicios sexuales de adultos de Instagram, las cuales a su juicio buscan evitar que las plataformas de Meta se conviertan en “espacios para la promoción de servicios comerciales que puedan involucrar el tráfico, la coerción y los actos sexuales no consentidos”. En tercer lugar, se refirió al problema de consistencia, escala y localización del modelo de moderación de contenidos que aplica Meta. Por último, la organización se refirió a los problemas de transparencia y debido proceso en la moderación de contenidos, especialmente respecto de los creadores de contenido. Sobre este asunto, destacó la importancia de contar con procedimientos y normas claras que le permitan a quien crea un contenido -que le permite adquirir una tribuna y un músculo económico- tener la confianza de que habrá garantías a la hora de usar el servicio de las plataformas. |
Francisco Reyes Villamizar |
El experto argumentó que el proceso analizado es, en realidad, de naturaleza civil y está relacionado con la formación de los contratos que suscriben las personas al crear cuentas en plataformas de redes sociales. A su juicio, el contrato es de prestación de servicios de naturaleza onerosa, en la medida en que el usuario paga en especie al proporcionar sus datos que, posteriormente, explota el intermediario comercialmente. Además, señaló que, al aceptar las reglas de la plataforma, los usuarios se obligan a desplegar ciertos deberes de conducta. Estas reglas imponen algunas restricciones y limitan la posibilidad de que los usuarios usen sus cuentas en contravía de los principios de la plataforma. Para el interviniente, las reglas de Meta son amplias o liberales y, por lo tanto, permiten un ejercicio amplio de la libertad de expresión. En ese sentido, a partir del principio de normatividad del contrato, siempre que esas reglas no sean ostensiblemente opresivas, son obligatorias para las partes. En suma, para el interviniente, la eliminación de los contenidos y las cuentas que incumplan los deberes de conducta plasmados en las reglas de la red social, es una consecuencia razonable. |
Daniel Peña Valenzuela con apoyo de Juan Simón Larrea. Universidad Externado de Colombia |
En primer lugar, el académico señaló que los operadores de redes sociales no deben restringir la presencia digital de mujeres influenciadoras y emprendedoras digitales por actividades vinculadas a la llamada industria del entretenimiento para adultos, pues ello constituye una forma de discriminación incompatible con los derechos fundamentales. Para el interviniente, si bien la definición de reglas y procedimientos de moderación de contenidos está amparada por la libertad de empresa, también es cierto que dicha actividad encuentra un límite en los derechos fundamentales de las personas. Además, el profesor destacó que, si bien es importante que las plataformas protejan los derechos de personas más vulnerables frente a ciertos contenidos, como los niños, las niñas y los adolescentes, subrayó la necesidad de distinguir entre las redes sociales y otros medios como la televisión, pues aquí no hay una relación de completa sujeción del consumidor a la programación del medio, sino un contenido que se consume a discreción o por demanda (rogado), y que se desprende de una interacción activa a través de la predicción de los gustos y deseos del usuario. Por eso, el interviniente consideró que no es acertado como mecanismo para proteger a los niños, niñas y adolescentes apelar a procedimientos que victimicen a otras poblaciones, en desmedro de la libertad de expresión. Por último, se refirió a los estándares de derechos humanos que deben considerarse a la hora de calificar un procedimiento de moderación de contenidos, especialmente para evitar la discriminación y la vulneración de otros derechos. |
Fundación Karisma |
En primer lugar, la Fundación se refirió a la legitimidad de la exclusión de publicaciones que se califican como relacionadas con servicios sexuales para adultos. Sobre este asunto, presentó las distintas posturas que existen al respecto y destacó la importancia de reconocer que estas reglas se desprenden de la libertad de empresa, pero pueden chocar o entrar en tensión con otros derechos, especialmente con la libertad de expresión. En segundo lugar, Karisma se refirió a los estándares y garantías que deben tenerse en cuenta a la hora de evaluar ejercicios de moderación de contenido, frente a lo cual reseñó múltiples pronunciamientos de relatores de Naciones Unidas y del Sistema Interamericano. A su juicio, en la moderación de contenidos, las plataformas tienen un deber de respetar los derechos humanos y actuar con debida diligencia para evitar abusos. En tercer lugar, la interviniente le propuso a la Corte analizar las normas comunitarias utilizadas en el caso de la peticionaria a la luz de estándares de derechos humanos, especialmente del test tripartito sobre libertad de expresión. En cuarto lugar, Karisma se refirió a la naturaleza de las redes sociales e indicó que no es adecuado aproximarse a ellas a partir de la dicotomía clásica entre espacios públicos y privados. Por último, se refirió a las afectaciones diferenciales que, en el marco de la moderación de contenidos, pueden enfrentar las mujeres debido al estigma que recae sobre los oficios que algunas de ellas desempeñan fuera de la plataforma de la red social respectiva. Al respecto, sugirió aplicar varias herramientas del enfoque de género al caso concreto. |
Ángela María Andrade Perdomo |
La abogada Andrade señaló que este caso constituye un ejemplo de misoginia digital y propuso el amparo de los derechos de la accionante al trabajo, al debido proceso, al libre desarrollo de la personalidad y a la igualdad. |
Gustavo Gómez. Director ejecutivo del Observatorio Latinoamericano de Regulación, Medios y Convergencia (OBSERVACOM) |
El interviniente trajo a colación las obligaciones que se desprenden del Sistema Interamericano de Protección de Derechos Humanos sobre actores no estatales obligados a la protección de derechos humanos. El director del Observatorio, además, se refirió a las obligaciones específicas de las plataformas. Allí, destacó la importancia de aplicar un test tripartito de libertad de expresión a la moderación de contenidos en la medida en que dicha actividad puede implicar restricciones ilegítimas a la libertad de expresión. Por último, destacó la necesidad de establecer límites a esa facultad, en particular desde la perspectiva del derecho a la igualdad y no discriminación y de la libertad de expresión. |
Alma Beltrán y Puga, Universidad del Rosario |
La profesora Beltrán centró su intervención en las dimensiones de género del caso y en las posibles herramientas que la perspectiva de género ofrece para su abordaje. En particular, se refirió a la estigmatización que enfrentan las mujeres que se dedican a actividades como la pornografía, que pueden redundar en actos discriminatorios en su contra en otros espacios. La profesora consideró que, en este caso, el contenido producido por la accionante en la plataforma Instagram es claramente distinguible del contenido pornográfico. |
Tema 2: la actividad de influenciadores en redes sociales |
|
Interviniente |
Contenido de la intervención |
Natalia Ramírez Bustamante. Universidad de los Andes, Semillero de Investigación Trabajo y Derecho |
La profesora Ramírez y los demás miembros del Semillero tocaron tres puntos en su intervención oral y escrita. En primer lugar, se refirieron a la naturaleza de la actividad de Esperanza Gómez Silva en Instagram, la cual calificaron como una forma de trabajo independiente. En segundo lugar, se refirieron a la cancelación de la cuenta de la señora Gómez, a la facultad de moderación de contenidos y a la razonabilidad de dicha medida. Por último, destacaron las garantías que deben ofrecer los operadores de redes sociales a la hora de moderar contenidos, que incluyen, entre otros, claridad sobre sus normas, debido proceso y sanciones menos lesivas a la cancelación y de aplicación gradual incremental. |
Daniel Peña Valenzuela con apoyo de Juan Simón Larrea. Universidad Externado de Colombia |
Frente a este asunto, el profesor Valenzuela se refirió al derecho al trabajo digital y a la forma en la que la censura de ciertos contenidos en redes sociales puede llevar no sólo a limitar el ejercicio del derecho al trabajo, sino a profundizar estigmas sobre mujeres que, como la peticionaria, suben contenidos sensuales sin coacción y en ejercicio de sus derechos a la libertad de expresión y a la libertad individual. |
José Luciano Sanín. Viva la Ciudadanía |
El interviniente se refirió específicamente a la naturaleza de la actividad desarrollada por la accionante en la red social Instagram. A su juicio, como influenciadora, la peticionaria es trabajadora y, por lo tanto, tiene derecho a una serie de protecciones. Para esos efectos, trajo a cuento la jurisprudencia constitucional sobre los trabajos independientes que se realizan en espacios públicos y desarrolló una analogía con el espacio digital. En ese sentido, señaló que a la accionante deben reconocérsele dichas prerrogativas y, por lo tanto, su caso debe analizarse a la luz de los derechos de los trabajadores independientes. |
Iván Daniel Jaramillo. Universidad del Rosario
|
El profesor Jaramillo se refirió al ámbito de trabajo en espacios digitales, e insistió en la necesidad de establecer mecanismos de protección de los derechos de los influencers en las redes sociales. |
Tema 3: administración, corresponsabilidad y territorialidad en las disputas relacionadas con las redes sociales |
|
Interviniente |
Contenido de la intervención |
Wikimedia Foundation |
La Fundación abordó varios puntos en su presentación oral y escrita. En primer lugar, se refirió a las discusiones relacionadas con la jurisdicción para juzgar actos potencialmente violatorios de derechos humanos en Internet. Sobre el punto, insistió en la necesidad de que las empresas intermediarias de Internet tengan una oficina física y cuenten con representación legal en todos los países donde tienen operaciones comerciales. En segundo lugar, Wikimedia se refirió a los procesos de moderación de contenido, y destacó que ellos pueden abordarse desde diferentes enfoques y modelos, pero que ninguno es perfecto y, por lo tanto, es necesario propender por su eficacia y no por su perfección. Por último, la Fundación mencionó la importancia de distinguir entre moderación de contenidos y protección de datos. |
Nelson Remolina. Universidad de los Andes |
El profesor Remolina señaló las deficiencias del sistema jurídico vigente para comprender las dinámicas propias de Internet, donde confluyen millones de personas de todo el mundo en tiempo real. Asimismo, se refirió a decisiones de la Superintendencia de Industria y Comercio donde se ha reconocido la corresponsabilidad entre las compañías nacionales y las extranjeras por el uso compartido que hacen de los datos personales. En tal sentido, subrayó que, si bien la autorregulación es la regla general, los jueces nacionales pueden proponer fórmulas de regulación para salvaguardar derechos humanos en Internet. |
Henry Sanabria. Universidad Externado de Colombia |
El profesor Sanabria señaló que, a la luz del Código de Comercio vigente, las empresas como Meta no tienen la obligación de tener un representante directo en Colombia, a menos que desarrollen negocios de manera permanente en el país. El interviniente señaló que, dado que Meta desarrolla sus negocios en el extranjero, no debe tener una sucursal permanente en Colombia. En tal sentido, se le debe notificar en el extranjero. Frente a Facebook Colombia, afirmó que no debería estar vinculada al proceso y que a través suyo no se puede vincular a Meta a un proceso judicial. |
José Alberto Toro. EAFIT |
El profesor Toro abordó la cuestión de la corresponsabilidad entre una empresa matriz y sus subsidiarias, que suelen ser personas jurídicas independientes. Al respecto, señaló que, si bien hay varias tendencias, en todo caso hay un marco de sentido común conforme al cual las empresas tienen un deber de respetar derechos humanos y que la corresponsabilidad en estos casos debe observarse a la luz del control efectivo que ejerce la matriz sobre la filial. |
Fundación Karisma y El Veinte. |
Como se detallará más adelante, estas organizaciones se pronunciaron sobre la competencia de los jueces colombianos para conocer de este asunto. Además, se pronunciaron sobre la solicitud de nulidad presentada por Meta Platforms, Inc., al no haber podido participar de la sesión técnica organizada por la Sala en este proceso. Frente a esa solicitud, la Fundación Karisma y El Veinte insistieron en que no obran pruebas en el expediente que permitan afirmar que Meta Plattforms no tuvo oportunidades de participar en el proceso, especialmente en la sesión técnica adelantada por la Corte el 15 de noviembre de 2022. |
Tema 4: inteligencia artificial, actividades offline y moderación de contenidos |
|
Interviniente |
Contenido de la intervención |
InternetLab |
La organización basada en Brasil intervino por solicitud de la Corte Constitucional, en virtud de su amplia experticia el estudio de la inteligencia artificial como herramienta para la moderación de contenidos. En su intervención, la organización señaló que la moderación de contenidos se enfrenta al enorme reto de revisar miles de millones de contenidos publicados en pocos segundos. Por eso, la inteligencia artificial opera como “un artefacto fundamental en la moderación a gran escala”. Sin embargo, la organización señaló que la inteligencia artificial “no puede evitar completamente el riesgo de cometer errores en sus tareas de moderación de contenido” y que en sus investigaciones ha constatado que las inteligencias artificiales empleadas para la moderación de contenidos pueden reproducir desigualdades estructurales y potenciar violencias contra poblaciones subrepresentadas en el espacio digital, como las mujeres o las personas LGBT+. En todo caso, la organización manifestó que existen mecanismos para la mitigación de estos riesgos como, por ejemplo, diseñar bases de datos más complejas y completas que permitan dar cuenta de los contextos en los que se publican ciertos contenidos o pasos que aseguren la revisión por parte de personas formadas en asuntos de género y otras áreas del conocimiento. |
36. La peticionaria demandó por vía de tutela el restablecimiento de una cuenta de la que era titular en Instagram, uno de los servicios que ofrece la multinacional Meta Platforms, Inc. Según la accionante, su cuenta alcanzó una comunidad de más de cinco (5) millones de seguidores en dicha red social por cuenta de su trabajo como influencer. Sin embargo, de acuerdo con Meta Platforms, Inc., la cuenta de la actora fue eliminada después de al menos treinta y una (31) violaciones a las “Condiciones de Uso y de las Normas Comunitarias sobre ofrecimiento de servicios sexuales y desnudez”.[35] Según la accionante, después de intentar el restablecimiento de la cuenta por vía de reclamación directa a Instagram, interpuso la acción de tutela pues consideró vulnerados sus derechos a la igualdad y no discriminación, al mínimo vital, la libertad de expresión y al debido proceso. A su juicio, Meta desplegó una conducta discriminatoria en su contra, pues mientras otras influenciadoras publican contenido similar o idéntico al suyo en Instagram, a ella se la censura porque fuera de esa red social ha desarrollado actividades de pornografía.
37. Por su parte, Meta Platforms, Inc. señaló que los jueces colombianos carecen de jurisdicción y competencia para resolver la tutela de la referencia y que la demanda es improcedente. Asimismo, la empresa explicó que la cuenta de la actora no fue eliminada de manera incorrecta o arbitraria, pues en al menos 31 oportunidades la accionante violó las “Condiciones de Uso y las Normas Comunitarias sobre ofrecimiento de servicios sexuales y desnudez”, a las cuales la demandante se sometió voluntariamente, en calidad de contratante[36]. Por lo tanto, según la accionada, no removió la cuenta porque la peticionaria sea “modelo o estrella de cine para adultos”[37], sino que lo hizo porque ella infringió de forma repetitiva las políticas de la plataforma. Meta también adujo que no vulneró los derechos fundamentales de la peticionaria porque: (i) siempre le suministró una explicación suficiente sobre las razones por las cuales sus publicaciones vulneraron las reglas de la plataforma y le dio la oportunidad de apelar esas decisiones; (ii) las Condiciones de Uso y las Normas Comunitarias de Instagram se aplican a todos los usuarios por igual, buscan garantizar un equilibrio entre los derechos fundamentales de esas personas y combatir conductas perjudiciales con el fin de proteger a la comunidad; y (iii) la accionante tiene otra cuenta en Instagram, a través de la cual se expresa, comparte contenido y promueve su actividad económica.
38. Los asuntos que pone de presente la tutela en cuestión son novedosos, en especial porque es la primera vez que la Corte Constitucional se enfrenta a un caso de moderación de contenidos por parte de redes sociales y su relación con los derechos fundamentales de sus usuarios. Particularmente, el caso concreto plantea debates contemporáneos relacionados con: (i) la jurisdicción para resolver controversias suscitadas por la moderación de contenidos hecha por parte de las redes sociales; y (ii) el alcance de dicha moderación por parte de las plataformas, incluido un asunto sobre el que poco se ha discutido, no solo en Colombia sino en otros lugares, acerca de si las conductas fuera de línea (offline) pueden ser tenidas en cuenta para determinar la permanencia en una determinada red social. Además, la presente tutela permite discutir temas que hasta ahora se empiezan a abordar en nuestra jurisprudencia, como el rol de los llamados influencers y la naturaleza constitucional de su actividad en Internet. Finalmente, y en relación específica con los hechos de este caso, hay una discusión compleja sobre la moderación de contenidos frente a publicaciones que incluyen semidesnudos o un contenido sexualmente sugerente, aunque no explícito.
39. Por ende, y antes de analizar el caso concreto, la Corte brindará un panorama general sobre las discusiones que se han avanzado alrededor de las temáticas descritas, y que son centrales para el análisis de la presente tutela. Así, en primer lugar, y dado que una de las primeras cuestiones que planteó Meta es la posible falta de jurisdicción del juez de tutela para conocer de la presente acción, la Corte iniciará con una referencia sobre las discusiones en materia jurisdiccional cuando están involucradas controversias relacionadas con el Internet y las redes sociales. En particular, la Corte se enfocará en esta parte en las reglas que determinan la competencia del juez de tutela en este tipo de casos.
40. En segundo lugar, la Corte se referirá a la naturaleza de las redes sociales y al concepto y alcance de la moderación de contenidos en relación con el ejercicio de derechos fundamentales, como la libertad de expresión, el debido proceso y la igualdad. En relación con la igualdad, la Corte se concentrará en algunas de las discusiones que se han gestado en el ámbito internacional sobre el género y la sexualidad en el proceso de moderación de contenidos. En tercer lugar, la Corte se referirá al ejercicio del oficio de influencer, a la naturaleza de dicha actividad y al ámbito de su protección.
41. Finalmente, y luego de este recuento, la Corte abordará el caso concreto. Inicialmente, analizará el asunto de la competencia en concreto y la procedibilidad de la acción. Debido a que en este caso se superan dichos requisitos, enseguida la Sala explicará por qué en este caso se configura la carencia actual de objeto por daño consumado, derivada de la imposibilidad –alegada por Meta Platforms, Inc.– de reactivar la cuenta de Instagram de la accionante que fue eliminada. En todo caso, ante la importancia de pronunciarse sobre el contenido de los derechos en discusión, la Corte estudiará de fondo los hechos alegados por la demandante.
42. Como se ilustrará tras el análisis, para la Corte, en efecto, Meta Platforms, Inc. restringió ilegítimamente el derecho a la libertad de expresión de la accionante, al no ser transparente en los procedimientos ni en la aplicación de las sanciones que llevaron a la eliminación de varios de sus contenidos y, en última instancia, de su cuenta en Instagram. Al tomar aquellas decisiones, la accionada vulneró además los derechos a la igualdad y no discriminación, a la libertad de escoger profesión u oficio, al debido proceso y al trabajo de la accionante. Por lo tanto, la Corte adoptará órdenes para evitar que las vulneraciones a estos derechos se repitan.
43. Internet es un fenómeno global que cuestiona la división política del mundo en Estados nacionales. Su capacidad para influir de manera simultánea en la vida de miles de millones de personas en el mundo revela su naturaleza trasnacional. Si bien las conexiones que posibilita estimulan la interacción entre personas de diversos contextos culturales, sociales y económicos, también genera nuevas conflictividades. La resolución de estas controversias constituye, por tanto, un desafío tanto para los Estados como para los intermediarios privados que administran de forma predominante la infraestructura de Internet.
44. El caso de las redes sociales es paradigmático: como más adelante se ilustrará, la capacidad de que los usuarios creen sus propios contenidos y la moderación ejercida por los intermediarios dan lugar a no pocos conflictos. Para abordarlos, las redes sociales han adoptado reglas orientadas a facilitar la resolución de controversias. Sin embargo, ellas pueden entrar en tensión con las normas estatales que, con el fin de proteger a sus ciudadanos, también prevén reglas para resolverlas.
45. En esa medida, la presente tutela se enfrenta a un primer problema de si los jueces nacionales, en este caso el juez de tutela colombiano, tiene jurisdicción para abordar una controversia que involucra a una red social cuya casa matriz se encuentra en el extranjero y, más aún, si el juez puede ejercerla cuando un usuario pueda no estar domiciliado en Colombia. Así, y sin perjuicio del análisis del caso concreto, que se adelantará en la sección correspondiente, es importante abordar aquí algunas consideraciones en materia de jurisdicción del juez constitucional en casos relacionados con Internet y, en particular, con las redes sociales. En este sentido, la Corte se referirá, primero, a algunos de los dilemas que surgen al definir la jurisdicción en casos relacionados por Internet. Segundo, la Corte estudiará los criterios que la legislación y la jurisprudencia colombiana ofrecen para resolver tales dilemas.
46. Los casos relacionados con Internet ponen a prueba las reglas tradicionales sobre conflictos internacionales de jurisdicción, las cuales se basan –por lo general– en el principio de territorialidad. En efecto, como lo señaló esta Corte, dicho principio se refiere a que “cada Estado puede prescribir y aplicar normas dentro de su respectivo territorio, por ser éste su ‘natural’ ámbito espacial de validez”[38]. Sin embargo, como lo nota Uta Kohl, “la actividad online no está por defecto ubicada en un único territorio. Prima facie, una página web puede accederse en todas partes. ¿Significa esto que todo Estado puede regular todo sitio web y, si no, cuál Estado puede y cuál no?”[39]
47. Al definir las reglas para asumir jurisdicción sobre casos relacionados con Internet, los sistemas jurídicos se enfrentan a dos extremos problemáticos. Por una parte, si el principio de territorialidad se entiende en forma muy estricta, se podría dejar sin regulación o en impunidad conductas que no suceden en ningún lugar físico, pero que en todo caso impactan a personas o intereses de los Estados. Por otra parte, si no se delimitan criterios para que los Estados ejerzan su jurisdicción en disputas relacionadas con Internet, cada uno asumiría una especie de jurisdicción universal por el solo hecho de que una conducta tenga lugar en el ciberespacio. Esta situación generaría inseguridad jurídica a los particulares y empresas, quienes no podrían saber a qué normas se deben acoger.
48. El primer extremo, consistente en una aplicación irreflexiva del principio de territorialidad, es problemático, porque implicaría la existencia de espacios vedados para la acción del Estado. Esta situación es inaceptable a la luz de la Constitución, pues sus autoridades no pueden renunciar a garantizar la vigencia del orden constitucional y los derechos fundamentales de las personas. Como bien lo señaló esta Corte en la sentencia C-1147 de 2001, aunque la existencia de un “mundo virtual” o ciberespacio desborda las fronteras nacionales, nadie podría sostener que, por tratarse de Internet, los usuarios no pueden ver amenazados sus derechos constitucionales[40]. En Internet, como dijo la Corte en la mencionada sentencia, “puede haber una realidad virtual, pero ello no significa que los derechos, en dicho contexto, también lo sean. (…) [Los derechos] no son virtuales: se trata de garantías expresas por cuyo goce efectivo en el llamado ‘ciberespacio’ también debe velar el juez constitucional”[41].
49. Varias de las intervenciones en este proceso dan cuenta de lo mismo. Así, la Universidad de Essex[42], la Fundación Karisma, El Veinte[43] y el profesor Nelson Remolina[44] señalaron que, si bien las actividades de los intermediarios en redes sociales suelen trascender las fronteras nacionales, los Estados no pueden renunciar a su deber de proteger y garantizar los derechos humanos. Por su parte, el abogado Francisco Reyes Villamizar[45] destacó que las propias reglas de Meta Platforms, Inc. reconocen la competencia de los jueces nacionales para resolver controversias que se susciten entre la compañía y los usuarios, mientras que el profesor Eric Goldman señaló que siempre que la compañía despliegue su actividad en el país no habría dificultad para que los jueces domésticos ejerzan su jurisdicción[46].
50. Ahora bien, así como es problemático renunciar a regular la Internet, otro extremo peligroso es que los Estados extiendan su jurisdicción a cualquier disputa que suceda en la red, bajo el argumento de que no ocurre en “ningún” territorio. Que los Estados se abstengan de definir criterios claros y consistentes para aplicar las normas nacionales en espacios virtuales trae problemas de legitimidad y soberanía. Por ejemplo, “¿puede un Estado A prohibir a los ciudadanos de un Estado B, ubicados en el Estado B, publicar anuncios de tractores morados en Internet solo porque el Estado A prohíbe la venta de tractores morados?”[47]. Es más, aún si fuera legítimo que los Estados extendieran su jurisdicción a cualquier disputa que suceda en Internet, entender la jurisdicción estatal de esta forma podría llevar a que las normas no cumplan su propósito central, que es guiar la conducta de quienes están sujetos a ellas. Si un usuario de Internet puede estar sujeto a cualquier sistema jurídico por el solo hecho de conectarse a la red, sería muy difícil que ajuste su comportamiento a las normas de todos ellos.
51. Adicionalmente, al definir reglas para intervenir en disputas online, los Estados deben ser cuidadosos de no limitar injustificadamente la circulación libre de ideas en Internet. Al respecto, en su intervención en este proceso, Wikimedia resaltó que si bien la Corte es dueña de su competencia y puede establecer el alcance de su intervención en asuntos que involucran plataformas digitales, también recalcó la importancia de evitar que dichas intervenciones supongan una limitación a los derechos de la ciudadanía según agendas gubernamentales[48]. Asimismo, los intervinientes señalaron que dichas intervenciones no pueden menoscabar la facultad de moderación de contenidos, que además de ser legítima es necesaria para garantizar un Internet libre y seguro[49].
52. En otras palabras, los tribunales tienen que desarrollar reglas para determinar hasta dónde llega su competencia para regular fenómenos que tienen alcance global, pero que también pueden tener implicaciones nacionales. De hecho, la necesidad de fijar reglas sobre jurisdicción para fenómenos que pueden estar vinculados con más de un territorio no es nueva[50]. Por ejemplo, con los avances en medios de transporte y la multiplicación de transacciones internacionales es común que sobre un mismo asunto puedan concurrir los intereses de varios Estados. Es una realidad entonces que, ante una misma disputa, pueden existir vínculos con varias jurisdicciones. Lo que hace el Internet es extender los límites de esta realidad.
53. En este sentido, los casos relacionados con Internet pueden estar vinculados con más de un territorio, pero esto no significa que las reglas sobre jurisdicción desarrolladas por cada sistema jurídico dejen de tener aplicación. En efecto, como indica la Cepal, “entre los Estados existe una amplia tendencia a hacer valer su jurisdicción respecto de conductas y actividades que tienen origen en otro Estado o territorio, siempre que tengan una conexión relevante con el país que la establece. Esta conexión suele entenderse en relación con la actividad de dirigirse a los consumidores, hacer negocios, causar un daño o afectar de alguna manera concreta a personas o bienes ubicados dentro de las fronteras de un país”[51]. Lo relevante, para que una corte asuma competencia, es establecer la fuerza de la relación entre la controversia y su país. Este no es un proceso estático: depende, por una parte, de los factores que cada sistema jurídico use para asignarle jurisdicción a sus tribunales y, por otra parte, del contexto del caso concreto[52].
54. Ahora bien, si el ciberespacio no está ubicado en ningún territorio, ¿cómo se puede establecer dicha conexión entre una disputa y la jurisdicción de un Estado? La doctrina se refiere a dos enfoques del principio de territorialidad en Internet: los enfoques país-de-origen y país-de-destino. En el primero, las cortes solo pueden ejercer competencia sobre las actividades online originadas en su país, ya sea porque ahí se ubica el servidor o porque el juez estudia una conducta realizada por una persona en su territorio. En el segundo enfoque, lo relevante es dónde se concretan los efectos de la actividad. Sin embargo, como lo señala la misma doctrina:
“[h]ay una tercera vía. Los Estados en ocasiones, [especialmente] en el contexto del derecho privado, han intentado evitar las posiciones extremas de los enfoques país-de-origen y país-de-destino, optando por una opción intermedia. Esa posición intermedia está ocupada por un enfoque país-de-destino moderado, según el cual solo los Estados a los que se ha dirigido específicamente la actividad online tienen competencia para regularla”[53].
55. A partir de las consideraciones que anteceden, la Corte concluye que el Estado no puede renunciar a ejercer su jurisdicción sobre la Internet. Asimismo, es necesario que existan criterios claros para aplicar la jurisdicción en casos relacionados con Internet, los cuales no se limitan a un entendimiento estricto del principio de territorialidad. Sin embargo, sí es necesario establecer algún tipo de conexión entre la disputa que se quiere someter al conocimiento de los tribunales nacionales y el territorio de ese país. La fuerza de dicha conexión puede depender de distintos factores, debido a que cada Estado tiene sus propias normas para determinar el alcance de su jurisdicción.
56. En Colombia, existen criterios para definir si una controversia relacionada con Internet tiene una conexión relevante con el país. Por ejemplo, el artículo 2º de la Ley 1581 de 2012, que establece el régimen de protección de datos personales, señala que “[l]a presente ley aplicará al tratamiento de datos personales efectuado en territorio colombiano o cuando al Responsable del Tratamiento o Encargado del Tratamiento no establecido en territorio nacional le sea aplicable la legislación colombiana en virtud de normas y tratados internacionales”[54]. Esta norma desarrolla el mandato del artículo 15 de la Constitución, según el cual “[e]n la recolección, tratamiento y circulación de datos se respetarán la libertad y demás garantías consagradas en la Constitución”.
57. El ámbito de aplicación de la Ley 1581 de 2012 muestra que el principio de territorialidad se puede adaptar al mundo virtual. En efecto, la ley aplica sobre quien recolecta, usa, almacena o trata datos personales en el territorio colombiano, con independencia de que esté o no domiciliado en Colombia. Incluso, la ley trae una regla adicional, según la cual esta regulación puede aplicar sobre el tratamiento de datos que no tenga lugar en el territorio colombiano, si hay normas o tratados internacionales que establezcan la aplicación de la ley colombiana. Al respecto, la Corte nota que la Delegatura para la Protección de Datos de la Superintendencia de Industria y Comercio reiteró en varias decisiones que la ley colombiana es aplicable al tratamiento de datos incluso si el responsable o encargado no está domiciliado en el país[55]. De estas decisiones se evidencia que, mediante plataformas como Google, Facebook y WhatsApp, las empresas que las operan recolectan datos personales en Colombia y en esa medida están sometidas a la legislación colombiana en lo relacionado con su tratamiento.
58. Ahora bien, tratándose de procesos de tutela, la manera en que la Corte aborda esta acción también permite identificar criterios para asignar la jurisdicción. En efecto, la Constitución dispone en su artículo 86 que “toda persona” tiene acción de tutela para la protección de sus derechos fundamentales. Por su parte, el artículo 37 del Decreto 2591 de 1991 establece la competencia a prevención para conocer de las acciones de tutela en primera instancia en cabeza de “los jueces o tribunales con jurisdicción en el lugar donde ocurriere la violación o la amenaza que motivaren la presentación de la solicitud”. De acuerdo con lo anterior, el factor territorial de competencia de los jueces de tutela lo determina el lugar físico en el que se produjo la vulneración o amenaza a los derechos fundamentales de la parte afectada o, como también lo ha precisado la jurisprudencia, donde dicha situación produjo sus efectos[56].
59. Aunque estos criterios se usan para la distribución interna de las competencias entre los jueces de tutela, ellos ilustran que el ordenamiento colombiano adopta un enfoque de territorialidad mixto. En este enfoque, lo relevante para determinar la competencia es la vulneración o amenaza de los derechos fundamentales. Así las cosas, el juez competente es el del lugar donde ocurre la amenaza o vulneración o, de forma subsidiaria, donde esta produce sus efectos.
60. En resumen, el hecho de que una disputa se relacione con Internet no quiere decir que los jueces nacionales carezcan de competencia para conocerla. Por el contrario, aunque Internet pone a prueba los criterios tradicionales para asignar la jurisdicción, es posible establecer reglas que permitan regular lo que sucede en el ciberespacio sin que se convierta en una intervención ilimitada en el mundo virtual. En Colombia, el régimen de protección de datos personales ofrece un ejemplo de cómo el criterio de territorialidad se puede redefinir para incluir asuntos que, aunque pueden no suceder físicamente en el país, sí tienen una conexión relevante con el territorio nacional. De igual forma, en línea con la jurisprudencia de esta Corte en materia de acción de tutela, el juez constitucional puede ser competente para conocer una disputa cuando la vulneración o amenaza de los derechos fundamentales ocurre en Colombia o, en subsidio, cuando de forma clara produce efectos en el país.
61. Como arriba se indicó, uno de los asuntos centrales del caso que ocupa la atención de la Corte se refiere al alcance de la moderación de contenidos ejercida por las plataformas de redes sociales. En particular, versa sobre la manera en que esta función incide en el ejercicio de derechos fundamentales como la libertad de expresión, la igualdad y el debido proceso.
62. La moderación de contenidos se puede definir como “la práctica organizada de revisión de los contenidos generados por usuarios en páginas de Internet, redes sociales u otras plataformas”[57]. Generalmente, el proceso de moderación de contenidos, realizado principalmente por los intermediarios de internet, busca identificar y abordar contenidos que son perjudiciales, ilegales o que violen las normas de la comunidad de una determinada plataforma, lo que puede derivar en distintas consecuencias, que van desde limitar la visualización de un contenido específico hasta el cierre definitivo de una particular cuenta[58].
63. La moderación de contenidos, pese a ser un fenómeno cotidiano en el ecosistema digital, no deja de ser una cuestión novedosa para el derecho constitucional, pues plantea interrogantes sensibles sobre la interacción entre las reglas privadas de las plataformas, la intervención del Estado y los estándares internacionales en materia de derechos humanos, entre otras cuestiones.
64. En esta sección, la Corte discutirá el origen y funcionamiento de la moderación de contenidos, y expondrá algunos de los desafíos y cuestionamientos que se han identificado alrededor de esta actividad. Asimismo, la Corte se detendrá en el papel que debe jugar el Estado frente a la actividad de moderación de contenidos.
65. Como resultado de este análisis, un punto en el que se insistirá es que si bien es natural que sean las plataformas o administradoras de redes sociales quienes realicen principalmente la moderación de contenidos y cuenten con cierta flexibilidad para adelantar dicha actividad, ella está sujeta a ciertos límites que pueden ser protegidos por los Estados. Dichos límites obedecen fundamentalmente al respeto por los derechos humanos.
66. Desde la Declaración de Principios sobre la Sociedad de la Información, adoptada hace más de dos décadas, se reconoció que el nuevo milenio estaría marcado por el desarrollo de tecnologías para “crear, consultar, utilizar y compartir la información y el conocimiento”[59] como elementos esenciales de la vida social, cultural y económica. En el centro de esta transformación se ubicó la Internet, cuyo alcance global, luego de aquella Declaración, ha tenido un impacto significativo en la vida de los seres humanos.
67. Entre las múltiples expresiones de esta transformación se encuentran los servicios de redes sociales (social networking services) definidos como “servicios basados en la web que permiten a los usuarios construir un perfil público o semipúblico dentro de un sistema delimitado, conectar con otros usuarios y explorar sus redes”[60]. Estos servicios de redes sociales habitan Internet como espacios dinámicos y en constante actualización, donde la comunicación fluye de manera inmediata y global. Ellos son administrados por intermediarios de Internet, en su mayoría empresas privadas, que poseen y gestionan la infraestructura tecnológica y definen las políticas de uso. Como lo indicó esta Corte en la sentencia SU-420 de 2019, son estos intermediarios los “que de una u otra forma determinan y posibilitan las interacciones en línea”[61].
68. El impacto de las redes sociales en la vida de las personas es indiscutible. En estas redes las personas se encuentran, interactúan, crean contenido, se informan, discuten, acceden a productos y servicios entre muchas otras actividades[62]. Lo hacen, además, a una escala sin precedentes. A enero de 2024 se calculaba que alrededor de 5.4 billones de personas usaban redes sociales[63]; esto es, más del 60% de la población mundial[64]. Instagram, el servicio de Meta Platforms, Inc. que se encuentra en el centro de esta disputa, tenía a febrero de 2023 1.35 billones de usuarios[65]. A mayo del 2024, el promedio global de minutos diarios consagrados al consumo de contenido de redes sociales fue de 143, es decir, poco más de 2 horas al día[66]. Si nos concentramos en Colombia, más de 38 millones de personas son usuarias de redes sociales en el país, es decir, cerca del 75% de sus habitantes. Esta población usuaria invirtió, a enero de 2024, un promedio de 3 horas y 23 minutos diarios en redes sociales, mucho más que el promedio global[67]. Como bien lo dice Robert Post, “las redes sociales se han vuelto omnipresentes en nuestras vidas de formas en que otros medios nunca lo fueron.”[68]
69. La interacción masiva entre personas ofrece beneficios evidentes, como la conexión entre personas en distintos lugares, el acceso a la información, la promoción de la investigación, la deliberación pública y las oportunidades para la defensa de los derechos humanos[69]. Sin embargo, como lo advirtió la anterior Alta Comisionada de las Naciones Unidas para los Derechos Humanos: “[l]a revolución digital plantea [igualmente] un considerable problema de derechos humanos a escala mundial. Sus beneficios indudables no anulan sus riesgos evidentes”[70]. Las redes sociales en particular enfrentan como ningún otro servicio digital los desafíos propios del proyecto casi utópico de un Internet libre y abierto para todas las personas del mundo[71]: acoso en línea -que puede traducirse en violencia en el mundo real-, aumento de la discriminación en desmedro de los más vulnerables, engaño y abuso de niñas, niños y adolescentes, compromiso del derecho a la intimidad, uso indebido de los datos de las personas, riesgos democráticos sin precedentes a través de noticias falsas y manipulación de información[72], por citar solo algunos de los desafíos.
70. En medio de la discusión sobre cómo preservar los beneficios de un Internet libre, pero minimizando algunos de sus riesgos más problemáticos, tempranamente surgió la pregunta sobre cómo arbitrar lo que circula en Internet, que se conoce como moderación de contenidos. Esta actividad que, como se indicó, es realizada principalmente por los intermediarios de internet, se ha ido transformado a lo largo de los años, y ha estado lejos de ser pacífica.
71. A continuación, y sin pretender ser exhaustivos, se presentan algunos de los hitos más relevantes de la trayectoria que se ha surtido en relación con la moderación de contenidos, que muestra cómo las plataformas han pasado de aplicar reglas dispersas a desarrollar políticas explícitas, mecanismos de supervisión y procesos de rendición de cuentas frente a sus decisiones de moderación[73]. Sin embargo, también concluye con la descripción del modelo de moderación de contenidos que han adoptado de manera reciente algunas plataformas, y que ha generado en unos sectores no pocas manifestaciones de preocupación.
72. Hitos en la moderación de contenidos. Con la proliferación de plataformas digitales en la década de los noventa, la principal preocupación de los usuarios y de las instituciones públicas giraba en torno a la circulación descontrolada de pornografía infantil y a la violación de derechos de autor[74]. Con la aparición de las redes sociales a mediados de la primera década del nuevo milenio, esas preocupaciones terminaron trasladándose a ellas. Así, por ejemplo, plataformas pioneras como YouTube establecieron desde sus inicios normas de uso que delimitaban lo que podía y no podía publicarse[75], enfocadas en atender esas dos inquietudes centrales: la pornografía y los derechos de autor.
73. Sin embargo, un evento en la plataforma MySpace en 2006 implicó un giro radical en la aproximación de los intermediarios de redes sociales a su discurso sobre la libertad de expresión en Internet. Este fue el caso de Megan Meier. En 2006, Megan Meier, una joven de 13 años, fue contactada por el perfil de Josh Evans, quien decía ser un joven de 16 años. Eventualmente, Evans comenzó a insultar a Meier y le dijo: “Eres una persona horrible, y el mundo sería un mejor lugar sin ti en él”. Minutos después de leer este mensaje, Meier se colgó con una correa en su habitación[76]. Al investigar los hechos, se descubrió que Josh Evans no existía. Se trataba realmente de Lori Drew, una mujer de 47 años y madre de una antigua amiga de Megan con quien tuvo una discusión que rompió su lazo de amistad tiempo atrás.
74. Además de la investigación judicial, la discusión pública dirigió sus críticas hacia MySpace: ¿cómo era posible que la red social permitiera la creación de una identidad falsa para matonear a una niña hasta llevarla al suicidio? La condena pública a MySpace supuso un declive irreversible de la compañía, y obligó a otros intermediarios a considerar con más seriedad la necesidad de regular la conducta digital de sus usuarios y de disponer equipos para asegurar la supervisión y cumplimiento de estas reglas[77]. En efecto, el caso de Megan Meier ilustró el nivel de penetración de las redes sociales en la vida cotidiana de las personas, y sus posibles consecuencias negativas en el mundo offline. En ese contexto, se volvió ilusorio pensar en redes sociales abiertas y desreguladas. Se hizo, entonces, central pensar en la moderación de contenidos en estos espacios[78].
75. La década siguiente ilustró un fortalecimiento en los procesos de moderación de contenidos por parte de las plataformas. En esa época, se comenzaron a expedir normas comunitarias y ofrecer reportes de transparencia y posibilidades de apelación de sus decisiones. En efecto, entre 2010 y 2011, Facebook introdujo sus primeros Community standards en diferentes idiomas, lo que marcó un hito en la explicación de las reglas de conducta para sus usuarios. Paralelamente, Twitter, Youtube e Instagram comenzaron a ofrecer reportes de transparencia y posibilidades de apelación a sus decisiones[79].
76. En ese tiempo, además, las redes sociales empezaron a tener un gran protagonismo, por hechos como la Primavera Árabe, que mostraron que estas podrían servir como canales centrales para amplificar voces ciudadanas y difundir información sobre protestas y violaciones de derechos humanos[80]. En materia de moderación de contenidos, las plataformas, en respuesta, adoptaron decisiones complejas, y no exentas de controversia. Por ejemplo, en 2011, Youtube permitió, por razones educativas, documentales y científicas, la publicación de videos violentos, como los que mostraban torturas policiales en Egipto y Libia. Al mismo tiempo, bloqueó en varios países un video que era considerado ofensivo para las personas musulmanas, como forma de prevenir la violencia. Por su parte, otras plataformas como Twitter (hoy X) adoptaron políticas que permitían bloquear contenidos únicamente en jurisdicciones específicas, sin eliminarlos globalmente[81].
77. Otro hito que marcó las discusiones de la época en materia de moderación de contenidos ocurrió en el 2012 con la filtración de documentos internos de Facebook, sobre los criterios que la empresa utilizaba para decidir qué se eliminaba y qué no. Esto propició un amplio debate sobre la opacidad en los criterios y funcionamiento de dicha moderación. En respuesta, en el 2013, Facebook publicó su primer informe de transparencia. Este periodo marcó un cambio claro: las plataformas pasaron de aplicar reglas ad hoc a diseñar políticas explícitas y, aunque de forma incipiente, a rendir cuentas sobre su implementación[82].
78. En los años que siguieron, las plataformas se enfrentaron a desafíos muy complejos. Por ejemplo, en el 2014 apareció en Internet el video de la decapitación del periodista estadounidense James Foley, lo que motivó a YouTube a revertir su política previa y restringir la difusión de material violento. Paralelamente, se introdujeron reglas contra “organizaciones peligrosas” vinculadas al terrorismo. En 2015 y 2016, Twitter reformó sus políticas de acoso tras un caso de hostigamiento masivo contra el elenco femenino de una película. En el mismo periodo, las elecciones presidenciales de Estados Unidos revelaron la magnitud de las campañas de desinformación impulsadas tanto por actores estatales como por grupos organizados, lo que llevó a Facebook a implementar un programa de verificación de hechos en alianza con organizaciones acreditadas por la International Fact-Checking Network (IFCN)[83]. Sin embargo, las plataformas fueron criticadas por su incapacidad para contener la violencia étnica en lugares como Myanmar.
79. En 2017 y 2018 se lanzó el Global Internet Forum to Counter Terrorism (GIFCT)[84], un esfuerzo conjunto entre industria tecnológica, gobiernos, sociedad civil y academia para coordinar la respuesta frente a contenidos terroristas y extremistas violentos en línea. Sin embargo, también se multiplicaron los problemas: Facebook Live comenzó a ser utilizado para transmitir suicidios y tiroteos, como el asesinato de Philando Castile en 2018. Ese mismo año, Twitter eliminó 70 millones de cuentas automatizadas, YouTube publicó su primer informe de aplicación de normas comunitarias y Facebook creó el Oversight Board o Consejo Asesor de Contenido (en adelante, el “Consejo Asesor”)[85], un órgano independiente concebido como una especie de “tribunal supremo” para resolver apelaciones y casos emblemáticos sobre moderación.
80. En el 2020, el Consejo Asesor, compuesto por 20 personas de diversos campos, comenzó operaciones. Ese mismo año la pandemia del Covid-19 las plataformas tomaron distintas medidas para contrarrestar la desinformación sanitaria[86]. Entre otras cosas, prohibieron contenidos que estuvieran en contra de las fuentes oficiales e hicieron una campaña masiva para etiquetar publicaciones relacionadas con la pandemia. Ese año también, las plataformas se vieron enfrentadas con hechos políticos complejos. Por ejemplo, a finales del 2020 se gestó una campaña de desinformación para insistir en un posible fraude electoral en Estados Unidos. Esta campaña escaló, tras el asalto al Capitolio de ese país, el 6 de enero de 2021. Facebook y Twitter bloquearon la cuenta del entonces presidente y candidato Donald Trump y luego lo expulsaron[87]. En una de sus decisiones más conocidas, el Consejo Asesor revisó el caso, y confirmó la suspensión, pero exigió criterios claros para determinar su duración y alcance[88].
81. El 7 de enero de 2025, después de la elección de Donald Trump para un nuevo periodo presidencial, Mark Zuckerberg, director ejecutivo de Meta (antes Facebook) anunció cambios sustanciales en las políticas de verificación de datos de sus plataformas Facebook, Instagram y Threads. Con anterioridad se utilizaban verificadores externos, y ahora se pasa a un modelo de arbitramento, que contiene “notas de la comunidad, siguiendo el modelo que con anterioridad había adoptado X (antes Twitter) al cambiar de dueño[89]. Como se discutirá más adelante, este cambio ha sido recibido por algunos como un espacio de mayor libertad de expresión, pero por otros como una política que puede exacerbar los discursos de odio y poner en riesgo a los más vulnerables.
82. En síntesis, lo que este recuento de unos cuantos hitos sobre la evolución de la moderación de contenidos busca ilustrar, es que se trata de un proceso complejo que se ha desarrollado en medio de hechos, tensiones y debates éticos y políticos muy sensibles. La experiencia reciente muestra que la moderación de contenidos tiene profundas repercusiones sociales y democráticas, y que hay reservas sobre la completa dependencia del arbitrio de actores privados, punto sobre el cual esta Corte se referirá más adelante.
83. Cómo se hace la moderación de contenidos. Como arriba se indicó, la moderación de contenidos implica la práctica o proceso de revisar los contenidos generados por los usuarios publicados en plataformas digitales. Lo que se busca es determinar si esos contenidos cumplen o no las llamadas “normas comunitarias” o “reglas de la casa”. Si no lo hacen, se generan una serie de consecuencias, como restricciones a la visualización de un determinado contenido o su eliminación, la suspensión del usuario o el cierre definitivo de la cuenta[90].
84. Las llamadas “normas comunitarias” o “reglas de la casa” son adoptadas por los operadores de redes sociales que buscan definir cuáles contenidos o comportamientos son o no admisibles en una determinada plataforma. Se habla de que estas normas tienen tres niveles[91]:
· Primer nivel. Suele corresponder con normas legales más o menos uniformes alrededor del mundo sobre discursos considerados prohibidos, como la pornografía infantil, la incitación al uso de la violencia física, la propaganda de guerra y la apología al genocidio[92]. Existe una especie de “efecto espejo”, pues estas normas legales se reflejan en las normas comunitarias que prohíben circular tales discursos en redes sociales. Un ejemplo se encuentra en los Estándares Comunitarios de Facebook, que prohíben difundir discursos que inviten a cometer violencia severa[93].
· Segundo nivel. Se trata de contenido que, en principio, no está prohibido por la ley pero que en el contexto de la red social se considera inapropiado, chocante u objetable. Es usual que en las normas comunitarias se establezcan conductas específicas que están prohibidas de plano o mecanismos adicionales de verificación para definir si se trata de contenidos objetables o no. En todo caso, estas normas no son uniformes en todas las plataformas, pues “cada servicio decide por sí mismo lo que subjetivamente considera contenido horrible u objetable”[94]. Un ejemplo de estas conductas pueden ser imágenes sensuales o de alto contenido erótico, o contenidos informativos explícitos de violencia.
· Tercer nivel. En este nivel está el contenido que no solo es lícito, sino que además parece ser en principio inobjetable y por lo tanto de circulación libre en la red social. Con el tiempo, el contenido que hace parte de este nivel ha cambiado. En principio, se consideraba que todo aquello que no fuera prohibido o sometido a restricciones podía circular libremente. Ahora, hay una nueva práctica en la que los operadores de redes sociales informan explícitamente qué tipo de contenido puede ser publicado y puesto en circulación en ellas sin limitaciones[95].
85. Para garantizar el cumplimiento de estas reglas, la moderación de contenidos se hace esencialmente de dos maneras: (i) una moderación ex ante, es decir, una revisión de contenidos desarrollada antes de que el material sea publicado, principalmente para evitar la circulación de elementos violatorios de prohibiciones absolutas como la pornografía infantil o de obras protegidas por derechos de autor; o (ii) una moderación ex post, es decir, posterior a la publicación del contenido por parte de los usuarios. Este último tipo puede ser reactivo, es decir, en reacción a una denuncia hecha por otros usuarios (flagging), o puede ser activo, es decir, realizado de forma unilateral por los mecanismos humanos y automatizados de control de contenidos[96].
86. Esta curación se hace a través de la combinación de equipos humanos de moderación de contenidos y de herramientas automatizadas de inteligencia artificial (IA). Sin embargo, como lo explica el Consejo Asesor de Meta[97], esta curación ha evolucionado drásticamente en las últimas dos décadas. Hoy cada vez más la moderación de contenidos se basa en inteligencia artificial, pues este ejercicio implica el procesamiento de millones de datos cada segundo[98]. Las herramientas de IA o algoritmos “usan aprendizaje de máquina (conocido como machine learning)” que las entrenan “para buscar ciertos contenidos y eliminarlos si incumplen con los términos y condiciones”[99]. Como también indica el Consejo Asesor, y se discutirá más adelante, no son pocos los riesgos de la automatización, pues puede llegar a amplificar errores humanos, con sesgos incrustados en los datos de entrenamiento y en el diseño de los sistemas, mientras que las decisiones de aplicación suceden rápidamente, dejando pocas oportunidades para la supervisión humana”[100].
87. Para los operadores de redes sociales, no es fácil definir qué está permitido y qué está prohibido en el entorno digital. En efecto, la discusión pública señala que el principal desafío de la moderación de contenidos se relaciona con cuándo, cómo y por qué moderar uno u otro contenido[101]. Frente a esta facultad, existen dos grandes posturas. Por un lado, están quienes señalan que los operadores de redes sociales son laxos en la revisión de los contenidos y que, por tener un modelo de negocios basado en la publicidad, dejan pasar contenido infractor de sus propias políticas cuando los usuarios pagan por difundirlo[102]. Por otro lado, la posición contraria señala que es probable que los operadores de redes sociales se excedan en el ejercicio de su facultad amplia de moderación de contenidos[103].
88. Estas dos posturas son importantes porque ilustran una tensión que es transversal a las discusiones sobre moderación de contenidos. Tanto los operadores de redes sociales como los Estados (según se verá más adelante) se enfrentan a un dilema sobre cómo evitar los extremos de regular en exceso o ser demasiado permisivos. En este contexto, los operadores de redes sociales deben encontrar un balance que permita aplicar estrictamente las reglas para impedir que circule contenido atroz, mientras se garantiza que materiales potencialmente objetables, pero en cualquier caso legítimos, circulen como obliga el derecho internacional de los derechos humanos[104].
89. Al respecto, un ejemplo reciente que reavivó la discusión sobre el rol de las plataformas en la moderación de contenidos fue la decisión de Meta, antes comentada, de terminar su programa de verificación de hechos (fact-checking) en las publicaciones de redes sociales en los Estados Unidos[105]. Este programa buscaba combatir la difusión de noticias falsas en redes sociales, pero la compañía justificó su fin porque “llegó a un punto en el que había muchos errores y censura”, por lo que era necesario “volver a sus raíces alrededor de la libertad de expresión”[106]. En este sentido, como también se indicó, Meta decidió transitar de un modelo mediante el cual terceros externos revisaban publicaciones para alertar sobre posibles noticias falsas, desinformación o discursos de odio, a uno en el que son los usuarios quienes pueden comentar acerca de la existencia de publicaciones engañosas. Este último modelo de “notas comunitarias”, requiere un “acuerdo entre personas con un rango de perspectivas para ayudar a prevenir calificaciones sesgadas” [107].
90. Voces expertas cuestionaron el fin del programa, con el argumento de que Meta estaba “reabriendo las compuertas al mismo auge de odio, desinformación y teorías de conspiración que provocaron [el ataque al Capitolio de los Estados Unidos] del 6 de enero, y que continúan impulsando la violencia en el mundo real”[108]. Como lo puso de presente la antigua relatora para la Libertad de Expresión de la OEA, quien también fue miembro del Consejo Asesor de Meta:
“[La labor de verificación de datos] no [la] pueden hacer las notas comunitarias de manera confiable. Los usuarios no tienen ni el tiempo, ni la plata, ni el método, ni el compromiso con la transparencia que tienen los verificadores de datos. Las notas comunitarias pueden ser un complemento, pero no pueden cumplir la labor de los verificadores. Todo esto, sin mencionar las interacciones no humanas que van a intervenir en estos procesos, cada vez más sofisticadas y difíciles de detectar (…)”[109].
91. En todo caso, la Corte debe fallar con base en los hechos objeto de la tutela al momento en que sucedieron, por lo que las políticas de Meta que deben analizarse son las que se aplicaron sobre la accionante. No obstante, el contexto es relevante y evidencia que el debate sobre el rol de los operadores de las plataformas en la moderación de contenidos es actual y está en evolución constante. Asimismo, esta discusión está relacionada con el debate que la Corte explicará a continuación: sobre la interacción entre los contenidos que se comparte en redes sociales y los hechos que suceden fuera de línea.
92. La discusión offline-online: el uso de contenidos fuera de línea (offline) en la moderación de contenidos. Un debate que ilustra las dificultades de definir qué es aceptable dentro de una plataforma y qué no lo es tiene que ver con el análisis de conductas fuera de plataforma (offline) en la curación de contenidos. Esta discusión parte de una pregunta esencial: ¿deben los moderadores de contenido considerar lo que hacen las personas fuera de sus cuentas como un parámetro para restringir el acceso a las plataformas? En este debate se pueden encontrar, nuevamente, los dos extremos del dilema acerca de cuándo la regulación es deficiente o puede ser excesiva.
93. Por una parte, cada vez más hay circunstancias en las que se considera necesario tener en cuenta la conducta de los usuarios fuera de línea, como aquellas en las que hay un riesgo cierto y creíble de violencia hacia terceros. Esta postura puede ilustrarse con dos ejemplos.
94. Un primer ejemplo es el caso de Twitch, una plataforma de streaming dedicada a transmitir contenidos de usuarios que interactúan en torno a los videojuegos. En 2021, Twitch lanzó una política comprehensiva para enfrentar conductas graves cometidas fuera de línea[110], luego de una serie de denuncias sobre violencia sexual atribuida a usuarios célebres de la plataforma en el marco del movimiento #MeToo[111]. Entre las conductas offline que pueden ser investigadas bajo la nueva política se incluyen las que constituyan riesgos sustanciales a la seguridad de la comunidad como violencia extrema, terrorismo o reclutamiento, amenazas explícitas o creíbles de violencia en masa, explotación, y acoso o violencia sexual de cualquier tipo, pero especialmente contra niños y niñas, entre otras[112].
95. Un segundo ejemplo de la relevancia de conductas fuera de línea para la moderación de contenidos se vio con el ataque al Capitolio de los Estados Unidos el 6 de enero de 2021. Desde antes de ese evento se había denunciado la existencia de llamadas “operaciones de influencia” (influence operations), una categoría acuñada después de las elecciones de 2016 en Estados Unidos, Brasil y Reino Unido (Brexit)[113]. En todos estos eventos, se demostró a través de filtraciones del grupo Cambridge Analytica que operadores de Facebook permitieron el uso mecanismos predictivos sobre la conducta electoral de sus usuarios para la creación de contenidos que influenciaran su voto en dichos certámenes democráticos. Sin embargo, lo relevante del ataque al recinto del Congreso fue que la participación en esos hechos (además de las publicaciones en las plataformas) fue tenida en cuenta por Facebook y Twitter para eliminar las cuentas, entre otros, del entonces presidente Donald Trump[114].
96. Sin embargo, no siempre es claro que sea adecuado acudir a conductas fuera de línea para la moderación de contenidos. En efecto, existe el riesgo de que valerse de estas conductas favorezca, en algunos escenarios, la discriminación contra las mujeres. Al respecto, no es nueva la denuncia de mujeres que desarrollan actividades de pornografía o prostitución en otras plataformas en las que alegan ser discriminadas por Instagram, así sus publicaciones no sean sexualmente explícitas[115]. Por supuesto, existe un debate abierto sobre el posible uso de las cuentas como un medio para tercerizar o conducir a otras plataformas donde sí hay contenido sexualmente explícito o dónde se hacen transacciones de tipo sexual. Incluso, existe evidencia del uso de cuentas en redes sociales como Instagram como un medio para contactar con personas o grupos que favorecen encuentros sexuales offline[116].
97. Una vez más, el reto para los operadores de redes sociales está en establecer el límite de lo admisible sin transgredir límites incompatibles con los estándares sobre libertad de expresión. Una forma de hacerlo es determinar qué tipo de conductas o señales offline pueden indicar una amenaza a la seguridad o los derechos humanos de los usuarios de la plataforma.
98. Un ejemplo de estas señales lo propone la Clínica de Derechos Humanos de la Universidad de Yale[117], que señala que cuando la conducta fuera de las plataformas alimenta discursos de odio o fomenta la violencia extrema contra personas o grupos de personas, es necesario que las redes sociales tengan en cuenta el mundo offline. En su estudio sobre la circulación de discurso de odio que incita a la violencia extremista fuera de las plataformas, la Clínica formuló dos tipos de señales o indicios que deben tener en cuenta los moderadores de contenido para tomar decisiones expeditas sobre la permanencia de ciertos usuarios en la red social. Por un lado, señales online y, por otro, señales offline. Dentro de las señales o indicios offline, la Clínica subrayó que los moderadores deben tener en cuenta (i) el riesgo local de conflicto; (ii) la identidad de las personas objeto del discurso de odio; y (iii) la identidad de la persona que publica el contenido[118]. Este último elemento apunta a la necesidad de establecer quién es la persona que publica y cuál es su nivel de influencia sobre la posibilidad de ejercer violencia directa sobre una persona o grupo de personas[119].
99. En síntesis, los operadores de redes sociales se enfrentan a decisiones complejas relacionadas con la moderación de contenidos. Por un lado, existe un riesgo de regular poco, y permitir que en la plataforma circule contenido que incite a la violencia extrema, difunda discursos de odio o de otra manera amenace la seguridad o los derechos humanos de los usuarios. Por otro lado, existe el riesgo de regular demasiado, y restringir la difusión de contenido legítimo, aun cuando pueda considerarse potencialmente indeseable. La discusión sobre el uso de conductas offline en la moderación de contenidos ilustra este dilema. En la siguiente sección la Corte estudiará las complejidades adicionales que aparecen cuando quien regula el contenido que circula en la red no es solo el administrador de la plataforma, sino el Estado.
100. Los Estados se enfrentan a un dilema similar al de los operadores de redes sociales, aunque con dificultades propias. Al igual que las empresas privadas, el Estado debe decidir cuánto y en qué medida intervenir en la regulación del contenido que circula en plataformas digitales. Sin embargo, por regla general, no actúa de manera directa, pues la moderación de contenidos la ejercen en primera medida los operadores de redes sociales. La actuación estatal se dirige entonces hacia dichos operadores, teniendo en cuenta la naturaliza sui generis de las redes sociales, y sus propias limitaciones.
101. Ahora bien, resulta natural que los operadores de redes sociales asuman la tarea de moderar contenidos. Ello se explica, por un lado, por el volumen masivo de interacciones que circula a diario en las plataformas y, por otro, porque la moderación exige decisiones técnicas, que requieren de estructuras diseñadas para ese fin. Los intermediarios cuentan con herramientas tecnológicas y equipos humanos para aplicar sus reglas comunitarias. Por otra parte, hay fundadas reservas sobre la participación estatal directa en la moderación de contenidos, pues podría propiciar un control excesivo sobre el debate público que se genera en medios digitales, en desmedro de estándares democráticos y de derechos humanos[120].
102. Sin embargo, estas limitaciones no significan que el Estado está exento de responsabilidad. Así no sea quien ejerza la función de moderación de contenidos de manera directa, conserva deberes claros de regulación y supervisión, dentro de los parámetros establecidos por la Constitución y los instrumentos internacionales de derechos humanos. Como se pasará a explicar, el particular rol del Estado en esta materia inicia por comprender la especial naturaleza de las redes sociales.
103. En efecto, un primer aspecto a considerar, es que las redes sociales han difuminado la clásica distinción entre lo público y lo privado, tradicionalmente usada para delimitar la intervención del Estado. Esa frontera, ya cuestionada en otros contextos[121], se vuelve más porosa en los entornos virtuales. La Corte ha ilustrado el punto, al referirse a la diferencia entre espacios públicos, privados e intermedios.
104. Los espacios públicos son de acceso y permanencia libre, no existen códigos de comportamiento particulares y existe una obligación de las autoridades de velar por su destinación al uso común[122]; los espacios privados son cerrados y sujetos a la autorización de quien los habita o controla, pues allí se ejercen en mayor grado derechos y libertades como la intimidad y el libre desarrollo de la personalidad[123]. En el medio de estos dos extremos están los espacios semipúblicos y semiprivados. Los primeros están abiertos al público, pero para su acceso puede exigirse el cumplimiento de ciertos requisitos. Por ejemplo, son espacios semipúblicos “las oficinas públicas o de entidades prestadoras de servicios públicos, los bancos, los centros comerciales, los locales comerciales, los estadios y los cines”[124]. Por su parte, los espacios semiprivados, por regla general, no están abiertos al público, sino que su ingreso es reservado para quienes detentan la calidad de miembros de una determinada institución o comunidad. Para ser miembro de ella se exige el cumplimiento de unos requisitos mínimos de comportamiento, pues “no se trata del individuo en su propio ámbito de acción, sino del individuo en una comunidad”[125].
105. No obstante, en el caso de las redes sociales, esta clasificación resulta aún más compleja. Si bien el acceso, por regla general, está abierto a cualquier persona, su existencia se justifica por el deseo de grupos empresariales de crearlas y ponerlas a funcionar. Estos particulares tienen unos intereses específicos que, como se anotó, se manifiestan en sus normas comunitarias o reglas de la casa. Sin embargo, las redes sociales tampoco pueden considerarse simples espacios privados, pues habilitan interacciones sociales comparables a las que tienen lugar en plazas públicas, parques o centros comerciales[126]. Así, por ejemplo, si en una red social como X se discuten asuntos políticos o en Instagram o Facebook se comparten imágenes de protesta hay una similitud con un debate en la plaza de un pueblo o con una manifestación en las calles de una ciudad.
106. La jurisprudencia internacional aporta ejemplos ilustrativos. Por citar alguno, en el caso Knight First Amendment Institute at Columbia University v. Trump, dos cortes del estado de Nueva York concluyeron que la decisión del entonces presidente Donald Trump de bloquear usuarios en su cuenta de Twitter (ahora X) vulneró el derecho a la libertad de expresión consagrada en la Primera Enmienda de la Constitución estadounidense al restringir la deliberación en un foro público[127]. Aunque estas decisiones fueron dejadas sin efectos por la Corte Suprema de los Estados Unidos al concluir el periodo presidencial de Donald Trump, por sustracción de materia[128], de todas formas, ilustran los debates que surgen al intentar asimilar las redes sociales a espacios físicos.
107. En esta línea es pertinente la referencia hecha por la Fundación Karisma en este proceso, al asimilar las redes sociales con el concepto de esfera pública avanzado por Jürgen Habermas: “un lugar donde se da un intercambio libre de ideas y el debate tiene lugar” de manera que “es -por esencia- abierto e incluyente a todos”[129]. De ahí que buena parte de expertos consideren las redes sociales como parte de dicha esfera, en tanto comunidades virtuales en las que las personas comparten información, discuten sobre innumerables temas y crean vínculos personales[130].
108. En relación con este asunto, en la sentencia T-149 de 2025, la Corte Constitucional estudió el caso de una congresista que bloqueó a un usuario en las plataformas de Facebook y X porque dicho usuario había ejercido actos de violencia de género en su contra. En este caso, si bien la Corte encontró probada la existencia de actos de violencia de género, consideró que la medida de bloquear al usuario era desproporcionada porque afectaba en forma intensa sus derechos a la libertad de expresión, al acceso a la información pública y a la participación política. Así, la Corte ordenó a la congresista levantar el bloqueo de las cuentas del usuario en las redes sociales, pero adoptó otros remedios para prevenir y contrarrestar los actos de violencia de género realizados por el accionante[131]. Esta sentencia ilustra la importancia de las redes sociales como un espacio de intercambio de información y control político; pero donde, también, se reproducen y amplifican los sesgos, los odios y la violencia del mundo offline.
109. En síntesis, es posible afirmar que las redes sociales son foros públicos de carácter sui generis: escenarios en los que se borran las líneas tradicionales entre lo público y lo privado. Aunque son gestionadas por particulares, poseen una clara vocación pública. Por ello, el Estado tiene un deber de intervención. Sin embargo, este debe ejercerse de modo tal que preserve la capacidad de los intermediarios de definir reglas y moderar contenidos, por un lado, mientras se salvaguarda la integridad de los usuarios, por el otro. Esta discusión se aborda a continuación.
110. El principio de irresponsabilidad de los intermediarios como el punto de partida de la intervención del Estado en la moderación de contenidos. La evolución de los debates sobre la moderación de contenidos se refleja en la visión sobre qué debe hacer el Estado para garantizar la vigencia de los derechos en el entorno digital. Esta discusión se enmarca entre dos extremos. Por un lado, la mayoría de sistemas jurídicos reconocen el principio de irresponsabilidad de los intermediarios, el cual impide hacer responsables a los operadores de plataformas por el contenido que publiquen sus usuarios. Por otro lado, en algunos países se han presentado iniciativas para intensificar la responsabilidad de los intermediarios o restringir el acceso a las plataformas.
111. El principio de irresponsabilidad de los intermediarios, como lo reconoce la Corte Constitucional, implica que los intermediarios no pueden ser responsabilizados por el contenido publicado por terceros ni por las decisiones de moderación de contenidos que toman para hacer respetar sus reglas. De lo contrario, atribuirles responsabilidad por la conducta de los usuarios llevaría a “limitar la difusión de ideas y les daría el poder para regular el flujo de información en la red”[132]. En este sentido, la irresponsabilidad de los intermediarios parte de la base de que los actores digitales son diversos por naturaleza y que la labor que hacen las compañías privadas que ofrecen servicios técnicos en Internet es fundamental en su desarrollo libre. Supone, además, una actualización de elementos tradicionales de la libertad de expresión, entre otros, la necesidad de limitar al máximo la intervención del Estado en la regulación de los medios de comunicación y de los contenidos que producen y ayudan a circular en el mercado de las ideas.
112. Los orígenes del principio de irresponsabilidad de los intermediarios se remontan a las primeras regulaciones sobre Internet, como el Communications Decency Act (CDA) de 1996 en Estados Unidos[133] y la Directiva 2000/31/CE en la Unión Europea, mejor conocida como la Directiva sobre el Comercio Electrónico[134]. Aunque estas regulaciones son anteriores a la existencia y difusión de las redes sociales, la idea de que los intermediarios no pueden ser considerados responsables por lo que publican los usuarios permeó el razonamiento sobre el alcance de los derechos humanos en Internet. Un ejemplo se encuentra en la Declaración Conjunta sobre Derechos Humanos e Internet de 2011, un instrumento de derecho blando que este tribunal ha empleado en otras oportunidades[135]. Allí se estableció como principio elemental para asegurar la vigencia de los derechos en Internet la irresponsabilidad de los intermediarios por la circulación de contenido transgresor, incluso contrario a los estándares sobre discurso protegido por la libertad de expresión[136].
113. Ahora bien, cada vez hay más voces e iniciativas que insisten en que se necesita intervención de los Estados para regular a las plataformas de redes sociales y asegurar que en la moderación de contenidos se respeten los derechos humanos. Estas tendencias se reflejan tanto en decisiones nacionales como en instrumentos internacionales que matizan el principio de irresponsabilidad de los intermediarios, a las que la Corte se referirá enseguida.
114. Tendencias actuales. Los derechos humanos como un límite esencial al ejercicio de la facultad amplia de moderación de contenidos. Las discusiones planteadas por el auge de las redes sociales generan la necesidad de matizar el principio de irresponsabilidad de los intermediarios. Sin embargo, ese ejercicio no puede implicar exceder límites inadmisibles para un Estado democrático frente a las libertades de empresa y expresión, entre otras garantías constitucionales. Se trata de un balance sobre el que hay múltiples ejemplos, tanto en normas de derecho blando[137] como en experiencias de otros ordenamientos jurídicos.
115. Los estándares actuales convergen en señalar que, en términos generales, los Estados deben (i) respetar, garantizar y promover un Internet libre, especialmente en redes sociales; (ii) abstenerse de imponer medidas restrictivas sobre la operación de redes sociales como bloqueos, solicitudes de borrado de contenidos sin sustento legal y de forma secreta o criminalización de empleados de intermediarios por su labor de curación o moderación de contenidos; (iii) garantizar la transparencia sobre la regulación, así como la independencia, la sostenibilidad, la consistencia, la cooperación y el diálogo intersectorial en los sistemas regulatorios sobre las plataformas digitales, especialmente las redes sociales; y (iv) crear un ambiente propicio que promueva la transparencia en la toma de decisiones relacionadas con la moderación de contenidos, así como en las reglas con base en las cuáles se toman y su consistencia.
116. Los ejemplos de instrumentos que proponen principios para concretar el balance mencionado son múltiples. A continuación, la Corte lista algunos, sin ánimo de agotar todos los insumos disponibles, sino con el fin de ilustrar el panorama.
· Principios de Manila sobre responsabilidad de los intermediarios: promovidos por organizaciones de derechos humanos, establecen que los Estados deben proteger a los intermediarios y no responsabilizarlos por contenido de terceros, salvo mediante leyes precisas, claras y accesibles. Además, debe existir una orden judicial, respetar el debido proceso y ajustarse al test tripartito de libertad de expresión[138].
· Declaración de Principios sobre Libertad de Expresión e Internet de 2011: busca promover el desarrollo de enfoques regulatorios aptos para el entorno digital. Entre otras cosas, invita a la autorregulación y la alfabetización digital para que las personas puedan ejercer responsablemente su libertad de expresión en Internet. Además, indica que el Estado debe abstenerse de bloquear de manera definitiva sitios web o similares que los sistemas de filtrado impuestos por los gobiernos son una restricción inadmisible a la libertad de expresión[139].
· Declaración Conjunta sobre los Desafíos para la Libertad de Expresión para la Próxima Década de 2019: propone seis medidas contra el dominio privado sin rendición de cuentas de las redes sociales. Ellas incluyen: (i) transparencia en la moderación de contenidos; (ii) regulación de modelos de negocio; (iii) regulación empresarial según los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU; (iv) control en el uso de la inteligencia artificial; (v) mecanismos para contrarrestar la desinformación en el marco de los derechos humanos; y (vi) medidas contra prácticas anticompetitiva[140].
117. Un elemento común de las tendencias regulatorias actuales es que el derecho internacional de los derechos humanos constituye un límite esencial en la definición de dichas reglas. Si bien se acepta que sean los operadores de redes sociales quienes realicen la actividad de moderación de contenidos, no se descarta que los Estados puedan tener algún tipo de intervención en ella. En términos generales, los nuevos enfoques regulatorios buscan dotar de mayor transparencia, trazabilidad y apertura a la aplicación de las normas definidas por las plataformas de redes sociales. Esto se materializa en mecanismos de rendición de cuentas, publicación de las medidas de moderación adoptadas y conformación de equipos que garanticen que dicha moderación sea coherente con el contexto en el que se aplica, entre otros factores. El objetivo último es preservar el principio de irresponsabilidad de los intermediarios, al tiempo que se protegen los derechos de quienes participan en comunidades digitales, especialmente en redes sociales.
118. A continuación, la Corte lista algunos ejemplos de regulaciones que muestran el papel central de los derechos humanos en la intervención estatal del espacio digital y la forma en que permiten llegar a un balance entre los dos extremos de la discusión.
· Declaración Europea sobre Principios y Derechos Digitales: insta a los Estados miembros de la Unión Europea a consolidar un espacio digital libre, igualitario y democrático, reconociendo el derecho de los ciudadanos a un entorno “fiable, diverso y multilingüe”. Obliga a las grandes plataformas a apoyar el debate democrático, mitigar riesgos como la desinformación y proteger la libertad de expresión”[141].
· Ley de Servicios Digitales de la UE (2022): primera gran regulación europea del entorno digital en más de dos décadas. Obliga a las grandes plataformas con presencia en la Unión Europea a publicar un informe anual sobre sus decisiones de moderación de contenidos y sus consecuencias, y notificar de forma clara y estandarizada cada remoción a la Comisión Europea[142].
· Directrices de la UNESCO: fijan cinco obligaciones para que los intermediarios garanticen los derechos humanos en redes sociales: (i) ejercer debida diligencia para identificar y mitigar riesgos; (ii) incorporar estándares de derechos humanos en sus normas comunitarias; (iii) hacer transparente el funcionamiento y la moderación de contenidos; (iv) facilitar a los usuarios información para un uso informado; y (v) establecer mecanismos periódicos de rendición de cuentas sobre la aplicación de sus reglas[143].
· Principios de Santa Clara sobre Transparencia y Rendición de Cuentas en la Moderación de Contenidos: establecen una guía para que la moderación de contenidos sea transparente y sujeta a escrutinio. Sus fundamentos incluyen: (i) priorizar los derechos humanos y el debido proceso; (ii) establecer reglas claras y accesibles; (iii) garantizar competencia cultural en los equipos y sistemas de moderación; (iv) informar cuando las decisiones provengan de órdenes estatales; y (v) asegurar integridad, no discriminación, evaluaciones periódicas y acceso a mecanismos de notificación y apelación[144].
119. Así, puede concluirse que el límite fundamental a la definición de normas comunitarias y a la facultad amplia de moderación de contenidos son los derechos humanos o fundamentales. De allí que los operadores de plataformas de redes sociales estén llamados a establecer normas de moderación de contenidos orientadas a proteger los derechos humanos de los usuarios y que las mismas normas cumplan con estándares de derechos humanos[145]. De igual manera, esto lleva a rechazar la intervención del Estado que se extralimite en la regulación para impedir la circulación libre de ideas o limitar el acceso de las personas a Internet.
120. Como se anticipó en la sección anterior, el ejercicio de la facultad amplia de moderación de contenidos supone unos desafíos sustanciales en materia de derechos humanos. Dadas las circunstancias que proponen los hechos del caso objeto de estudio, la Corte se limitará a identificar los desafíos en clave de libertad de expresión, igualdad y no discriminación y debido proceso.
121. La libertad de expresión está reconocida como un derecho fundamental en el artículo 20 de la Constitución Política y se erige como un pilar fundamental del Estado democrático de derecho. En el ordenamiento constitucional colombiano, la libertad de expresión es un derecho complejo en tanto reconoce varias prerrogativas en cabeza de las personas que habitan el territorio nacional. Por un lado, contiene el derecho de todas las personas a expresar su pensamiento a través de opiniones y de difundir informaciones. Por otro lado, reconoce el derecho a conocer las ideas de otros y a recibir información que sea de su interés. Por último, el artículo 20 constitucional consagra el derecho de las personas a fundar medios de comunicación masiva, quienes deberán actuar libremente y con responsabilidad social[146].
122. La Corte Constitucional cuenta con una amplia jurisprudencia sobre el derecho a la libertad de expresión en Internet[147]. Uno de los elementos normativos centrales de esa jurisprudencia es el reconocimiento de que el espacio digital no le está vedado al Estado y que, por lo mismo, se reconocen y aplican en plenitud los derechos fundamentales que se desprenden del ordenamiento constitucional, particularmente el derecho a la libertad de expresión[148].
123. Respecto de las redes sociales, la Corte en diferentes decisiones ha resaltado su centralidad en la vida de las personas y su capacidad para permitir la difusión de ideas a escala masiva, fuera de las lógicas del poder gubernamental o de los medios tradicionales de comunicación[149]. Como ya se indicó, las redes sociales permiten que más ciudadanos de todo el mundo participen en conversaciones públicas que les interesan[150] y que incluso se conviertan en generadores de contenido relevante para otros en el mercado de las ideas que, en principio, circulan libremente en Internet.
124. Justamente por estas características, la Corte Constitucional reconoce que la información que se divulga en redes sociales tiene diferencias importantes respecto de aquella que circula en los medios de comunicación tradicionales. En una sentencia reciente, la Corte sintetizó los elementos destacables del discurso que se propaga en redes sociales. Se trata de información que: (i) es ampliamente accesible; (ii) cuyo contenido es definido por los emisores, quienes determinan autónomamente el contenido de los mensajes que publican; (iii) se comparte automáticamente y circula a un ritmo y a una escala exponenciales; y (iv) aunque tenga un origen particular, una vez puesta en circulación, incluso si se limita o impide su acceso al emisor, queda disponible para que otros usuarios la republiquen o la guarden.[151] Estos elementos ponen de presente que, al igual que en el mundo material, en el espacio digital la libertad de expresión no es un derecho que pueda ejercerse sin restricciones. Dependiendo de las circunstancias, la libertad de expresión en el mundo digital puede entrar en tensión y comprometer los derechos de otras personas o grupos[152].
125. La jurisprudencia constitucional en esta materia se ha desarrollado particularmente en torno a las tensiones “clásicas” entre libertad de expresión y el derecho a la honra y al buen nombre de terceros por ideas e informaciones expresadas en redes sociales. En particular, la Corte ha revisado casos relacionados con denuncias públicas contra personas o grupos de personas a través de canales digitales como Facebook, Twitter o Instagram, por conductas impropias e incluso delictivas[153]. Para esos escenarios, la Corte cuenta con una jurisprudencia decantada, cuyas principales consideraciones se recogen en la sentencia SU-420 de 2019 y que desarrolla los elementos de análisis constitucional para resolver ese tipo de controversias[154].
126. Sin embargo, el caso que se estudia en esta sentencia no tiene antecedentes precisos en la jurisprudencia constitucional. Por ello es pertinente enfatizar en las tensiones que se presentan en los procesos de moderación de contenidos, en relación con los diferentes actores involucrados. Ese análisis permitirá comprender de mejor manera el tipo de problemas jurídicos que debe resolver la Corte.
127. Como ya se ha sugerido líneas arriba, los ejercicios de moderación de contenidos suelen involucrar dos actores. Por un lado, el usuario cuyo contenido es removido o sometido a restricciones de visualización y, por otro, los operadores de la red social encargados de la labor de moderación de contenidos. Además, en los escenarios de moderación de contenidos ex – post reactiva, aparece un tercer actor que son los usuarios que denuncian un determinado contenido porque, a su juicio, resulta incompatible con las normas comunitarias o simplemente les parece desagradable, chocante o inapropiado.
128. Aunque en términos generales hay un acuerdo entre estos actores para convivir en el espacio digital, el uso de herramientas de moderación de contenidos supone necesariamente un conflicto de intereses. Por un lado, se encuentra el derecho de las personas usuarias a publicar el contenido que deseen. Aunque la plataforma es un facilitador y amplificador de ese contenido, no es quien decide si esa persona tiene o no derecho a publicarlo, pues la libertad de expresión, al igual que los derechos humanos, tiene un carácter universal y, por lo tanto, es oponible tanto a particulares como a los Estados. En ese sentido, la facultad de generar y hacer circular determinada información puede estar sujeta a restricciones admisibles a la luz de la Constitución Política y del derecho internacional de los derechos humanos.
129. Un primer nivel de análisis sobre el contenido publicado en redes sociales supone identificar qué tipo de discurso entraña. La Corte Constitucional reconoce distintos tipos de discursos y los niveles de protección de los que son objeto. Aunque en principio opera una presunción de protección de todos los discursos, hay manifestaciones de la expresión que se encuentran abiertamente prohibidas. Estas son:
“(a) la propaganda en favor de la guerra; (b) la apología del odio nacional, racial, religioso o de otro tipo de odio que constituya incitación a la discriminación, la hostilidad, la violencia contra cualquier persona o grupo de personas por cualquier motivo (modo de expresión que cobija las categorías conocidas comúnmente como discurso del odio, discurso discriminatorio, apología del delito y apología de la violencia); (c) la pornografía infantil; y (d) la incitación directa y pública a cometer genocidio”[155].
130. Frente a estos discursos, no cabe duda de que los intermediarios que administran las plataformas deben ejercer su facultad amplia de moderación de contenidos prontamente. No hacerlo puede generar consecuencias ampliamente documentadas como el avance de campañas estigmatizantes contra poblaciones vulnerables que pueden redundar en la ejecución de actos sistemáticos de violencia en su contra, incluso constitutivos de genocidio, como ocurrió en el caso de Myanmar con la población Rohingya[156].
131. En el otro extremo se encuentran las categorías de discurso especialmente protegido. Aunque en principio toda restricción a la libertad de expresión se presume inconstitucional (salvo frente a discursos prohibidos), en el caso de los discursos especialmente protegidos hay un nivel de cobertura reforzado que exige absoluta excepcionalidad en la restricción. Estos discursos son el “discurso político, el debate sobre asuntos de interés público, y aquellos que constituyen un ejercicio directo e inmediato de derechos fundamentales adicionales que se vinculan necesariamente a la libertad de expresión para poder materializarse”.[157] En esta categoría se incluyen, por ejemplo, el periodismo feminista que denuncia violencias basadas en género[158], el escrache[159], y otros como:
“(a) la correspondencia y demás formas de comunicación privada, (b) los discursos estéticos, morales, emotivos o personales, manifestados a través de expresiones verbales, artísticas, o de conductas simbólicas o expresivas, sin perjuicio de la protección constitucional explícita de la libre expresión artística; (c) la exposición de convicciones y la objeción de conciencia; (d) el discurso religioso; (e) el discurso académico, investigativo y científico; (f) las expresiones realizadas en el curso de manifestaciones públicas pacíficas; (g) el discurso cívico o de participación ciudadana, y (h) el discurso de identidad, que expresa y refuerza la propia adscripción cultural y social”[160].
132. Respecto de estos discursos recae una especial protección en clave de libertad de expresión. En esa medida, la eliminación de contenidos relacionados con discursos especialmente protegidos es en principio incompatible con los estándares fijados por la Corte Constitucional y el derecho internacional de los derechos humanos.
133. En cuanto a los discursos que no están especialmente protegidos, pero tampoco prohibidos, opera una presunción de protección amplia de la libertad de expresión. Por lo tanto, la eliminación de contenidos y cuentas en esta categoría deberá sujetarse al test tripartito de libertad de expresión.
134. Un segundo nivel de análisis sobre la moderación de contenido requiere analizar las formas y el tono en los que se expresan los usuarios cuyo contenido es removido. Como lo ha señalado esta Corte, la libertad de expresión cobija las manifestaciones “ofensivas, chocantes, impactantes, indecentes, escandalosas, excéntricas o simplemente contrarias a las creencias y posturas mayoritarias”[161]. En tal sentido, es importante verificar que la remoción de un contenido o una cuenta en redes sociales no obedezca exclusivamente al tono de las publicaciones o al hecho de que no corresponda a una postura mayoritaria.
135. El tercer nivel de análisis supone considerar la calidad del sujeto que comunica, es decir, del usuario o usuaria, pues algunas personas gozan de una protección diferenciada en razón de sus circunstancias. En este sentido, resulta clave distinguir si se trata de funcionarios públicos o de particulares, dado que los primeros están sometidos a un mayor escrutinio social. Asimismo, la Corte ha señalado otras categorías de especial relevancia, como los periodistas, los grupos históricamente discriminados, marginados o en situación de vulnerabilidad, y las víctimas de violencias basadas en género. Frente a estos últimos, este Tribunal ha advertido que cualquier restricción a sus opiniones debe demostrar de manera suficiente que no constituye un acto discriminatorio[162].
136. Superados estos tres niveles de análisis, el operador judicial debe acudir al test tripartito de libertad de expresión para verificar que las decisiones adoptadas por los intermediarios de redes sociales respeten los límites que imponen los derechos fundamentales. Según la jurisprudencia constitucional, toda restricción a la libertad de expresión: (i) debe estar consagrada de manera “previa, precisa y clara por una ley en sentido formal y material”[163]; (ii) debe perseguir un fin legítimo a la luz de la Constitución Política y el bloque de constitucionalidad; (iii) debe ser necesaria en una sociedad democrática, estrictamente proporcional e idónea para alcanzar los fines imperiosos que persigue[164].
Tabla 2. Síntesis del análisis sobre la libertad de expresión en redes sociales.
Nivel 1 |
Tipo de discurso |
Discurso especialmente protegido: no puede ser removido. |
Discurso cubierto por la protección general y amplia: puede ser removido en cumplimiento de las garantías de los derechos humanos, como el debido proceso y la igualdad, de forma transparente y consistente. |
||
Discurso prohibido: puede ser removido automáticamente. |
||
Nivel 2 |
Formas y tono de lo que se comunica |
La remoción del contenido no puede obedecer exclusivamente al tono de la publicación o que no corresponda con posiciones mayoritarias. |
Nivel 3 |
Calidad del sujeto que comunica |
La remoción de contenidos no puede obedecer a razones discriminatorias, especialmente cuando se trata de sujetos de especial protección constitucional. |
Estudio concreto sobre restricción |
Test tripartito de libertad de expresión |
Las restricciones sobre los discursos que gozan de protección general de la libertad de expresión deben cumplir con los requisitos de legalidad, fin legítimo y necesidad al amparo del principio de estricta proporcionalidad. |
137. En suma, la Corte reconoce que la moderación de contenidos no sólo es una práctica habitual de las compañías que administran redes sociales digitales como Instagram o Facebook. Es, sobre todo, una necesidad para asegurar una Internet confiable, en el que puedan circular libremente las ideas, la información, el conocimiento y las opiniones, donde se limiten los contenidos que constituyan discursos no protegidos, como la pornografía infantil, la incitación a la violencia y al genocidio o el discurso de odio. En todo caso, esos procedimientos deben, igual que las reglas comunitarias, ajustarse a unos estándares mínimos compatibles con el marco nacional e internacional sobre el derecho a la libertad de expresión.
138. Vistos los elementos relativos a este derecho, a continuación, se estudian los desafíos en materia de debido proceso en redes sociales, teniendo en cuenta las particularidades que plantea el caso que estudia la Corte.
139. El artículo 29 de la Constitución Política reconoce el derecho de todas las personas a que, en el curso de cualquier actuación judicial o administrativa, les sea garantizado el debido proceso. Este derecho establece una serie de garantías que dan legitimidad a las actuaciones que las personas adelantan a instancias del Estado, como, por ejemplo, el juez natural, la preexistencia de las normas con base en las cuales se desarrolla la actuación, la observancia de las formas propias de cada juicio, la aplicación de la norma más favorable en materia penal, entre otras.
140. Además del Estado, la Corte Constitucional ha reconocido que, excepcionalmente, estas garantías le son exigibles a personas naturales o jurídicas de derecho privado. En particular, este reconocimiento opera respecto de procesos de naturaleza sancionatoria. Así, por ejemplo, en la sentencia T-329 de 2021, la Corte analizó el caso de un ciudadano que demandó a la compañía para la que trabajaba, pues la misma se negó a proporcionarle información que demostraría que no incumplió sus deberes como trabajador y que, por lo tanto, no procedía su despido. En esa oportunidad, la Corte recordó que las garantías del debido proceso aplican a toda clase de actuaciones judiciales o administrativas, especialmente a aquellas de naturaleza sancionatoria. Asimismo, recalcó que la jurisprudencia constitucional reconoce la obligatoriedad de la aplicación de garantías propias del debido proceso incluso en relaciones entre particulares.
141. Sobre el último punto, este Tribunal precisó que el mandato del debido proceso aplica a “los particulares que se arrogan esta facultad, como una forma de mantener un principio de orden al interior de sus organizaciones (v.gr. establecimientos educativos, empleadores, asociaciones con o sin ánimo de lucro, etc.)”[165]. En suma, conforme a la jurisprudencia de esta Corporación, “las garantías previstas en el texto constitucional tienen plena aplicación en las relaciones entre particulares […] debido a que uno de los principales fines del Estado Social de Derecho es garantizar la efectividad material de los principios, derechos y deberes consagrados constitucionalmente en todos los ámbitos de la sociedad, tal como lo dispone el artículo 2º Superior”[166].
142. Como ya se ha indicado aquí, la moderación de contenidos es un proceso administrado por un particular, más precisamente, por los intermediarios de las redes sociales. Además, es un proceso de naturaleza sancionatoria, en el sentido en que busca curar contenidos prohibidos o restringidos por las normas comunitarias de la plataforma digital. Tan es un proceso sancionatorio, que las consecuencias de las decisiones curatoriales de los moderadores de contenido son la restricción a la visualización o la posibilidad de encontrar un contenido, la eliminación de publicaciones e, incluso, la suspensión y eliminación definitiva de la cuenta del usuario infractor.
143. A raíz de la intervención de la inteligencia artificial en los procesos de toma de decisiones sobre contenidos, uno de los reclamos más frecuentes dirigidos a los intermediarios consiste en la necesidad de garantizar mecanismos de apelación y revisión frente a las medidas de moderación adoptadas por sistemas automatizados. En particular, se cuestiona que la moderación de contenidos recaiga casi que exclusivamente en dichos sistemas, sin la posibilidad de un control humano posterior que permita corregir eventuales errores o arbitrariedades[167].
144. De este modo, en el análisis constitucional sobre el derecho al debido proceso corresponde verificar que la moderación de contenidos cumpla con los estándares mínimos de protección del derecho al debido proceso según las normas de derechos humanos que se han decantado en distintos escenarios de protección internacional. En particular[168], los intermediarios que administran plataformas y que hacen procesos de moderación de contenidos deben garantizar (i) que haya consistencia y sensibilidad contextual en la aplicación de las reglas comunitarias, tanto de los equipos humanos como de IA; (ii) que no haya una aplicación discriminatoria o contraria al derecho a la igualdad de las reglas comunitarias; (iii) que las normas de la casa se apliquen maximizando el derecho a la libertad de expresión cuando se trate de contenido potencialmente objetable pero no prohibido; (iv) que haya transparencia sobre las reglas comunitarias infringidas, los procesos de reclamación e impugnación de las decisiones, así como una comunicación formal, sencilla y accesible que redunde en una respuesta de fondo sobre las reclamaciones elevadas a los operadores de las redes sociales; y (v) las sanciones debe ser advertidas de antemano a los usuarios, con detalle de las consecuencias que su aplicación puede acarrear.
145. Además de la libertad de expresión y el debido proceso, la moderación de contenidos también puede tener un impacto directo en el derecho a la igualdad y la no discriminación de algunos grupos, entre ellos de las mujeres. Este aspecto resulta relevante en el presente caso, pues la accionante señaló que Meta borró sus contenidos y eliminó su cuenta porque tiene un prejuicio en su contra, especialmente por desarrollar actividades de pornografía fuera de Instagram.
146. Sin duda alguna las redes sociales constituyen un espacio fundamental para el ejercicio de derechos y participación de las mujeres en la vida pública[169]. A través de ellas, no solo pueden expresarse y difundir ideas, sino también impulsar luchas contra distintas formas de violencia basadas en género. La Corte ha reconocido ese potencial, especialmente en el reconocimiento de los denominados escraches feministas, un fenómeno propio del mundo digital en el que las víctimas de violencias basadas en el género pueden denunciar la inacción de las autoridades judiciales en la atención de sus casos, al tiempo que promueven otras formas de control social sobre sus agresores[170].
147. Sin embargo, las mismas redes sociales que habilitan esos espacios de resistencia y visibilidad pueden convertirse en escenarios de reproducción de desigualdades de género. En su informe de julio de 2021, presentado ante la Asamblea General de Naciones Unidas, la Relatora Especial sobre la promoción y protección del derecho a la libertad de opinión y de expresión, advirtió que “[e]n la era digital, Internet se ha convertido en el nuevo campo de batalla en la lucha por los derechos de las mujeres, ya que amplía las oportunidades que estas tienen para expresarse, pero también multiplica las posibilidades de represión”[171]. La relatora subrayó que las mujeres y las personas LGBTIQ+ enfrentan obstáculos específicos en el entorno digital, derivados de prácticas como el acoso sexual en línea, la desinformación de género, el discurso de odio y, de manera relevante aquí, el uso arbitrario de las facultades de moderación de contenidos por parte Estados y de los propios intermediarios privados[172].
148. En lo que atañe a las plataformas de redes sociales, la relatora enfatizó en que la discriminación puede reflejarse tanto en las normas comunitarias que establecen lo permitido y lo prohibido, como en los procesos de moderación de contenidos que las aplican. A continuación, se hará referencia a estos dos aspectos.
(i) Discusiones sobre género y sexualidad en las normas comunitarias
149. Como ya se indicó, las normas comunitarias responden a la necesidad de fijar límites a la circulación de determinados contenidos. En principio, existen razones legítimas para restringir, por ejemplo, la difusión de material sexualmente explícito, y esta limitación per se no constituye una discriminación de género. Ella obedece principalmente al interés de prevenir la pornografía infantil, la explotación sexual de niños, niñas, adolescentes y personas adultas, y evitar la difusión de material sexual explícito sin el consentimiento de las personas involucradas[173].
150. En ese sentido, la definición de límites precisos sobre el contenido sexualmente explícito en redes sociales se considera fundamental para asegurar que Internet sea un espacio libre de violencia y discriminación. De hecho, prohibiciones de este tipo también contribuyen a frenar fenómenos como la llamada “pornovenganza”, que afecta de manera desproporcionada a las mujeres.
151. En todo caso, y como lo pusieron de presente varios de los intervinientes en este proceso, las reglas comunitarias de este tipo no están desprovistas de críticas. Por un lado, se indicó que las prohibiciones sobre desnudez y contenido sexualmente explícito resultan vagas, pues no siempre se define o establece con claridad su alcance o se ofrecen ejemplos que orienten su aplicación[174]. Por otro lado, se sugirió que los intereses económicos de los intermediarios tienden de manera problemática a influir en esas políticas, de forma que hay multiplicidad de aproximaciones sobre lo que se permite y lo que no. Por ejemplo, algunos intervinientes llamaron la atención a que algunas plataformas buscan expandir su modelo de negocio a públicos para quienes el contenido sexualmente explícito puede disuadirlos de unirse a la comunidad en línea o pautar en la plataforma[175]. Sin embargo, hay otras cuyo modelo de negocio consiste, precisamente, en permitir la circulación de ese tipo de contenidos, como sucede con Only Fans. En términos de lo dicho por Al Sur, esto significa que, además de las plataformas, los intereses de quienes pautan en internet y la necesidad de atraer más usuarios influyen en la definición de los límites en materia de desnudos y contenidos sexualmente explícitos[176].
152. Por su parte, la relatora Khan, en su informe de 2021, advirtió que ese tipo de reglas pueden generar impactos desproporcionados para las mujeres[177]. Por ejemplo, como lo indicó Al Sur, sancionar sin matices “la desnudez” o el “contenido para adultos” puede conducir a censurar publicaciones legítimas, como imágenes de mujeres amamantando[178].
153. De hecho, el propio o Consejo Asesor de Meta ha reconocido esa problemática. En línea con lo dicho por la relatora, en al menos ocho decisiones relacionadas con la aplicación de reglas sobre desnudez y actividad sexual de adultos, el Consejo revocó medidas adoptadas por la compañía al constatar que habían sido usadas para censurar proyectos educativos sobre la ovulación[179], campañas sobre el cáncer de mama[180], fotos de familias compuestas por personas trans desnudas que buscan fomentar la solidaridad con esta población[181], publicaciones que discuten de forma explícita episodios de violencia sexual con el propósito de sensibilizar a la comunidad sobre este tema[182], o imágenes que enseñan cómo hacerse el autoexamen para la detección temprana del cáncer de seno[183]. En todos esos casos, el Consejo Asesor revocó la decisión de Meta de remover los contenidos que consideró en principio violatorios de sus reglas comunitarias y le ordenó reformar sus normas sobre desnudez y actividad sexual de adultos para cumplir con estándares internacionales de derechos humanos[184].
154. En suma, lo que esta discusión ilustra, es que el análisis de igualdad y no discriminación frente a las normas comunitarias debe partir de un enfoque de género. Bajo esa óptica, no toda prohibición de circulación de contenido sexualmente explícito constituye una vulneración de derechos, y en ocasiones resulta indispensable para protegerlos. Sin embargo, es fundamental que dichas restricciones no se formulen de manera genérica o excesivamente abierta, pues ello desconoce el principio de legalidad en materia de libertad de expresión y puede comprometer el derecho a la igualdad y a la no discriminación. Además, como lo ha reconocido esta Corte, la sexualidad es parte integral de la autonomía y la libertad personal, por lo que su expresión, mientras no vulnere derechos de terceros, también debe estar protegida.
(ii) Discusiones sobre género y sexualidad en el proceso de moderación de contenidos
155. El segundo asunto se relaciona con el proceso de moderación de contenidos. En este ámbito, también se ha insistido en la necesidad de aplicar un enfoque de género. Tal como lo señaló la Relatora Especial sobre la promoción y protección del derecho a la libertad de opinión y de expresión, la ausencia de este enfoque en la moderación puede restringir de manera injustificada la participación de las mujeres en las plataformas digitales. Según la relatora los moderadores humanos pueden carecer de la contextualización necesaria, así como de la sensibilidad cultural, lingüística y de género indispensable para evaluar adecuadamente si lo que publican las mujeres se ajusta a los márgenes de lo admisible en un entorno digital. A esto se suman los procesos automatizados, basados en inteligencia artificial, en donde se acrecienta el riesgo de reproducción de patrones o estereotipos de género que terminan afectado negativamente a las usuarias de redes sociales.
156. Sobre el punto, vale la pena recabar en los dos tipos de procesos de moderación de contenidos que emplean la mayoría de las redes sociales que, como se dijo arriba, combinan una revisión humana con otra automatizada mediante inteligencia artificial entrenada mediante aprendizaje de máquina. El proceso de moderación de contenidos suele iniciar con la detección de material potencialmente violatorio de las normas comunitarias a través de algoritmos o herramientas de inteligencia artificial que son “entrenadas” para definir en cuestión de segundos si un contenido es o no compatible con las normas comunitarias, cuestión que incluye las regulaciones sobre la sexualidad y la desnudez.
157. En relación con los procesos automatizados, tal como señaló la mencionada relatora, varios estudios advierten la existencia de posibles sesgos de género que afectan la selección de contenidos publicados por mujeres y que son clasificados como violatorios de normas comunitarias, aun cuando en realidad las cumplen. Por ejemplo, una investigación reciente del diario británico The Guardian en alianza con el Pulitzer Center’s AI Accountability Network, encontró que las herramientas de inteligencia artificial dedicadas a la moderación de contenidos en las redes sociales más grandes “tienen sesgos de género que podrían estar censurando y suprimiendo el alcance de incontables fotos sobre cuerpos de mujeres”.[185] Según esta investigación, la categorización del aprendizaje de máquina que informa el algoritmo es desarrollada por personas, de manera que sus sesgos permean la herramienta de IA. En tal sentido, mientras que las imágenes de hombres en ropa interior o de deporte son asociadas con hacer ejercicio o actividades cotidianas inocuas, las imágenes de mujeres vestidas con la misma indumentaria suelen ser categorizadas como ‘picantes’ o ‘subidas de tono’.[186]
158. Según dicha investigación, y que confirma en su intervención la fundación Karisma, la consecuencia más frecuente de las decisiones preliminares adoptadas por las herramientas automatizadas es el llamado shadowbanning, o reducción de la visibilidad de los contenidos que podrían infringir las normas relativas a la desnudez y la sexualidad. Esta práctica, por lo general, se aplica sin aviso ni explicación que justifique por qué se limita el alcance de las publicaciones de las mujeres afectadas.[187]
159. Ahora bien, en cuanto a la moderación de contenidos realizada por humanos, existen tres prácticas que pueden afectar el derecho a la igualdad de las mujeres y que tienen relación con el caso concreto. La primera es que, en el proceso de verificación de las decisiones tomadas por inteligencia artificial, el moderador humano suele confirmar lo adoptado previamente, lo que termina ratificando el sesgo del algoritmo. La segunda es que, debido al volumen de información generada por usuarios a nivel global, resulta casi imposible realizar una revisión detallada de los contenidos que permita contextualizar debidamente las imágenes, de modo que la IA elimina publicaciones legítimas que asume como contrarias a las normas comunitarias. La tercera es que los equipos humanos de moderación de contenidos suelen carecen de formación en el idioma, los contextos culturales y las normas sociales de los distintos lugares donde se produce contenido sexualmente explícito, lo que lleva a que la apreciación subjetiva del moderador llene esos vacíos en la toma de decisiones[188].
160. Así, de estas reflexiones es posible extraer una conclusión principal. Al igual que sucede con las “reglas de la casa”, en el proceso de moderación es legítimo que los intermediarios restrinjan la circulación de desnudos y contenido sexualmente explícito, en busca de desincentivar la pornografía infantil, impedir el uso potencial de las cuentas para facilitar la explotación sexual de niños, niñas, adolescentes y adultos, o evitar la circulación de material sexual sin consentimiento. No obstante, al ejercer esa función, los intermediarios no pueden vulnerar los derechos de las mujeres.
161. Para garantizar sus derechos, los intermediarios deben adoptar mecanismos de moderación –tanto humanos como automatizados– que sean transparentes. Deben, además: (i) implementar medidas para identificar sesgos de género, con el fin de prevenirlos y de corregir con prontitud los errores que de ellos se deriven; (ii) explicar de manera clara cuándo y cómo se tienen en cuenta conductas offline o fuera de línea para las decisiones de moderación; y (iii) garantizar que, en caso de denuncias masivas de cuentas, se informe a la usuaria sobre las razones de la restricción y exista un procedimiento accesible de revisión posterior, que permita descartar posibles prácticas de acoso digital o discriminación.
162. Estas preocupaciones, de hecho, han sido destacadas a nivel internacional. En su Declaración Conjunta sobre Libertad de Expresión y Justicia de Género del 3 de mayo de 2022, el Comité CEDAW instó a los Estados y a las plataformas digitales a eliminar la discriminación y los prejuicios contra las mujeres, garantizar su acceso a la información, evitar restricciones de expresión basadas en el sexo de las personas, erradicar la violencia de género en línea, y aplicar la debida diligencia en materia de derechos humanos[189].
163. El Comité CEDAW insistió en la importancia de que los operadores de redes sociales tengan presente que la lógica expansiva de su negocio y el uso de tecnologías de inteligencia artificial puede “amplificar los estereotipos de género, los prejuicios, la misoginia y la violencia de género”.[190] Por lo tanto, instó a estos operadores a “asegurarse de que sus políticas y prácticas de moderación y curación de contenidos no discriminen por motivos de género u otros atributos protegidos”[191].
Frente al uso de procedimientos automatizados, la Declaración subrayó la necesidad de que se cuente con información representativa e inclusiva que garantice la participación igualitaria de mujeres y grupos históricamente subrepresentados. Asimismo, enfatizó que ni la moral pública ni una única tradición cultural o religiosa puede justificar la imposición de restricciones a la expresión de las mujeres, particularmente en relación con su sexualidad. En tal sentido, “cualquier limitación por motivos de protección de la moral pública” a la expresión de las mujeres debe tener en cuenta la aplicación de los principios de proporcionalidad y necesidad, que entraña, entre otras cosas, “la universalidad de los derechos humanos, el principio de no discriminación y las normas internacionales de derechos humanos en materia de diversidad sexual, de género y cultural, incluida la protección de las expresiones que puedan resultar ofensivas, chocantes o perturbadoras para los demás”[192].
164. En síntesis, de lo dicho hasta aquí queda claro que, si bien hay muchas discusiones sin resolver en materia de moderación de contenidos, en relación con temas de género y sexualidad, los intermediarios de redes sociales están facultados para regular el contenido de sus plataformas y prohibir expresamente algunas conductas como aquellas que favorecen la pornografía infantil, la explotación sexual o la difusión no consentida de material íntimo. No obstante, las restricciones a contenidos considerados como sexualmente explícitos e implícitos para ser válidas deben perseguir fines legítimos y proporcionales, ser aplicadas con transparencia, sin sesgos ni prácticas discriminatorias.
165. Ahora bien, sumado al tema de la moderación de contenidos, dentro de las múltiples novedades que plantea el caso objeto de estudio se encuentra la discusión sobre los y las influenciadoras digitales y la protección de la que son titulares. Por ende, en este acápite pasa la Corte a referirse a esta singular actividad.
166. Para empezar, el oficio de influenciador es propio del mundo digital, y más concretamente, de la proliferación de las redes sociales. La singularidad de este fenómeno amerita una discusión profunda sobre la naturaleza jurídica de esta actividad económica y el tipo de protección de la que puede ser titular una persona que la ejerce desde el punto de vista constitucional.
167. Según el observatorio de palabras de la RAE[193], el vocablo influencer se refiere a “un anglicismo usado en referencia a una persona con capacidad para influir sobre otras, principalmente a través de las redes sociales”. Para la RAE, la expresión puede tener diferentes traducciones al español, tales como influyente, influidor e influenciador”[194].
168. Dado que el oficio de los influenciadores digitales no ha sido abordado en forma comprensiva por la Corte Constitucional, es necesario acudir a diversas fuentes para comprender sus dimensiones sociales, culturales y sociales. La doctrina sobre marketing digital usualmente define a los influenciadores como “individuos que interactúan con un público objetivo específico, cuya participación en línea estimulan regularmente (v.g., discusiones) y a quienes les venden productos, servicios o marcas”[195]. En cualquier caso, no todos los influenciadores venden cosas o servicios, aunque es posible que estén vinculados a través de contratos de publicidad con ciertas marcas.
169. La lógica de las redes sociales permite que cualquiera pueda ser un influenciador: una celebridad, un tendero, una estudiante universitaria, un obrero, una profesora, en fin. El oficio de influenciador o influenciadora no se circunscribe a una actividad en particular diferente a compartir contenido regularmente con una comunidad digital con la que hay intereses en común y a quienes puede, eventualmente, ofertarle productos. Por eso, incluso sin vender productos, los influenciadores pueden ser personas que “hacen contribuciones notables a las redes sociales y ganan reconocimiento significativo de otros”[196].
170. Según el Influencer Marketing Hub, los influenciadores pueden distinguirse de los usuarios regulares de redes sociales por varias razones, como el número de seguidores, el tipo de contenido que publican o su nivel de influencia sobre las personas. Aunque no es una discusión completamente zanjada, según el número de seguidores, es decir, las audiencias o cantidad de personas que se suscriben a través de herramientas como los botones de seguir (follow), pueden ser:
· Mega-influenciadores: se identifica con esta etiqueta a quienes tienen un millón o más seguidores en al menos una red social. Los mega-influenciadores usualmente son celebridades offline, es decir, personas que han ganado amplio reconocimiento local, regional o mundial por actividades desplegadas por fuera de las redes sociales, aunque también hay personas que pueden haber adquirido ese nivel de seguidores simplemente por su actividad online.
· Macro-influenciadores: son personas que tienen una audiencia entre quinientos mil y un millón de seguidores.
· Micro-influenciadores: son personas que ganan amplio reconocimiento por su experticia en un tema de nicho y, por lo tanto, tienen muchos seguidores interesados en ese nicho particular. Suelen tener entre diez mil y quinientos mil seguidores.
· Nano-influenciadores: se trata de personas que, aunque tengan una base de seguidores relativamente pequeña (incluso menos de mil seguidores), se dedican a temas altamente especializados o sobre los que circula poca información en Internet[197].
171. Los influenciadores interactúan con sus audiencias de múltiples formas, por ejemplo, al escribir entradas, subir fotos y videos, o participar en actividades como encuentros online. Un elemento crucial de esta interacción es la definición de una persona social online o marca personal: es decir, los rasgos de su personalidad en el espacio digital que resultan atractivos para otros y que se convierten en la razón por la cual las personas desean seguirlos e interactuar de manera constante con los contenidos que publican. Esta personalidad digital suele afianzarse gracias a la credibilidad en su conocimiento, ya sea para cocinar, mantener un estilo de vida saludable, ejercitarse, maquillarse o simplemente entretener con humor a su audiencia[198].
172. Aunque los influenciadores existen hace ya un tiempo, en el país son pocos los esfuerzos de carácter legal y regulatorio por dar contorno a su actividad. Entre ellos se encuentra un proyecto de ley que no vio la luz, y que tenía el propósito de regular la publicidad en redes sociales, al establecer el deber de informar cuándo se promociona un producto de forma espontánea y cuándo se hace como parte de un acuerdo comercial con una marca[199]. Es decir, se trataba de un proyecto de transparencia frente a lo que se denomina infuencer maketing, es decir, la promoción de productos y servicios a través de influenciadores[200].
173. Otro esfuerzo en este sentido, que sí se materializó, es la Guía de Buenas Prácticas en la Publicidad a través de Influenciadores Digitales, publicada por la Superintendencia de Industria y Comercio (SIC) en 2020. En dicha Guía, la SIC estableció algunos derroteros sobre cómo hacer publicidad a través de los servicios de influenciadores digitales para salvaguardar los intereses de los consumidores. Según la Guía, los influenciadores son personas que utilizan las redes sociales para “compartir su cotidianidad, intereses y experiencias con una comunidad en línea”, de manera que gozan de “credibilidad, confianza y una imagen reconocible que le permite influir, afectar o motivar el comportamiento del consumidor”. Para la SIC, no importa si una persona se reconoce o no como influenciador, pues lo relevante es el rol que cumple impactando las prácticas de otras personas, especialmente de consumo[201].
174. A pesar de estos esfuerzos para proteger a los consumidores, lo cierto es que poco se ha discutido sobre las relaciones entre los influenciadores y los intermediarios que administran las plataformas en las que desarrollan su actividad económica. Para esos fines es necesario entender cómo funciona el oficio y su naturaleza jurídica.
175. Como quedó claro, los influenciadores crean un contenido para redes sociales que les permite alcanzar notoriedad en dicho ecosistema y, por lo tanto, obtener ganancias económicas. Esas ganancias pueden ser todo o parte sustancial de su sustento vital, y se pueden obtener por al menos cuatro vías o modelos de negocio: (i) contratos de publicidad con marcas y agencias cazatalentos en las que se acuerda la promoción de bienes o servicios específicos; (ii) monetización directa de cuentas frente a las plataformas mediante la entrega de dinero por autorizar la presentación de pauta publicitaria a los seguidores de la cuenta; (iii) ingresos directos por aportes de seguidores a través de estrategias de crowdfunding o recolección de dinero para un fin particular; (iv) y venta directa de bienes y servicios producidos por el o la influenciadora[202].
176. Diferentes factores influyen en la posibilidad de que esos modelos de negocio resulten o no exitosos. En particular, incide el número de seguidores, la naturaleza de la industria de que se trate, la posibilidad de diversificar dentro de los distintos modelos de negocio y la capacidad de negociación, que en términos generales depende del tipo de influenciador (mega, macro, micro o nano)[203]. En cualquier caso, es evidente que existen al menos dos elementos fundamentales para que la creación de contenidos en redes sociales sea una actividad económicamente rentable: por un lado, contar con una cuenta en al menos una plataforma de red social, y por otro, disponer de un número significativo de seguidores que haga viable cualquier modelo de negocio elegido por quien se dedica al oficio de influenciador.
177. A la luz de estas consideraciones: (i) ser influencer o influenciador es un oficio de origen relativamente reciente y de auge creciente, por el cual pueden optar las personas libre y legítimamente, siempre que su objeto sea lícito, como una expresión de la vocación, capacidades y deseos de quienes lo ejercen; (ii) este oficio puede ser catalogado como trabajo, si se tiene en cuenta la definición de la OIT: “toda actividad humana, remunerada o no, que produce bienes o servicios en una economía, o que satisface las necesidades de una comunidad o provee los medios de sustento necesarios para los individuos”[204]. En efecto, es posible decir que la actividad desarrollada por los influenciadores permite la circulación de bienes y servicios y provee medios de sustento para quien la ejerce. De igual manera, se trata de una actividad que desarrolla otros derechos, como la libertad de expresión y la libertad de escoger profesión y oficio. Por todo ello, es una actividad que goza de protección constitucional.
178. En todo caso, el oficio de influenciador digital plantea dilemas jurídicos inéditos, que las categorías tradicionales del derecho no logran resolver con facilidad. No siempre es claro si esta actividad debe entenderse como trabajo independiente o como una relación de dependencia frente a las plataformas que administran las redes sociales. Por tal razón, corresponde al juez en cada caso concreto, con base en los elementos probatorios que tiene a su alcance, determinar si hay una relación de subordinación laboral, es decir, una relación de empleador-empleado, o si, por el contrario, se trata de un trabajo independiente. Entre los factores de análisis, el juez podría, por ejemplo, considerar: (i) si la plataforma o el intermediario dicta reglas estrictas de comportamiento y control; (ii) si hay dependencia económica preponderante o exclusiva de esa plataforma; y (iii) si existe un poder de dirección (órdenes, horarios, sanciones). Si estos elementos están presentes, podría entenderse que hay subordinación, y por tanto una relación laboral. En cambio, si determina que la persona influenciadora trabaja de manera autónoma, se puede reconocer que se trata de un trabajo independiente. En todo caso, en ambos escenarios, es preciso insistir, deben existir protecciones mínimas relativas al derecho al trabajo.
179. Finalmente, más allá de la potencial relación laboral, es preciso reconocer la interdependencia estructural entre influenciadores y plataformas. Los influenciadores dependen de las redes sociales para desplegar su modelo de negocio. Sin embargo, las plataformas necesitan de los contenidos que los influenciadores generan para atraer y retener usuarios, en tanto parte de su modelo económico se basa en la publicidad dirigida y el procesamiento de datos. Es decir, ninguno existe sin el otro.
180. En este escenario, surge entonces un dilema central. Por un lado, la libertad de empresa y el derecho a la propiedad privada faculta a las plataformas para fijar las reglas que condicionen la participación de sus usuarios, incluyendo de aquellos que actúan como influenciadores. Sin embargo, como ya se ha dicho, aunque son de gestión privada, funcionan como espacios abiertos al público en las que circulan expresiones y actividades de relevancia social y económica. Esa doble naturaleza impone la necesidad de establecer límites que aseguren tanto la autonomía empresarial como la vigencia de los derechos fundamentales.
181. La analogía con los centros comerciales podría resultar ilustrativa para entender este punto. Dada la naturaleza sui generis de los espacios digitales, los intermediarios de las redes sociales operan como una suerte de administradores de locales comerciales abiertos al público. En esta analogía, el local corresponde a la cuenta del influenciador o influenciadora, que busca atraer la atención de un número significativo de personas mediante la oferta de distintos contenidos: su vida cotidiana, consejos de belleza, de cocina, instrucciones para reparar electrodomésticos, crítica musical, comedia, entre muchos otros. En ese sentido, en principio, la relación entre influenciadores y plataformas es de naturaleza privada y se rige por lo pactado en sus términos de uso. Sin embargo, dicha relación se desarrolla en un escenario marcadamente desigual, lo que impone al Estado el deber de proteger a la parte débil, que es el influenciador o la influenciadora. Incluso, aun cuando la actividad no persiga fines lucrativos, la cancelación de una cuenta o la eliminación de contenidos puede afectar derechos fundamentales como la libertad de expresión y el acceso a la información, de modo que no resulta constitucionalmente aceptable reconocer a las plataformas una potestad sancionatoria absoluta.
182. En suma, la Corte concluye que ser influenciador en redes sociales es un oficio de creciente trascendencia y que, por lo mismo, siempre que no desconozca los límites propios del Estado social de derecho y los derechos fundamentales, goza de la protección constitucional a la que se refieren los artículos 25 y 26 de la Constitución Política. En otras palabras, los influenciadores digitales pueden ser considerados como trabajadores independientes que desarrollan un oficio en principio protegido por la Constitución. En tal sentido, frente al uso potencialmente arbitrario de la facultad amplia de moderación de contenidos y en virtud de la relación negocial desigual en la que se encuentran respecto de los operadores de las plataformas, pueden buscar la protección de los derechos señalados por vía de la acción de tutela.
183. En este caso, la Sala Primera de Revisión de tutelas debe establecer si un operador de red social como Meta viola los derechos fundamentales de una usuaria, que actúa en ella como influenciadora y cuenta con más de cinco millones de usuarios, cuando le elimina sus contenidos y su cuenta, después de calificar sus publicaciones como violatorias de las normas comunitarias sobre desnudez y servicios sexuales entre adultos.
184. Para resolver este problema jurídico la Corte: (i) se referirá a su competencia para pronunciarse sobre este asunto; (ii) estudiará si se cumplen los requisitos de procedencia; (iii) se pronunciará sobre los argumentos de las partes relativos a la carencia actual de objeto; y (iv) estudiará el fondo del caso.
185. Para adelantar el estudio de fondo, esta Corporación desarrollará la siguiente metodología: primero, la Corte describirá las normas comunitarias de Instagram sobre desnudez y actividades sexuales de adultos. Segundo, la Sala pasará a describir el procedimiento de moderación de contenidos que aplicaba Meta a las conductas presuntamente infractoras de sus normas comunitarias, antes de que revocara una parte de su política de moderación automatizada. Por último, la Corte analizará las normas comunitarias y el procedimiento de moderación de contenidos aplicado a la accionante en el presente caso, a la luz de los estándares de libertad de expresión, debido proceso, igualdad, la libertad de escoger profesión u oficio y derecho al trabajo, esbozados en las consideraciones generales de esta sentencia.
186. Las partes de este proceso tienen un desacuerdo sobre la competencia de los jueces colombianos para resolver la controversia planteada por Esperanza Gómez Sierra. Por un lado, Meta Platforms, Inc. señaló que, en virtud de sus normas comunitarias, el caso no puede ser ventilado ante las autoridades judiciales colombianas porque “existen serios indicios de que la Parte Accionante está domiciliada en Miami, Estados Unidos”[205]. Por otro lado, la accionante considera que esta lectura del domicilio es limitada y desconoce el arraigo de la señora Esperanza Gómez en Colombia.
187. Con el fin de determinar la competencia de los jueces colombianos para conocer este caso, la Corte considera necesario retomar las consideraciones sobre la jurisdicción hechas al inicio de esta sentencia. Como allí se indicó, es cierto que las disputas en Internet plantean retos para determinar la competencia de los jueces nacionales debido a la presencia internacional de la red, pero esto no significa que sea imposible atribuir el conocimiento de una controversia relacionada con Internet a un juez nacional. Cada sistema jurídico desarrolla reglas que determinan hasta dónde se extiende la jurisdicción nacional en el mundo virtual. En Colombia, las normas sobre jurisdicción establecen un modelo de “país-de-destino” moderado, lo que significa, en pocas palabras, que los jueces colombianos pueden tener competencia para conocer de disputas relacionadas con Internet cuando los hechos que suceden en el ciberespacio producen, en forma clara, efectos en este país.
188. Ahora bien, como también se indicó previamente, no existe una regla única para determinar la competencia de los jueces colombianos en el caso de controversias relacionadas con Internet, pues esta depende de la materia de la que se trate la controversia. Por ejemplo, puede ser distinto que se trate de una acción de tutela a un conflicto por la ejecución de un contrato. En este sentido, la Corte considera que las reglas sobre jurisdicción que fueron explicadas en la parte general de esta providencia se deben aplicar en forma ponderada y razonable por el juez, considerando las particularidades de cada caso concreto.
189. En este caso, es necesario tener en mente diversas reglas de competencia. Primero, las reglas de Meta Inc. señalan que las controversias derivadas de sus decisiones pueden ser resueltas por autoridades judiciales del país donde “reside” el o la usuaria[206]. Segundo, de acuerdo con el artículo 2º de la Ley 1581 de 2012, cuando un responsable o encargado trata datos ubicados en el territorio colombiano está sujeto a la legislación de este país[207]. Tercero, por regla general, la competencia para conocer de las acciones de tutela es el lugar en donde se produjo el hecho o amenaza a los derechos fundamentales o, en su defecto, el lugar donde la violación o amenaza a un derecho produjo efectos[208].
190. La Corte Constitucional reconoce la importancia de las cláusulas incluidas en las Condiciones de Uso de Meta en torno a la jurisdicción y la competencia. Sin embargo, dichas cláusulas deben estudiarse en conjunto con las reglas previstas por la ley colombiana en materia de jurisdicción. Para hacerlo, la Corte explicará, en primer lugar, la discusión que sostuvieron la accionante y la accionada en relación con la residencia y el domicilio de la señora Esperanza Gómez. En segundo lugar, la Corte precisará que, de todas formas, la competencia del juez de tutela no depende ni de la residencia ni del domicilio del accionante, aunque estos pueden ser ilustrativos para identificar en dónde se produjo la vulneración o amenaza de los derechos fundamentales o dónde produjo efectos.
191. Las Condiciones de Uso de Meta se refieren a la “residencia” del usuario como criterio para determinar la jurisdicción aplicable a una disputa. A partir de esta cláusula, las partes de este proceso tuvieron una discusión sobre el domicilio de Esperanza Gómez, a pesar de que la residencia y el domicilio no son lo mismo jurídicamente. En efecto, como se desprende del artículo 76 del Código Civil y lo ha señalado la Corte Suprema de Justicia, la residencia es apenas un elemento del domicilio[209]. Así, es posible tener más de una residencia, y éstas pueden –o no– constituir un domicilio, que es el lugar donde se tiene la residencia permanente, con el ánimo de permanecer en ella.
192. En un mundo interconectado, entender la residencia apenas como el lugar donde una persona pasa la mayor parte del tiempo es inadecuado. Por el contrario, en este caso, aun si se aceptara la aplicación del criterio de residencia establecido en las Condiciones de Uso de Meta, habría elementos para entender que Esperanza Gómez tiene, al menos, una residencia en Cali, Colombia. Estos elementos son los siguientes:
· La accionante es dueña de dos propiedades en el departamento del Valle del Cauca: una en Cali[210], y otra en la zona rural de un municipio aledaño a esa ciudad[211].
· Por solicitud de la accionante[212], el despacho sustanciador consultó el sistema de datos públicos de la Administradora de los Recursos del Sistema General de Seguridad Social en Salud (ADRESS), y constató que está afiliada y activa en el sistema de salud en el régimen contributivo[213].
· La accionante demostró tener una actividad económica en Colombia sostenida en el tiempo. Sobre el particular, aportó la Resolución No. 12380 del 7 de mayo de 2019 de la Superintendencia de Industria y Comercio (SIC), que le concedió el registro de la marca “Esperanza Gómez” para la distinción de diversos productos comerciales[214]. También aportó copia de los estatutos de la sociedad por acciones simplificada EG Fashion Moda Group, empresa cuyo domicilio social es la ciudad de Cali, en los cuales la accionante aparece como constituyente y propietaria del 50% de las acciones[215].
· La actora también aportó comprobantes de pago y algunos contratos suscritos con empresas colombianas o con sede en Colombia, principalmente relacionados con actividades de publicidad a través de redes sociales[216], y que fueron suscritos por el reconocimiento que tiene en este país[217].
· Asimismo, la accionante manifestó en varias oportunidades que, además de que su casa, su familia y sus afectos están en Cali, ella pasa largas temporadas en Colombia, y que el apartamento del que es propietaria en esa ciudad es donde se aloja cuando permanece en el territorio nacional. De igual manera, indicó que la propiedad a su nombre en un municipio aledaño a Cali es utilizada como su casa de descanso. Al ser preguntada por la Corte sobre su domicilio, la demandante señaló que este “se encuentra en la ciudad de Santiago de Cali, lugar en donde poseo mi empresa, mi vivienda, mi oficina, mi familia y donde tengo un arraigo”[218].
193. Estos elementos sugieren que, en principio, que los jueces nacionales asuman el conocimiento de una controversia entre la usuaria Esperanza Gómez y la plataforma es razonable, aun bajo las reglas establecidas en las Condiciones de Uso de Meta.
194. En todo caso, los elementos aportados por la accionante no solo son relevantes para establecer si tenía o no residencia en Colombia. En efecto, ellos también demuestran que la disputa tiene una relación estrecha con Colombia y, en esa medida, justifican la intervención del juez constitucional colombiano. Dicha relación puede establecerse por dos vías: (i) por el lado de la empresa demandada, porque recolecta datos en Colombia, y (ii) por el lado de la accionante, porque sus actividades personales y económicas relacionadas con su cuenta de Instagram muestran que la disputa tuvo efectos claros en este país.
195. Por un lado, la Corte ha constatado que, a través de la plataforma Instagram, Meta Inc. recolecta y trata datos personales en Colombia. Las redes sociales digitales usan herramientas tecnológicas (como cookies) para recolectar datos personales, sin necesidad de estar domiciliadas o ubicadas físicamente en el territorio nacional[219]. Como buena parte de la vida y negocios de Esperanza Gómez, y parte de los datos que lleva a las redes tienen que ver con su vida en Colombia, es posible inferir razonablemente que Meta Inc. recolectó y trató datos en este país, relacionados con la cuenta de Instagram sobre la que trata esta acción de tutela. Así, también se satisface la regla de competencia definida en el artículo 2º de la Ley 1581 de 2012, ya citado.
196. Por otro lado, en lo que tiene que ver con el ejercicio de la acción de tutela, las dos grandes reglas sobre competencia territorial se refieren al lugar donde ocurre la amenaza o vulneración del derecho, o al lugar donde esta omisión o violación tiene efectos. La Corte debe tener en cuenta que las vulneraciones que la accionante le atribuye a Meta Platforms, Inc., ocurrieron en la red social Instagram, un espacio digital que no se localiza en un lugar físico específico. En efecto, en el entorno digital no siempre es evidente cuál fue el lugar donde se vulneraron o amenazaron los derechos fundamentales. Sin embargo, en este caso sí hay suficientes elementos para considerar que la conducta de Meta produjo efectos principalmente en Colombia.
197. Más allá de la controversia acerca de su domicilio y residencia, a la que se hizo referencia arriba, lo cierto es que las pruebas que la Corte mencionó permiten inferir razonablemente que la disputa está estrechamente vinculada con este país. En efecto, la accionante (i) mantiene una residencia en Colombia; (ii) está probado que desarrolla aquí actividades económicas y (iii) según su relato, algunas de ellas se apoyaban en su cuenta de Instagram. Como lo indicó la accionante, el cierre de su cuenta produjo efectos sobre contratos celebrados y ejecutados en este país, los cuales tenían relación con el posicionamiento de la accionante entre el público colombiano.
198. Ahora bien, es posible que la eliminación de la cuenta de la demandante también produjera efectos en otros países. Sin embargo, como ya se explicó, esta no es una razón para que el juez de tutela colombiano abandone su competencia para conocer el caso. Cada vez es más común que los hechos que ocurren en un espacio digital tengan efectos en varios países. Esto no significa que los jueces nacionales sean competentes para conocer cualquier controversia originada en línea, sino que deben estudiar la fuerza de la relación entre el conflicto y sus propias normas sobre jurisdicción. En este caso, ante la posible vulneración de los derechos fundamentales que la Constitución Política le reconoce a la accionante –ocurrida en un escenario digital–, resulta razonable que ella acuda a la protección de la jurisdicción colombiana.
199. Con base en los argumentos antes expuestos, la Sala Primera de Revisión de la Corte Constitucional ratifica su competencia para revisar los fallos de tutela proferidos dentro del trámite de referencia.
200. En esta sección se estudian los requisitos de procedibilidad de la acción de tutela, sobre los cuales también existen debates importantes y novedosos, principalmente aquellos relacionados con la relevancia constitucional del caso y con la legitimación por pasiva de las compañías que operan redes sociales, las cuales no están ubicadas en Colombia, y de sus filiales en el país. En este contexto, la Corte expondrá porqué el caso es admisible en virtud del cumplimiento de los requisitos de (i) legitimación por activa; (ii) legitimación por pasiva; (iii) subsidiariedad; y (iv) la inmediatez.
201. En el presente caso, la acción de tutela fue presentada por Esperanza Gómez Silva a nombre propio como persona natural y titular de los derechos fundamentales al trabajo, la igualdad y no discriminación, al mínimo vital y móvil y a la libertad de expresión, entre otros. Por lo mismo, se entiende satisfecho este requisito.
202. Para determinar la procedencia de la tutela contra particulares que administran plataformas digitales se debe, conforme al artículo 42.9 del Decreto 2591 de 1991, verificar si la parte accionante se encuentra en una situación de indefensión o de subordinación respecto del particular demandado[222]. Según la jurisprudencia constitucional, la subordinación se refiere a una situación en la que una persona debe acatar las órdenes emitidas por quiénes, en virtud de sus calidades, tienen competencia para impartirlas[223]. En términos generales, la subordinación supone la existencia de una relación jurídica de dependencia originada en la obligatoriedad de un determinado orden jurídico o social[224]. Algunos ejemplos de subordinación evidentes son la relación entre empleador y empleado o profesores y estudiantes[225].
203. Por su parte, la Corte señala en su jurisprudencia que la indefensión es “una situación relacional que implica la dependencia de una persona respecto de otra, por causa de una decisión o actuación desarrollada en el ejercicio irrazonable, irracional o desproporcionado de un derecho del que el particular es titular”[226]. Por tal motivo, quien haga las veces de juez debe evaluar “las circunstancias del caso concreto, las personas involucradas, los hechos relevantes y las condiciones de desprotección, que pueden ser económicas, sociales, culturales y personales”[227].
204. En el presente caso, concurren al trámite de tutela dos personas jurídicas como accionadas, Meta Platforms, Inc. y Facebook Colombia, S.A.S. Asimismo, están vinculados el Ministerio de Tecnologías de la Información y la Comunicación y la Superintendencia de Industria y Comercio. En lo que sigue, la Corte se pronunciará por separado sobre la legitimación por pasiva de las entidades convocadas al trámite de tutela.
205. Legitimación por pasiva de Meta Platforms, Inc. En el expediente consta que Meta Platforms, Inc. eliminó los contenidos publicados por la señora Esperanza Gómez Silva, así como dos de sus cuentas: primero @esperanzagomez, en mayo de 2021, y luego @soyesperanzagomez, en noviembre de 2022, durante el trámite de tutela. Las eliminaciones consecutivas de contenido y cuentas fueron reconocidas por los apoderados de esta compañía en Colombia y por su vicepresidente, quienes afirmaron que estas decisiones estuvieron sustentadas en la violación repetida de las normas comunitarias por parte de la accionante[228].
206. El fundamento de las decisiones de Meta son tanto sus Condiciones de Uso como sus Normas Comunitarias, que en líneas generales definen los comportamientos permitidos y prohibidos en Instagram. Estas normas fueron aplicadas en virtud de la facultad de moderación de contenidos que se arroga Meta a sí misma para asegurar que se cumplan las normas mínimas de comportamiento que definió para dicha red social. Tanto la facultad de moderación de contenidos como las políticas de Meta sobre comportamiento admisible e inadmisible, fueron aceptadas por la accionante al ingresar a la plataforma mediante la firma de un contrato de adhesión, es decir, un acto jurídico en el que la accionante no podía modificar el contenido del acuerdo sino simplemente adherirse[229].
207. Como ya se indicó, la facultad de moderación de contenidos permite que los intermediarios que administran una red social eliminen o restrinjan el acceso a ciertos contenidos o cuentas, tanto oficiosamente como por solicitud de otros usuarios. En dicho contexto, tanto la forma en que se vinculan los usuarios con Meta como las consecuencias de aceptar las condiciones que impone dan cuenta de una situación de subordinación que tiene origen en la suscripción del contrato con los términos y condiciones que impone la compañía. Aunque en la doctrina persisten dudas sobre la naturaleza jurídica de estos contratos[230], lo cierto es que se trata de negocios jurídicos en los que el usuario no puede estipular el contenido de las obligaciones en modo alguno.
208. Por otro lado, Meta tiene una posición dominante en el mercado mundial de las tecnologías de la información y, más concretamente, sobre los usuarios de sus servicios en virtud de la facultad amplia de moderación de contenidos[231]. En efecto, su posición global, su capital y su control de buena parte del mercado de las tecnologías de red social pone de presente que las necesidades de comunicación digital de las personas suponen la necesidad de acceder a las condiciones que impone Meta para participar en los foros digitales que administra. En esa medida, los usuarios de plataformas como Instagram se encuentran generalmente sometidos a las decisiones de Meta aplicadas en virtud de la facultad amplia de moderación de contenidos. En dicho contexto, si bien los usuarios tienen la posibilidad de recurrir estas decisiones a través de procedimientos establecidos y administrados también por Meta, lo cierto es que la decisión en últimas es de la compañía, que tiene el poder técnico de eliminar parcial o definitivamente contenidos o cuentas.
209. En el presente caso, y como se mencionó al inicio de esta sección, Meta eliminó las imágenes, videos y cuenta de la accionante de manera directa. Según la actora, su conducta nunca incumplió las reglas de Meta y, sin embargo, su contenido fue eliminado. Además, la peticionaria señaló que, al intentar recurrir estas decisiones, no obtuvo una respuesta oportuna y de fondo por parte de la compañía. En esa medida, en ejercicio de su facultad amplia de moderación de contenidos, reconocida en las Normas Comunitarias y Condiciones de Uso de Instagram, Meta aplicó unas reglas sobre las que no dispuso la accionante. Además, el proceso de moderación de contenidos fue administrado exclusivamente por esta compañía, que además tiene la potestad de interpretar y aplicar esas normas procedimentales unilateralmente.
210. En este contexto, Meta se encuentra legitimada porque la señora Gómez Silva se encontraba en una posición tanto de subordinación como de indefensión frente a las decisiones que la compañía adoptó en su caso, basadas en las reglas impuestas, interpretadas y aplicadas directamente por esa compañía.
211. Legitimación por pasiva de Facebook Colombia S.A.S. Esta compañía indicó en su respuesta a la acción de tutela que carece absolutamente de legitimación por pasiva en este caso. En sustento de esta afirmación, esa empresa propuso dos argumentos: “(i) que no existe una conducta suya que se relacione con los hechos que dan lugar a la acción que nos ocupa; y (ii) que Facebook Colombia no está legalmente capacitada para administrar el Servicio de Facebook y el Servicio de Instagram”[232]. Asimismo, la demandada afirmó que, de una simple lectura de su certificado de existencia y representación, se puede extraer que no cuenta con la capacidad legal de administrar ninguno de los servicios mencionados, pues su objeto social es:
“(A) Brindar servicios relacionados con soportes de ventas para publicidad, marketing y relaciones públicas. (B) Adicionalmente, podrá realizar cualquier otra actividad económica, comercial o civil lícita tanto en Colombia como en el extranjero, incluyendo la facultad de dar o recibir préstamos”.[233]
212. Frente a su relación con Meta Platforms, Inc., Facebook Colombia señaló lo siguiente:
“FB Colombia es distinta y autónoma de Meta Platforms, Inc. (que es una empresa extranjera), con personalidad jurídica y patrimonio propio e independiente de terceros. Adicionalmente, FB Colombia no es mandataria, agente o representante de Meta Platforms, Inc. Por lo tanto, FB Colombia se encuentra impedida legalmente para ejecutar cualquier requerimiento respecto de cualquier información o servicio controlado por Meta Platforms, Inc.”.[234]
213. Según el certificado del registro mercantil aportado por la compañía, Facebook Colombia S.A.S es una sociedad controlada por Facebook Global Holding II LLC. Ese holding empresarial tiene como única dueña a Meta Platforms., Inc., tal como consta en el listado de empresas subsidiarias de Meta. Es decir, existe una relación societaria entre ambas compañías (matriz-subsidiaria), de manera que no es cierto que no existen vínculos entre Meta y Facebook Colombia.
214. Al respecto, Facebook Colombia subrayó que pertenecer a un mismo grupo empresarial no hace que comparta propósito y funciones con la dueña de dicho grupo, y que aun cuando se trata de una relación relativamente vertical entre la matriz y la subordinada, en todo caso mantiene la independencia para desarrollar su objeto social. La accionada sustentó sus afirmaciones en decisiones de la Superintendencia de Sociedades sobre la separación de la responsabilidad de matrices y filiales, y en la sentencia C-090 de 2014[235].
215. Frente a la relación entre Meta y Facebook Colombia S.A.S., la Superintendencia de Industria y Comercio, en la Resolución 46.664 de 2022, estableció que hay una responsabilidad compartida entre ambas sociedades en las cuestiones relativas a la protección de los datos personales. Según la Superintendencia, el tratamiento de datos personales en ambas empresas se realiza a través de la vinculación de Facebook Colombia S.A.S. a la estrategia global de Meta Platforms, Inc. para recolectar y tratar datos personales con miras a ofrecer, entre otros, servicios de publicidad basados en la información que poseen sobre los usuarios[236]. En ese sentido, en virtud de los vínculos jurídicos y económicos de ambas compañías, para la SIC existe una corresponsabilidad entre las empresas por el tratamiento de datos personales de ciudadanos colombianos al amparo del artículo 3 de la Ley Estatutaria 1581 de 2012[237].
216. La cuestión de la corresponsabilidad entre Meta y Facebook Colombia fue objeto de amplios debates a lo largo del trámite de tutela. De allí es posible extraer dos posiciones. La primera, conforme a la cual Facebook Colombia no debe estar vinculada al trámite de tutela[238]. La segunda, que estima que, por ser una sucursal de Meta, Facebook puede ser corresponsable por las violaciones a derechos humanos que cometa la matriz contra personas de un país en el que tiene operaciones comerciales, o por lo menos tener deberes relacionados con la notificación de acciones judiciales en esta materia[239].
217. La Corte valora los aportes de los intervinientes en este asunto y los considera de suma relevancia para el estudio de casos en los que se discute la protección de datos personales de personas usuarias de servicios como Instagram. Sin embargo, después de analizar el conjunto de fuentes y argumentos sobre la vinculación de Facebook Colombia S.A.S., la Corte concluye que –para los efectos de la aplicación de la facultad amplia de moderación de contenidos–, no resultan aplicables los argumentos sobre corresponsabilidad de las compañías, por las siguientes razones.
218. En primer lugar, durante el proceso quedó demostrado que Facebook Colombia S.A.S. no tiene ninguna injerencia sobre la definición de las Normas Comunitarias ni las Condiciones de Uso de Meta. En esa medida, no tiene la capacidad de responder por la potencial definición arbitraria de reglas sobre la participación en la red social Instagram.
219. En segundo lugar, Facebook Colombia S.A.S. tampoco tiene facultades relacionadas con la aplicación de las reglas que Meta define para el uso adecuado de la plataforma Instagram. En tal sentido, su vinculación resulta inane toda vez que no tiene la capacidad jurídica ni técnica de revertir decisiones que se deriven del potencial uso arbitrario de esa facultad.
220. Por último, aunque la Corte reconoce que es un desafío hacer notificaciones judiciales en el extranjero para hacer comparecer a una compañía con sede fuera de Colombia como Meta Platforms, Inc., ello no justifica mantener la vinculación de una compañía independiente que, en todo caso, no tiene la potestad legal de comunicar a la empresa matriz sobre los procesos judiciales que se surten en su contra en Colombia. En este contexto, la Corte concluye que Facebook Colombia S.A.S. carece de legitimación en la causa por pasiva y, por lo tanto, ordenará su desvinculación del presente trámite de tutela.
221. No obstante, en atención a las dificultades de notificación a Meta Platforms, Inc. advertidas en este proceso –que obstaculizan la protección de los derechos fundamentales de sus usuarios y que incluso afectaron la labor de esta Corte– se considera necesario disponer de una medida adicional. En consecuencia, la Corte ordenará a Meta que establezca un canal de comunicación por correo electrónico que, de forma similar a lo exigido en la Unión Europea, facilite la notificación de los procesos judiciales que se adelanten en su contra en Colombia, en especial de las acciones de tutela, dada su naturaleza expedita y la necesidad de asegurar la comparecencia oportuna de las partes. Este canal de comunicación debe poder encontrarse en un lugar visible, como puede ser dentro de su página web[240].
222. Legitimación por pasiva del Ministerio de Tecnologías de la Información y las Comunicaciones y de la Superintendencia de Industria y Comercio. Estas entidades vinculadas insistieron en su falta de legitimación por pasiva en el presente caso a lo largo del proceso.
223. Sobre el punto, la Corte considera que, si bien ninguna de las dos entidades intervino en el curso de los hechos que dieron lugar a la presentación de la tutela, sí tienen un interés directo en el proceso. Tanto el ministerio como la SIC son autoridades competentes para adoptar medidas para la protección de los usuarios de redes sociales que puedan verse perjudicados en el ejercicio de sus derechos fundamentales en espacios digitales, particularmente en plataformas de red social. Por esta razón, la Corte las mantendrá vinculadas al proceso como interesadas en su resultado y como autoridades llamadas tomar en el evento en que se encuentren probadas las violaciones alegadas por la accionante.
224. En asuntos relacionados con redes sociales, la Corte ha reconocido que, debido a la complejidad de Internet y a que muchas veces los conflictos surgen entre particulares, debe analizarse si la tutela está siendo utilizada en reemplazo de otros mecanismos judiciales, o si en realidad estos no resultan adecuados para garantizar los derechos fundamentales comprometidos.
225. En la sentencia SU-420 de 2019, esta Corte estableció una serie de subreglas para evaluar el cumplimiento del requisito de subsidiariedad en casos en los que se estudia una tensión entre los derechos a la honra y al buen nombre de una persona y el derecho a la libertad de expresión de otra, en el contexto de publicaciones realizadas por un particular en redes sociales que otro considera deshonrosas[242]. En esta oportunidad, el asunto que se estudia es diferente, pues la controversia gira alrededor de la facultad de moderación de contenidos que ejerce la compañía que administra la plataforma de redes sociales. Por lo tanto, la Corte considera que las subreglas establecidas en la SU-420 de 2019 no se pueden trasladar en forma automática a este caso, sino que se deben estudiar en atención a las particularidades de la controversia.
226. En consecuencia, la Corte examinará (i) si la tutela es usada para ventilar disputas que podrían discutirse en otra sede judicial; (ii) si es exigible el agotamiento de los mecanismos de impugnación de las decisiones adoptadas por el operador de la plataforma de red social; y (iii) si la controversia tiene relevancia constitucional.
(i) Agotamiento de otros mecanismos disponibles
227. Según la apoderada de Meta, en este caso no se cumple con el requisito de subsidiariedad porque lo que pretende la accionante es una condena en abstracto para que Meta la indemnice por los daños económicos causados por la eliminación de su cuenta y dicha pretensión se debe ventilar a través de otros mecanismos judiciales[243].
228. Aunque la apoderada no señaló cuáles son esos mecanismos, es cierto que en el ordenamiento jurídico colombiano existen acciones judiciales para ventilar pretensiones económicas como las descritas. Si bien las formas de atribución de responsabilidad a intermediarios en redes sociales es un asunto todavía en construcción, es dable asumir que los mecanismos a los que hace alusión la apoderada de Meta tienen que ver con la protección a los consumidores, pues, de hecho, esta compañía se refiere a los usuarios como tales[244]. Por eso es pertinente determinar si los derechos que la actora indica que le son vulnerados podrían ser protegidos mediante mecanismos como la acción de protección al consumidor adelantada por la Delegatura de Asuntos Jurisdiccionales de la Superintendencia de Industria y Comercio o el proceso declarativo previsto en el Código General del Proceso. Pasa la Corte, entonces, a analizar si estos mecanismos son idóneos y eficaces para la protección inmediata de los derechos que se estiman vulnerados en este caso.
229. Acción de protección al consumidor. Esta acción, prevista en el artículo 56.3 de la Ley 1480 de 2011, permite reclamar ante la Superintendencia de Industria y Comercio la vulneración de los derechos de los consumidores, incluida la derivada de servicios digitales.
230. En las sentencias T-584 de 2023 y T-304 de 2023 la Corte analizó la eficacia e idoneidad de esta acción para proteger los derechos de los consumidores en plataformas digitales, aunque lo hizo en referencia a la afectación de los derechos a la honra, el buen nombre y el habeas data. En esas sentencias, la Corte encontró que, si bien los accionantes tuvieron a su disposición esta acción para proteger sus derechos en el ámbito digital, no era célere para atender pretensiones relacionadas con contenidos violatorios de la dignidad[245]. Si bien este caso es distinto al examinado en las mencionadas sentencias, pues se refiere a la tensión entre la moderación de contenidos y la posible afectación de derechos como la libertad de expresión, la igualdad y el debido proceso, la Corte encuentra que en esta oportunidad se deriva una conclusión similar.
231. En efecto, la acción de protección al consumidor es insuficiente en el presente caso por su objeto restringido. Si bien dicha acción podría ser útil para resolver reclamos patrimoniales por parte de los consumidores contra plataformas digitales, no está diseñada para proteger derechos fundamentales de las personas, como los que se ventilan en este caso. La Superintendencia de Industria y Comercio carece de atribuciones constitucionales y legales para declarar la violación a derechos fundamentales como la igualdad, el debido proceso o la libertad de expresión en el ámbito digital. En esa medida, aunque puede ordenar indemnizaciones o medidas contractuales, no ofrece una respuesta inmediata para evitar el cierre arbitrario de una cuenta, cuyos efectos sobre derechos como la libertad de expresión pueden ser severos.
232. Proceso declarativo en la jurisdicción ordinaria. De manera similar, el proceso declarativo contemplado en el Código General del Proceso permitiría entablar un juicio de responsabilidad contractual contra la plataforma para reclamar indemnizaciones. Sin embargo, tampoco es un mecanismo idóneo para la protección de los derechos fundamentales en este caso por varias razones. En primer lugar, porque es un proceso excesivamente largo que no ofrece protección inmediata frente a derechos que pueden verse afectados de manera definitiva, como la libertad de expresión. En segundo lugar, porque su finalidad es limitada a la reparación de perjuicios derivados del contrato, sin que el juez ordinario pueda restablecer derechos fundamentales vulnerados por el cierre de una cuenta. En tercer lugar, porque no ofrece medidas eficaces para impedir la suspensión arbitraria de una cuenta en una red social, como la que se alega en el presente caso.
233. Otros derechos comprometidos. Además de lo anterior, en el análisis del requisito de subsidiariedad, debe tenerse en cuenta que, como se indicó, en este caso, la controversia trasciende el plano contractual económico.
234. En lo que tiene que ver con el principio de igualdad y no discriminación, aspecto central que se discuten en la acción de tutela, debe considerarse que la acción de tutela es el mecanismo judicial preferente, más aún cuando exige, como en este caso, una perspectiva de género en el análisis. Este ámbito de la dignidad humana difícilmente podría discutirse por la vía de acción de protección al consumidor o el proceso civil declarativo. Tampoco tendría sentido acudir a las vías penales cuando lo que está de por medio es un presunto trato diferenciado que obedece a las conductas offline de la accionante y a su condición de mujer.
235. Frente al derecho al trabajo y a la libertad de escoger profesión u oficio, la Corte Constitucional ha señalado que en el ámbito de las reclamaciones ante plataformas de red social también existe un vacío normativo[246]. El trabajo como influenciador en redes sociales es un ejemplo de ello, pues la legislación nacional aún no se ocupa de las posibles controversias que se desprenden de esa actividad. Primero, no resulta claro cuál es el juez natural competente para conocer del asunto; y, segundo, el marco jurídico que regula el acceso a los mecanismos judiciales civiles o laborales podría limitar la posibilidad de ventilar las pretensiones de los influenciadores de redes sociales y, en consecuencia, comprometer el derecho a la tutela judicial efectiva[247].
236. Así las cosas, los mecanismos judiciales alternativos (i) no existen en lo que tiene que ver con los argumentos sobre posible violación al derecho al trabajo y la libertad de escoger profesión u oficio; y (ii) no son idóneos en lo que se refiere a la libertad de expresión, la igualdad y el mandato de no discriminación
(ii) Empleo de los mecanismos previstos por el intermediario
237. Cuando la controversia que se ventila ante el juez de tutela busca la rectificación de publicaciones realizadas por un particular en redes sociales, esta Corte ha señalado que se debe acudir a los mecanismos previstos por el intermediario de la red social para solicitar la eliminación de la publicación[248].
238. Es necesario aclarar que este requisito no es directamente aplicable cuando el cuestionamiento se dirige contra el ejercicio de la facultad de moderación de contenidos por parte del operador de la plataforma, pues en este último caso la vulneración de los derechos fundamentales se le atribuye al intermediario mismo. Los mecanismos de reclamación previstos por los operadores de redes sociales no son judiciales ni su objetivo es resolver conflictos con la plataforma, de modo que, en principio, agotarlos no es indispensable para acudir a la acción de tutela.
239. En todo caso, como el agotamiento de los mecanismos previstos por la plataforma fue un asunto que se discutió en este proceso, las partes aportaron elementos de prueba valiosos para determinar cuáles fueron las actuaciones que la señora Esperanza Gómez realizó ante Meta para buscar el restablecimiento de su cuenta de Instagram. De esta manera, aún si se entendiera –en gracia de discusión– que era necesario agotar los mecanismos de reclamación dispuestos por Meta, la Corte considera que la accionante en efecto los ejerció, sin que estos fueran eficaces para proteger los derechos que ella estima vulnerados.
240. Para empezar, según se informó en este proceso, Meta cuenta con varios mecanismos de reclamación directa a la plataforma cuando un usuario está en desacuerdo con la eliminación de un contenido o cuenta:
“[s]i
el contenido va en contra de las Normas Comunitarias de Instagram, Meta lo
eliminará. Meta también notificará a los usuarios para que puedan entender por
qué se ha eliminado el contenido y cómo evitar publicar contenido infractor en
el futuro […] si los usuarios siguen publicando contenido que va en contra de
las Normas Comunitarias de Instagram, a pesar de las repetidas advertencias y
restricciones, esto conducirá a que la cuenta sea desactivada. Si una cuenta de
Instagram ha sido inhabilitada, los usuarios verán un mensaje diciendo que su
cuenta está inhabilitada cuando intenten iniciar sesión. Meta también les
informa a los usuarios
que pueden solicitar otra revisión si creen que Meta ha cometido un error”[249].
241. En este proceso, la accionante relató que, para el momento en el que interpuso la tutela y “después de más de 20 comunicaciones al operador”, no había sido posible el restablecimiento de su cuenta[250]. En sustento de dicha afirmación, la demandante aportó: (i) el escrito de reclamación que afirma haber enviado a Meta para buscar la reactivación de su cuenta; (ii) un pantallazo de correo electrónico del 18 de junio (sin especificar el año) en el que se le solicita remitir una foto suya sujetando un papel con el código enviado (55282); (iii) varios pantallazos de avisos de remoción de contenido subido a su nueva cuenta de Instagram[251]. Posteriormente, en respuesta al auto de pruebas de 26 de septiembre de 2022, la accionante remitió fotografías (identificadas en el escrito como fotos 8, 9, 10 y 11) con el contenido que se describe a continuación[252]:
Tabla 3. Fotografías remitidas por la accionante sobre reclamos a Meta.
Foto |
Contenido |
1 |
Foto de pantalla de celular en la que se observa un correo electrónico con fecha del 18 de junio de 2021, hora 8:05 am, remitido por la dirección de correo Instagram++aazq7pxwvnp23c@support.facebook.com en el que se lee lo siguiente: “Hola, Gracias por ponerte en contacto con nosotros. Para poder ayudarte, necesitamos confirmas que eres el propietario de esta cuenta. Responde a este correo con una foto adjunta en la que aparezcas sujetando una copia manuscrita del código que se muestra a continuación. 55282 Asegúrate de que la foto que envías cumple los siguientes requisitos: -Incluye el código anterior escrito a mano en una hoja de papel en blanco, seguido de tu nombre completo y tu nombre de usuario. -Incluye tanto tu mano sujetando la hoja de pape (sic) como todo tu rostro. -Tiene buena iluminación y no es demasiado pequeña, oscura o borrosa. -Se adjunta a la respuesta como archivo JPEG. Ten en cuenta que, aunque la cuenta no incluya ninguna foto de tu o se haya utilizado para representar a otra persona o cosa, no podemos ayudarte hasta que recibamos una foto que cumpla esos requisitos.
Gracias, El equipo de Instagram” Al fondo, se ve una imagen en tamaño pequeño de la que parece ser la señora Esperanza Gómez Silva, sosteniendo una hoja de papel blanco con la siguiente información: El número 55282 El dominio @esperanzagomez El nombre Esperanza Gómez Silva |
2 |
Aparece la misma imagen que en la foto anterior, pero en una versión más grande. Se identifica claramente a la señora Esperanza Gómez Silva, sosteniendo una hoja de papel blanco con la información señalada arriba. En la parte superior de la foto de pantalla aparece una leyenda de identificación de la foto “IMG_20230618_085541_64…”. |
3 |
Captura de pantalla a un celular en el que se observa lo que parece ser un formulario de Facebook con dos imágenes superpuestas. La que aparece arriba señala lo siguiente: “Formulario enviado correctamente Gracias por ponerte en contacto con Instagram. En breve recibirás una respuesta por correo electrónico.” El final de la imagen aparece cortado, pero se identifica lo que parece ser un botón de “Aceptar”. En la imagen con menos brillo de la parte de abajo se ve un formulario con información diligenciada, del siguiente modo: - Pregunta: “…indica el “nombre del usuario” en este campo] o Respuesta: “esperanzagomez” - Pregunta: “Dirección de correo electrónico que consta en tu cuenta de Instagram” o Respuesta: “ozcardiamonds@gmail.com” - Pregunta: “¿Desde qué país escribes?” o Respuesta: “Colombia” - Pregunta: “Facilítanos una copia de tu documento de identidad oficial con fotografía. Este documento debe: Ser un documento oficial (p.ej. pasaporte o permiso de conducir) Mostrar con claridad tu nombre, foto y fecha de nacimiento. Ser en color” Por la superposición de imágenes no se logra identificar lo que sigue, pero continúa más abajo el formulario con un botón “Elegir archivos” y aparece abajo una leyenda que dice “xIMG_20210521_162308.jpg”
Finalmente, hay un botón para aceptar las siguientes condiciones: “Entiendo que no podré recibir ayuda con mi cuenta si no subo un documento de identificación válido”. La imagen finaliza con un botón “Enviar” e información en la parte inferior dentro de la que se puede leer “©2021 INSTAGRAM, INC.” |
4 |
Foto de pantalla en la que se ve un formulario de Google Formularios completado con la siguiente información en inglés y español: “INSTAGRAM RECOVERY REQUEST FORM Se registró tu respuesta.” |
Elaboración del despacho sustanciador con base en el material probatorio.
242. En la respuesta al auto de pruebas del 29 de mayo de 2023, la accionante señaló que no cuenta con soportes adicionales[253].
243. Respecto de esta información, Meta Platforms, Inc. explicó que, cuando elimina contenidos, notifica a los usuarios y les advierte sobre la posible cancelación definitiva de la cuenta. Asimismo, afirmó que, en este caso, la de la accionante fue removida por reiteradas violaciones a las Condiciones de Uso y Normas Comunitarias de Instagram[254].
244. Para sustentar lo anterior, Meta aportó una declaración juramentada de Sandeep Solanki, quien para ese momento figuraba como vicepresidente y Associate General Counsel[255], quien señaló que la demandante compartió repetidamente contenido que infringía las reglas sobre desnudos y ofrecimiento de servicios sexuales[256]. El señor Solanki afirmó haber revisado con los equipos de cumplimiento de los términos y políticas de Meta los registros del caso e indicó que la cuenta @esperanzaagomez fue inhabilitada el 16 de mayo de 2021, tras múltiples violaciones a las reglas comunitarias. Así mismo, indicó que la eliminación fue definitiva conforme a las políticas de retención de datos, por lo cual no podía entregar copia de dichas violaciones[257].
245. El despacho, mediante auto de pruebas del 29 de mayo de 2023, requirió a Meta para que entregara la información y evidencias mencionadas por el señor Solanki. Sin embargo, los apoderados no aportaron las copias solicitadas y se limitaron a reproducir lo ya dicho, insistiendo en que la cuenta fue eliminada de manera irreversible, aunque reiteraron que la accionante fue notificada reiteradamente a través de la aplicación[258].
246. Con base en lo anterior, la Sala Primera de Revisión de Tutelas estableció que: (i) Meta notificó a la accionante entre marzo y mayo de 2021 sobre la eliminación de contenidos y la posible cancelación de su cuenta; (ii) una vez bloqueado el acceso, la peticionaria interpuso un recurso de reclamación el 18 de junio de 2021, poco menos de un mes después de la eliminación de su cuenta; y (iii) Meta no aportó prueba alguna que indicara que contestó a esa reclamación; simplemente se limitó a sostener que notificó vía aplicación y que la decisión fue justificada[259].
247. En consecuencia, la Corte concluye que la accionante sí agotó un trámite de reclamación directa ante Instagram sin obtener respuesta, por lo que actuó con diligencia antes de acudir a la tutela. No sobra señalar, que esta conclusión no desconoce la validez de los mecanismos internos de las plataformas digitales, sino que resalta su complementariedad con los mecanismos judiciales previstos en la Constitución para garantizar los derechos fundamentales.
(iii) Relevancia constitucional
248. La representante de Meta Platforms, Inc. cuestionó la procedencia de la acción de tutela al considerar que la demanda planteaba un asunto contractual de carácter meramente económico. Sobre el punto, y contrario a lo señalado por Meta, la Corte observa que este caso sí tiene relevancia constitucional.
249. Por un lado, como se ha explicado hasta el momento, la controversia que se estudia en esta sentencia es un asunto novedoso, que no solamente involucra la posible vulneración de algunos de los derechos fundamentales de la accionante, sino que despierta preguntas sobre la jurisdicción de los jueces colombianos para resolver disputas que ocurren en el ciberespacio; el papel del Estado frente a la facultad de moderación de contenidos que ejercen, en principio, los operadores de redes sociales; la protección constitucional del oficio de influenciador o influenciadora digital; y el alcance de los derechos fundamentales de los usuarios cuando las plataformas determinan y aplican sus “normas comunitarias” o “reglas de la casa”.
250. Por otro lado, en relación con el caso concreto, la Corte precisa que en éste no solo se discute la posible vulneración del derecho a la libertad de expresión. La accionante manifiesta que la aplicación de las normas comunitarias de Instagram en su caso fue discriminatoria, entre otras razones, por su condición de mujer y por haberse dedicado a la pornografía, además de ser contraria al debido proceso. Asimismo, se discute la posible violación de sus derechos al trabajo y a la libertad de elegir profesión u oficio pues, según Esperanza Gómez, la cuenta de Instagram era un vehículo para realizar sus actividades profesionales. De esta forma, se trata de derechos que tienen una amplia protección constitucional y cuya posible vulneración es relevante para esta Corte.
251. De esta manera, aún si la controversia tiene un componente económico, representado en los perjuicios que la accionante manifestó sufrir por cuenta del cierre de su cuenta de Instagram, el centro de la disputa no es ese, sino la presunta vulneración de los derechos fundamentales de la señora Gómez Silva. Incluso, en relación particular con el derecho a la libertad de expresión, aun cuando el discurso de la accionante tuviera un componente económico, ello no lo privaría de protección constitucional, dado que la jurisprudencia ha reconocido la cobertura de la libertad de expresión también frente a discursos comerciales[260].
252. En suma, la Corte encuentra que lo que se pretende ventilar es la posible vulneración de derechos fundamentales. En esa medida, si bien la accionante pide la condena de perjuicios en abstracto por las afectaciones económicas que experimentó en virtud de la eliminación de su cuenta, esta es una pretensión subsidiaria que, para ella, se sigue de la potencial afectación de sus derechos fundamentales.
253. En el presente caso, la accionante interpuso la acción de tutela en diciembre de 2021, es decir, poco más de 6 meses después de la eliminación de la cuenta @esperanzagomez en el servicio Instagram. Como se señaló apartes arriba, entre los meses de mayo y diciembre de 2021, la peticionaria activó los mecanismos de reclamo propios del operador de la red social, es decir, Meta Platforms, Inc. En todo caso, como se observa en la Tabla 3 antes transcrita, la accionante probó que una de las reclamaciones frente a la eliminación de su cuenta se hizo el 18 de junio de 2021, es decir, menos de 6 meses respecto del momento en el que interpuso la tutela.
254. En virtud de lo anterior, la Corte considera que el término de seis meses para esperar una respuesta sobre las razones de dieron lugar a la desactivación de la cuenta o para que fuera restablecida, resultan razonables. Por lo mismo, la demandante interpuso la acción de tutela de forma oportuna cuando observó que no tenía otro medio de defensa para sus derechos fundamentales por la falta de respuesta concreta de Meta Platforms, Inc.
255. Por las razones hasta aquí expuestas, la Sala Primera de Revisión de Tutelas considera que: (i) la Corte Constitucional es plenamente competente para conocer del presente caso y emitir una sentencia de fondo y, (ii) que todos los requisitos de procedibilidad se fueron cumplidos. De este modo, la Corte pasará a analizar si en este caso hay carencia actual de objeto.
256. Meta Platforms, Inc. presentó dos argumentos relacionados con la potencial carencia actual de objeto. De un lado, la apoderada de Meta en Colombia indicó que “con posterioridad a la remoción de su cuenta, la Parte Accionante creó otras cuentas de Instagram”[262], lo que demuestra que no se encuentra vetada en la plataforma. De otro lado, Meta afirmó que la cuenta @esperanzagomez, a través de la cual la accionante alcanzó una comunidad de más de cinco millones de seguidores, fue desactivada y eliminada permanentemente de los servidores donde se alojan las cuentas de Meta, motivo por el cual es técnicamente imposible recuperarla[263].
257. La accionante se pronunció sobre estos dos argumentos. Por un lado, señaló que en el transcurso de la acción de tutela su cuenta @soyesperanzagomez, que creó después de la eliminación de su cuenta original, también fue objeto de restricciones y posterior eliminación del servicio de Instagram el 28 de noviembre de 2022. Por otro lado, reconoció tener una cuenta activa (@yoesperanzagomez). Sin embargo, señaló que esta cuenta es objeto de nuevas eliminaciones que, asegura, obedecen a una persecución en su contra. Para la accionante, a diario circulan en Instagram contenidos similares o idénticos al suyo sin ser retirados, de modo que no se explica por qué se eliminan sus contenidos y no los otros.
258. La acción de tutela, prevista en la Constitución Política como un mecanismo expedito para la protección inmediata de los derechos fundamentales, puede perder su finalidad cuando desaparecen las condiciones que motivaron su interposición. Ello ocurre bien porque la amenaza sobre los derechos se concretó y causó un daño irreparable, o porque cesó y dejó de existir el riesgo[264]. En tales casos, la Corte Constitucional ha desarrollado la figura de la carencia actual de objeto. Esta figura hace improcedente la tutela pues no habría un bien constitucional susceptible de ser protegido por una orden de tutela. Según la Corte, la carencia actual de objeto se produce en tres eventos hecho superado, hecho sobreviniente y daño consumado[265].
259. Según la jurisprudencia de este Tribunal, en el hecho superado y en el hecho sobreviniente, por regla general no es necesario un pronunciamiento del juez constitucional, aunque las salas podrían decidir realizarlo con fines de desarrollo jurisprudencial. En el caso del daño consumado sí es imperativo realizar un estudio de fondo, no solo con miras al desarrollo de jurisprudencia, sino también para proteger la dimensión objetiva de los derechos fundamentales y como garantía de no repetición o mecanismo para que no ocurran de nuevo hechos que afectaron con tal intensidad los derechos constitucionales[266].
260. La Corte pasará a estudiar los argumentos de las partes que sugieren la existencia de una carencia actual de objeto en el presente caso. Como arriba se indicó, en primer lugar, la accionada afirmó que desde el punto de vista técnico no es posible recuperar la cuenta @esperanzagomez con sus más de 5 millones de seguidores. En dicho contexto, la imposibilidad de recuperar dicha cuenta –que es una pretensión esencial de la acción de tutela– se traduciría en un daño consumado, pues una orden de habilitación de la cuenta en estas circunstancias resultaría inocua. Al respecto, la peticionaria señaló que existen antecedentes de cuentas cerradas que incluso después de varios años fueron restablecidas con el contenido y seguidores anteriores. En particular, la demandante puso de presente el caso del expresidente estadounidense Donald J. Trump, cuyas cuentas de Facebook e Instagram fueron restablecidas el 9 de febrero de 2023 después de permanecer 2 años inactivas[267].
261. La accionada no hizo observaciones sobre esta afirmación. Sin embargo, en respuesta a preguntas planteadas previamente por la Corte, Meta señaló lo siguiente:
“[…] es posible restaurar una cuenta de Instagram al mismo estado en el que se encontraba en el momento en que fue desactivada, siempre y cuando el proceso de eliminación de Meta (según sus políticas de retención de datos) no haya comenzado. Una vez el proceso de eliminación comienza, es técnicamente imposible restablecer la cuenta o su contenido”.[268]
262. Meta indicó que no es posible proporcionar información sobre la cuenta @esperanzagomez porque esta “se eliminó permanentemente hace más de dos años de acuerdo con las políticas de retención de datos de Meta, previstas en sus Condiciones de Uso y Política de Privacidad”[269]. Al consultar el contenido de estas políticas, la Corte encontró que sólo se menciona el tiempo que toma eliminar la información de los servidores cuando un usuario o una usuaria pide el cierre de su cuenta. Al respecto, las Condiciones de Uso señalan que “el proceso de eliminación se iniciará automáticamente no más de 30 días después de que envíes la solicitud”. Posteriormente, la eliminación definitiva del contenido puede demorar hasta 90 días de ser eliminado en los servidores de Meta, y 90 días más para ser borrado de las copias de seguridad y sistemas de recuperación de desastres de Meta[270]. Es decir que la eliminación de una cuenta por el usuario puede tardar 210 días.
263. En cambio, no hay información sobre la eliminación de cuentas por decisión de Meta. Las Condiciones de Uso de Instagram señalan que Meta puede “eliminar cualquier contenido o información que compartas en el Servicio si consideramos que infringe estas Condiciones de uso o nuestras políticas”[271]. Sin embargo, no informan sobre el tiempo de preservación de la información alojada en cuentas inhabilitadas o canceladas por decisiones relacionadas con la moderación de contenidos.
264. Por su parte, la Política de Privacidad de Meta señala que la compañía conserva la información de sus usuarios “durante el tiempo que sea necesario para ofrecer sus “productos, cumplir con obligaciones legales y proteger nuestros intereses o los de los demás”. Además, según Meta, la decisión sobre “el tiempo necesario” de conservación de la información se toma “en función de cada caso particular”[272] y en atención a varios criterios como “prevenir daños; investigar posibles infracciones de nuestras condiciones o políticas; fomentar la seguridad, la integridad y la protección; o protegernos, lo que incluye nuestros derechos, propiedades o productos”[273].
265. En relación con las nuevas cuentas, la Corte considera que su existencia no indica un hecho superado. Efectivamente, estas cuentas fueron abiertas por la accionante después de la eliminación de su cuenta anterior, sin la posibilidad de recuperar la masa de seguidores que alcanzó a acumular en su cuenta @esperanzagomez. En las cuentas @soyesperanzagomez y @yoesperanzagomez alcanzó a tener poco más de 600.000. La última permanece abierta. En estas circunstancias, la Corte no observa que hayan cesado por completo las conductas que la accionante le atribuye a Meta, porque no se restituyó la cuenta @esperanzagomez con sus respectivos seguidores ni cesó la eliminación de contenidos y cuentas a nombre de la accionante.
266. Con base en estas consideraciones y el material probatorio aportado por las partes, la Corte estima que dado el tiempo transcurrido desde la inhabilitación de la cuenta @esperanzagomez hasta la fecha de elaboración de esta providencia (más de dos años), es altamente probable que su contenido haya sido eliminado definitivamente. Sin embargo, observa también que esta conclusión depende de unas premisas vagas, que son las que ofrece la respuesta de Meta Platforms, Inc. y que, por su carácter técnico son difíciles de controvertir por parte de la accionada y, en general, de cualquier persona externa a la plataforma. Es opaca porque no existe una regla para la decisión de borrar las cuentas adoptada por Meta Platforms, Inc.; porque la duración del proceso depende según las necesidades (una expresión notablemente vaga) de la compañía; y porque Meta indica, sin mayores detalles, que el proceso varía de caso a caso.
267. Como la tecnología y su discurso especializado no podría ser válidamente un motivo para la ausencia de una protección a los derechos fundamentales en las redes, la Corte admitirá, prima facie, la respuesta de Meta. Sin embargo, retomará este punto al momento de analizar el caso concreto, debido a que, con base en el mismo argumento, Meta ha omitido remitir información solicitada por la Corte Constitucional y que puede ser relevante, tanto para el análisis de la tensión de derechos propuesta, como para definir los remedios judiciales a adoptar, con miras a una gobernanza más transparente cuando las decisiones de la empresa tienen la potencialidad de violar derechos fundamentales
268. En este orden de ideas, la Corte declarará la carencia actual de objeto por daño consumado. Sin embargo, de conformidad con las reglas jurisprudenciales establecidas para estos casos, abordará el estudio de fondo toda vez que es necesario pronunciarse sobre el contenido objetivo de los derechos en discusión y porque, de encontrar probadas las presuntas vulneraciones alegadas por la accionante, habrá de emitir órdenes para evitar la repetición de los hechos y para que cesen las actividades potencialmente contrarias a la Constitución frente a la cuenta actual que la accionante tiene en Instagram.
269. Entre marzo y mayo de 2021, la demandante experimentó la eliminación de múltiples publicaciones suyas de la red social Instagram, hasta el 16 de mayo del mismo año, cuando su cuenta con más de 5.7 millones de seguidores fue inhabilitada. Sobre este hecho no hay ningún desacuerdo entre las partes. En efecto, tanto la peticionaria como Meta Platforms, Inc. coinciden en que dicha cuenta fue suspendida en la fecha mencionada. Asimismo, ambas coindicen ––desde un punto de vista formal–– en las razones que condujeron a la eliminación del contenido y las cuentas: una presunta infracción de dos políticas de las Normas Comunitarias de Instagram, en especial, la relativa a la desnudez y actividad sexual de adultos, por un lado, y la de oferta de servicios sexuales entre adultos, por otro.
270. En cambio, el desacuerdo material de las partes radica, por un lado, el etiquetado de las publicaciones como violatorias de las normas sobre desnudez y servicios sexuales de adultos, y por otro, en la forma en que se aplicó el procedimiento de moderación de contenidos.
271. Respecto del primer asunto (etiquetado), la demandante argumentó que hay una suerte de persecución en su contra por actividades que desarrolla offline. En concreto, indicó que Meta la discrimina por las actividades de pornografía que desarrolló fuera de la red social Instagram, y añadió que la conducta de Meta la afecta por el hecho de ser mujer, pues recae un estigma sobre las mujeres que se dedican a ese tipo de actividades. En la sesión técnica de noviembre de 2022, la accionante señaló que en 2021 su cuenta fue objeto de una oleada de denuncias y que es posible que por esa razón fuera eliminada.
272. La accionante, además, indicó que la persecución en su contra se evidencia por el hecho de que perfiles falsos subieron fotos suyas a Instagram, pero al recibir denuncias sobre dichas fotografías publicadas en perfiles falsos, la red social respondió que no infringían sus normas comunitarias.
273. Meta se opuso a estas afirmaciones, con el argumento de que sus normas son aplicadas a cualquier persona que infrinja las disposiciones de sus normas comunitarias de forma consistente, y que cuenta con mecanismos que evitan la reproducción de sesgos de género.
274. Frente al proceso de remoción y eliminación de su cuenta, la accionante señaló que en múltiples ocasiones buscó controvertir la eliminación de su(s) cuenta(s), sin obtener respuestas de fondo por parte de Meta. Aseguró también que siempre le indicó la razón y la potencial consecuencia de subir material que infringe las normas comunitarias, por lo que no cabe cuestionar el proceso adelantado por los moderadores de contenido, el cual califica de transparente.
275. Además de estos dos asuntos centrales, manifestaron posiciones encontradas sobre las consecuencias de las decisiones de moderación de contenidos en este caso. La accionante señaló que la eliminación de su cuenta le causó un grave perjuicio en el ejercicio de varios de sus derechos fundamentales, especialmente su derecho al trabajo y al mínimo vital y móvil porque, con dicho acto, se afectaron por completo los ingresos que recibía por cuenta de su actividad como influenciadora en Instagram. Por su parte, para Meta esta discusión es de naturaleza puramente económica y no se relaciona con el ejercicio de derechos fundamentales, por lo que la demandante debería llevar su caso a instancias civiles.
276. Para resolver la controversia planteada por las partes, la Sala Primera de Revisión, primero, describirá el contenido y alcance de las normas comunitarias o reglas de la casa de Instagram que fueron aplicadas en este caso, es decir, aquellas relacionadas con la publicación de desnudos y la de ofertar de servicios sexuales entre adultos. Segundo, y aunque hoy Meta ha establecido cambios en los procesos de moderación de contenidos, la Corte reseñará el procedimiento que aplicaba la compañía a las publicaciones y cuentas que consideraba infractoras de las políticas de Instagram al momento en que se eliminó la cuenta de la demandante. Es con base en esas reglas, que la Corte podrá evaluar si la conducta de Meta fue o no arbitraria. En tercer lugar, la Corte definirá entonces si las normas y procedimientos aplicados al caso de la demandante fueron o no legítimos a la luz del ordenamiento constitucional colombiano.
277. Cuando una persona crea una cuenta en el servicio de Instagram, debe aceptar las Condiciones de Uso y las políticas de Instagram, dentro de las cuáles se encuentran las Normas Comunitarias. Estas últimas son definidas por Meta Platforms, Inc., compañía multinacional que administra varios servicios de redes sociales que incluyen Facebook, Instagram y WhatsApp.
278. A continuación, se presenta el contenido de las Condiciones de Uso y de las Normas Comunitarias con base en las cuales se establecen los comportamientos permitidos y prohibidos en Instagram, en su versión vigente al momento de la eliminación del contenido y la cuenta de la accionante[274].
279. Las Condiciones de Uso de Instagram (en adelante “las condiciones”) “rigen el uso que haces de Instagram”[275]. Al ser Instagram un servicio prestado por Meta Platforms, Inc., las condiciones indican que constituyen un acuerdo entre la persona usuaria y la compañía. Según las condiciones, Instagram es un servicio que ofrece la posibilidad de crear distintos tipos de cuenta de acuerdo con las necesidades de cada usuario, y en el que predomina la creación de contenidos de naturaleza gráfica, fotográfica y audiovisual. Dentro de sus principales productos se encuentra (i) el perfil individual, donde cada usuario puede publicar su contenido y sobre el cual puede disponer distintas restricciones (por ejemplo, cuentas privadas, públicas, o semiprivadas con restricciones de edad); (ii) el feed, es decir, la posibilidad de agrupar en un espacio centralizado toda la información publicada por las cuentas a las que se sigue y que funge como una suerte de página de inicio; (iii) las historias, es decir, los contenidos que tienen una visibilidad limitada en el tiempo, y respecto de las cuales el titular puede imponer restricciones de visualización, por ejemplo, a las personas consideradas como ‘amigos cercanos’; y (iv) los reels, que consisten en cortos audiovisuales que se pueden ver repetidamente.
280. Para compartir contenidos, las personas pueden valerse de varios recursos, como los filtros sobre los videos o las fotografías, los emojis, canciones de fondo, etiquetas, entre muchos otros, para la edición del material gráfico, fotográfico y audiovisual. En términos generales, el servicio de Instagram busca hacer visibles cosas que son importantes para las personas, como su estilo de vida, su familia, las marcas y productos que siguen, sus intereses personales, entre otras cosas. Asimismo, las personas pueden establecer modelos de negocio a través de Instagram creando contenido como influenciadores. Instagram permite la interacción de todos esos intereses, aunque, como señalan las condiciones, Meta crea:
“sistemas que intentan entender quiénes o qué cosas te interesan y les interesan a los demás, y usamos esa información para ayudarte a crear, encontrar, unir y compartir experiencias que te resulten relevantes. Parte de esto consiste en destacar el contenido, las funciones, las ofertas y las cuentas que te pueden interesar, y ofrecerte formas de experimentar Instagram en función de lo que tú y otras personas hacen tanto dentro como fuera de Instagram”.[276]
281. En las condiciones, Meta establece qué requisitos debe cumplir una persona para tener una cuenta en su servicio de Instagram: (i) ser mayor de 13 años, (ii) no debe habérsele prohibido el uso de redes sociales en virtud de la aplicación de leyes nacionales; (iii) no haber sido objeto de inhabilitaciones de cuenta antes por violación de la ley o de las políticas de Instagram; y (iv) no haber sido declarado responsable por delitos sexuales. Además, las condiciones establecen 9 prohibiciones sobre el uso de la plataforma. Los usuarios no pueden suplantar la identidad de otra persona ni proporcionar información falsa o incorrecta; realizar actividades ilegales, fraudulentas o engañosas; infringir las condiciones ni las políticas de Instagram, que incluyen las normas comunitarias, las normas sobre privacidad, las normas sobre propiedad intelectual y las normas sobre uso de música; entorpecer el funcionamiento del servicio a través de apelaciones sin fundamento o denuncias por contenido prohibido fraudulentas; publicar información privada o confidencial de otra persona sin autorización expresa de la otra persona; entre otras.
282. Por su parte, las Normas Comunitarias de Instagram (en adelante “las normas comunitarias”), buscan garantizar que Instagram “siga siendo un lugar auténtico y seguro en el que los usuarios puedan encontrar inspiración y expresarse”. Instagram les pide a sus usuarios “fomentar esta comunidad”, de manera que les exige publicar “solo fotos y videos propios [que cumplan] la ley en todo momento”. Asimismo, les pide respetar “a todos los usuarios de Instagram; no les envíes spam ni publiques desnudos”[277]. Según Meta, “[e]l incumplimiento de estas normas puede provocar la eliminación de contenido, la inhabilitación de la cuenta u otras restricciones”[278]. Esta eliminación, dice Meta, comienza por un análisis del valor de interés público de la información publicada, una evaluación del riesgo de daño y, según la compañía, toman “una decisión en función de normas internacionales de derechos humanos”[279].
283. Las normas comunitarias establecen 7 mandatos básicos para los usuarios de Instagram, según las cuales, ellos sólo pueden compartir contenido sobre el que sean propietarios; deben publicar contenido que sea apropiado para un público diverso; deben cumplir la ley, tanto de su país de origen como del territorio donde se haga uso de la plataforma. En particular, no puede publicarse contenido que contenga imágenes sexuales con menores, imágenes íntimas de otros usuarios publicadas sin su consentimiento, las imágenes de grupos terroristas y la oferta de servicios sexuales de adultos; los usuarios deben respetar a otros usuarios, de manera que no puede publicarse contenido discriminatorio o que incite al odio. Se prohíbe la publicación de contenidos que amenaza la seguridad pública o las amenazas de violencia contra personas; contenido que induzca a las autolesiones; los usuarios deben ser cautos y reflexionar sobre el contenido de interés público o noticioso que publican, de manera que no pueden circular imágenes o videos que contengan manifestaciones gráficas o explícitas de violencia, o que puedan incitarla.
284. Las reglas con base en las cuales se restringe o elimina contenido, según Meta, buscan proteger uno de cuatro valores: (i) autenticidad, es decir, que las personas y contenidos que circulan en la red social no se presenten de forma engañosa; (ii) seguridad, que implica eliminar contenidos que puedan dañar físicamente o intimidar, excluir y silenciar a otras personas; (iii) privacidad, que busca proteger los datos personales de las personas; y (iv) dignidad, que busca proteger la igualdad de derechos de las personas que participan en la comunidad digital.[280] Allí, los desnudos y la actividad sexual de adultos son calificadas como “actividad cuestionable”, al igual que la oferta de los servicios sexuales.
285. Frente a los desnudos, las normas comunitarias indican que, si bien el equipo de Instagram reconoce el deseo de las personas de “compartir imágenes de desnudos de carácter artístico o creativo”, por distintos motivos no se permite la publicación de desnudos en esa plataforma. En particular, permitir que Instagram sea accesible a públicos diversos. Las normas comunitarias detallan algunos contenidos prohibidos, en los siguientes términos:
“Esta restricción se aplica a fotos, videos y determinado contenido digital que muestren actos sexuales, genitales y primeros planos de nalgas totalmente al descubierto. También incluye fotos de pezones femeninos descubiertos, pero se permiten imágenes en los contextos de lactancia, parto y posparto, en situaciones relacionadas con la salud (por ejemplo, posmastectomía, concientización sobre el cáncer de mama o cirugía de confirmación de sexo) o como acto de protesta. También se aceptan desnudos en fotos de cuadros y esculturas”.[281]
286. Por su parte, el Centro de Transparencia de Meta expone las razones de la política sobre desnudos y actividad sexual de adultos en detalle, y las conductas expresamente prohibidas[282]. Según el Centro de Transparencia, los desnudos y las imágenes que contengan actividad sexual entre adultos se restringen porque “este tipo de contenido puede resultar sensible para algunas personas de nuestra comunidad”. Asimismo, “de forma predeterminada eliminamos imágenes sexuales para evitar que se comparta contenido sin permiso o de menores de edad”[283]. Estas normas incluyen una serie de imágenes prohibidas y otras que sólo pueden ser visibles para mayores de 18 años. Dada la extensión del documento, se presenta un esquema del contenido de esta política[284].
Tabla 4. Esquema de la política de desnudos y actividad sexual de adultos de Meta.
Regla |
Tipo de desnudos |
Detalle |
Contenido prohibido |
Imágenes de desnudos de adultos reales |
Genitales visibles salvo: parto y postparto, situaciones médicas, confirmación de sexo, examen de cáncer, prevención de enfermedades, actos de protesta. |
Imágenes de actividades sexuales |
Actividad y estimulación sexuales explícitas en genitales o zonas erógenas. |
|
Actividad y estimulación sexuales implícitas,
excepto en contextos |
La actividad sexual o el contacto no son directamente visibles. Estimulación implícita de los genitales con artefactos o contacto corporal que no es visible. |
|
Contenidos digitales que se ajusten a la definición de Meta de actividad sexual |
Sólo se señalan excepciones a la regla, como: actividad sexual no visible; contexto satírico o humorístico; contexto científico o educativo; imágenes no detalladas o cuerpos no visibles. |
|
Contenido restringido para menores de 18 años |
Arte del mundo real que representa actividad sexual; actividad sexual implícita en anuncios; actividad sexual implícita en imágenes ficticias reconocidas; contenidos digitales que se ajustan a la definición de Meta de actividad sexual (actividad sexual no directamente visible; publicación en contexto satírico o humorístico; sólo son visibles contornos o formas corporales). |
287. Por su parte, las restricciones sobre servicios sexuales son identificadas en las normas comunitarias como una potencial infracción a la ley y como una manifestación del deseo de Meta de evitar el uso de la plataforma para la explotación sexual. En el Centro de Transparencia de Meta se especifica que, aunque la compañía es consciente de que sus plataformas son utilizadas para llamar la atención sobre debates relativos a la explotación sexual y la regulación del trabajo sexual, la empresa traza una línea respecto de las actividades que considera “facilitan, favorecen o coordinan encuentros o servicios sexuales comerciales entre adultos”[285]. El objetivo de esta regulación es, en principio, “imposibilitar transacciones que pudieran involucrar trata, coerción y actos sexuales no consensuados”[286]. Además, también hay una justificación relacionada con la expansión del modelo de negocio de Meta en los siguientes términos: “algunos públicos de nuestra comunidad internacional pueden ser sensibles a este tipo de contenido y podría impedir que las personas se conecten con sus amigos y el resto de la comunidad”[287].
288. Ahora bien, las normas vigentes a febrero de 2021, antes de que se produjera el cierre definitivo de la cuenta de la accionante, establecen varias reglas que se indican a continuación[288].
Tabla 5. Conductas prohibidas por Meta en relación con servicios sexuales.
Conductas prohibidas |
Detalle |
Intento de coordinar servicios sexuales comerciales para adultos o actividades de prostitución |
Solicitar, ofrecer o pedir tarifas por servicios de acompañamiento y servicios sexuales fetichistas o de dominación de pago |
Intento de coordinación o reclutamiento para actividades sexuales para adultos |
Actividades sexuales filmadas; actividades pornográficas, espectáculos en clubes de striptease, actuaciones sexuales en directo, bailes eróticos; masajes sexuales, eróticos o tántricos. |
Solicitación sexual explícita |
Sexo o parejas sexuales; chat o conversaciones sexuales; fotos/vídeos/imágenes de desnudos. |
Contenido que implícita o indirectamente ofrezca o solicite sexo |
Criterio 1: Ofrecer o pedir. El contenido ofrece o pide de forma implícita o indirecta* (normalmente proporcionando un método de contacto) una proposición sexual; imágenes de desnudos; sexo o parejas sexuales; conversaciones por chat sobre sexo.
Criterio 2: elementos sugerentes. El contenido hace la oferta o la petición mencionada utilizando emojis, jerga regional sexualizada, menciones o representaciones de actividad sexual, imágenes reales con desnudez cubierta por partes humanas; poses. |
Una oferta o petición de material pornográfico |
Compartir enlaces a sitios web pornográficos externos; Lenguaje sexualmente explícito que entra en detalles gráficos más allá de la mera referencia a (i) un estado de excitación sexual; (ii) un acto sexual. |
289. Una lectura panorámica sobre las circunstancias que llevan a la eliminación de contenidos por la violación de las normas relacionadas con la desnudez, la actividad sexual de adultos y los servicios sexuales sugiere que aquellas persiguen al menos dos objetivos: por un lado, evitar la salida de la plataforma de audiencias que puedan considerar contenidos sexualmente explícitos como un disuasor para permanecer en la red social. Esto, a su turno, obedece a la necesidad descrita en las consideraciones relacionada con la ampliación del modelo de negocios de las plataformas. Por otro lado, buscan evitar la circulación de contenidos que puedan ser potencialmente dañinos para menores de edad y para otros individuos en condiciones de explotación sexual.
290. En particular, respecto de la política sobre servicios sexuales, es claro que Meta busca evitar que Instagram se convierta en un espacio para facilitar el comercio y los encuentros sexuales de cualquier tipo. Es decir, Meta considera indeseable que su plataforma sea un puente para actividades como la pornografía y la prostitución.
291. Vistos los elementos normativos que componen las reglas de la casa de Instagram, se procederá a describir el procedimiento de moderación de contenidos aplicado por la accionada con base en estas políticas.
292. Para el momento de los hechos de este caso, y según lo indicado por Meta en el proceso, Instagram tenía distintos mecanismos para evitar la publicación de contenidos que, por una razón u otra, violan sus normas comunitarias o reglas de la casa. En una captura de pantalla anexa a la contestación, se ven las reglas generales sobre lo que Meta llama la “aplicación de políticas” (enforcement en inglés). Estas reglas muestran dos pasos o elementos esenciales que en su conjunto comprenden el proceso de moderación de contenidos tanto de Facebook como de Instagram: (i) detección de infracciones y (ii) adopción de medidas frente al contenido infractor. La descripción que sigue corresponde al procedimiento de moderación de contenidos vigente al momento de la eliminación de contenido y de la cuenta de la accionante.
(i) Detección de contenido infractor
293. El procedimiento de detección de contenido infractor en Instagram se compone de “una combinación de revisión humana y tecnología”[289]. Los procedimientos de revisión automatizada o de IA operan de varias formas en la moderación de contenidos en Instagram. Pueden eliminar directamente millones de piezas de contenido flagrantemente infractor, o pueden señalar o ‘marcar’ cierto contenido como potencialmente trasgresor de las normas comunitarias para que, posteriormente, un revisor humano constate si efectivamente procedía o no la eliminación del contenido[290].
294. Según Meta, las herramientas de inteligencia artificial detectan y remueven “la gran mayoría de contenido infractor antes de que alguien lo reporte”[291]. Para hacerlo, el equipo de inteligencia artificial de Meta crea modelos de aprendizaje de máquina “que puedan adelantar tareas como reconocer qué es una foto o comprender un texto”[292]. Posteriormente, los equipos de integridad, que establecen los parámetros para definir las normas comunitarias y su aplicación, “avanzan en el desarrollo de modelos más específicos que puedan hacer predicciones sobre personas y contenidos”[293], que posteriormente sirven para hacer cumplir las normas de Meta. En tal sentido, señala la accionada, hay un modelo de IA que, por ejemplo, “predice si una pieza de contenido es discurso de odio o contenido violento o gráfico. Un sistema separado -tecnología de enforcement- determina si tomar acciones como eliminar, degradar o remitir a revisión adicional de un humano”[294].
295. Durante ese proceso, las IA se entrenan a partir de la repetición y con apoyo de seres humanos. En ese sentido, cada IA se especializa en una política particular. Por ejemplo, unas se encargan de detectar fotos en las que hay desnudos, y otras, en entender textos que podrían contener mensajes de odio. De este modo, cuando se echa a andar un nuevo mecanismo de IA, la confirmación posterior de las decisiones por seres humanos se va integrando a su conjunto de conocimientos. Así, “con el tiempo -después de aprender de miles de decisiones humanas- la tecnología de vuelve más acertada”[295]. En todo caso, y dado que estas políticas están cambiando constantemente, según Meta, hay procesos graduales y continuos de entrenamiento tanto a la tecnología como al equipo de revisores humanos[296]. Sobre el asunto, además, la accionada señaló que “la información relacionada con una persona obtenida de búsquedas en línea (es decir, fuera de las plataformas de Meta) no forma parte de los datos de entrenamiento para las herramientas tecnológicas de moderación de contenido de Meta”[297].
296. Respecto de los y las revisores humanos, en este proceso la accionada señaló que cuenta con un equipo de más de 40.000 personas dedicadas a la seguridad de la plataforma. De éstos, 15.000 se dedican específicamente a la revisión de contenido en todo el mundo “por lo puede (sic) revisar los reportes en todas las zonas horarias 24 horas al día, 7 días a la semana. Los equipos de revisión de contenido trabajan en más de 70 idiomas”[298]. Según la accionada, estos revisores de contenido humano son trabajadores de tiempo completo, con distintos niveles de formación profesional, que provienen de múltiples entornos sociales y culturales, y que, además, reciben un entrenamiento amplio para “para garantizar que conozcan bien las políticas, los fundamentos de estas y cómo aplicarlas con precisión y otros conceptos como los derechos humanos”[299].
297. El equipo humano se dedica principalmente a revisar contenidos cuya clasificación resulta difícil para las herramientas de IA, es decir, cuando la identificación de las potenciales infracciones es más difícil porque el mensaje es confuso, el lenguaje complejo o las imágenes muy dependientes del contexto[300]. Meta utiliza tres criterios de priorización para remitir contenidos a revisores humanos: (i) severidad; (ii) viralidad; (iii) probabilidad de que se trate de contenido infractor[301]. En tal sentido, hay cada vez menos seres humanos envueltos en la revisión de los contenidos potencialmente violatorios, pues su trabajo se concentra en lo que puede calificarse como casos difíciles para la máquina.
298. Como puede observarse, hay una relación casi circular entre la moderación automatizada y la moderación hecha por humanos. En efecto, la moderación hecha por IA se perfecciona en la medida en que aprende con las decisiones tomadas por humanos. Dicho perfeccionamiento, a su turno, facilita el trabajo de las personas, quienes pueden dedicarse a resolver casos más complejos. Esta circularidad ha despertado cuestionamientos hacia Meta relacionados con la posibilidad de que los sesgos discriminatorios de los moderadores humanos se incorporen a las herramientas de IA[302]. Por esta razón, desde el 2023, Meta creó un equipo multidisciplinario denominado Responsible AI (IA Responsable), que busca “desarrollar directrices, herramientas y procesos para abordar las cuestiones de responsabilidad de la IA y ayudar a garantizar que estos recursos sistémicos estén ampliamente disponibles en todo Meta”[303].
299. Ahora bien, los moderadores humanos pueden tener diferencias de juicio a la hora de resolver sobre la compatibilidad de un determinado contenido publicado en los servicios de Meta. Dichas discrepancias se derivan, en muchas oportunidades, de la vaguedad de las disposiciones o de su generalidad. Además, los moderadores de contenido usualmente hacen su trabajo en unas condiciones sumamente precarias, expuestos “a lo peor de la naturaleza humana con una imagen o un vídeo perturbador a la vez”[304].
300. En todo caso, según Meta, la empresa implementa regularmente medidas que consisten en tomar una muestra de decisiones relacionadas con alguna política en particular para evaluar qué tan consistente es su aplicación y, de ser necesario, corregir mediante los procesos de formación que se adelantan con los moderadores humanos[305]. Asimismo, afirman haber implementado un esquema de bienestar para estos trabajadores[306].
(ii) Acciones sobre contenido infractor detectado
301. Después de la detección del contenido infractor, Meta toma acciones. Ellas se guían, según esta compañía, por tres principios: remover, reducir e informar. El primero y más importante consiste en retirar los contenidos señalados como infractores de la plataforma. Cuando un contenido se elimina por violar las normas comunitarias, Meta lanza un aviso que le indica al usuario que su contenido ha sido removido por violar las normas comunitarias, usualmente indicando cuál política en particular fue infringida. Además, estos avisos suelen contener botones de reclamo que una vez accionados, en principio, permiten cuestionar la decisión de remoción[307].
302. Además de lo anterior, para el momento en que ocurrieron los hechos objeto de controversia, Meta informó contar con un sistema de strikes o faltas acumulativas, que busca sancionar la reincidencia en las infracciones[308]. Según Meta, cuando un contenido es eliminado por infringir las normas comunitarias, es probable que se aplique un strike. En todo caso, es posible que en una sola oportunidad se elimine mucho contenido y que ese acto de eliminación cuente como un strike. Esta decisión, sostiene la accionada, “depende de la severidad del contenido, el contexto en el que fue compartido y cuándo fue publicado”.[309]
303. La acumulación de strikes por la violación repetida de las normas comunitarias puede conducir a la aplicación de restricciones cuya severidad, en principio, aumenta gradualmente. Sin embargo, Meta aclaró que el sistema de restricciones graduales a ciertas herramientas como la capacidad de posteo o la visibilidad, aplican sólo al servicio de Facebook, pese a que en Instagram también se cuentan strikes. Es decir, al menos hasta el momento, el Centro de Transparencia de Meta sólo ofrecía claridad sobre la gradación de los strikes para el servicio de Facebook, por lo que no es posible saber si las mismas consecuencias aplicaban para Instagram, o si se trata de un sistema diferente[310].
304. En cualquier caso, Meta señaló que la recurrencia conduce a la inhabilitación de las cuentas, tanto en Facebook como en Instagram. Al respecto, la accionada indicó que después de 5 strikes la persona podría recibir restricciones para crear contenido de 30 días adicionales, o se podría remover su cuenta, dependiendo de la severidad y la frecuencia de las violaciones[311]. La inhabilitación de las cuentas también se acompaña de un mensaje y un enlace con la posibilidad de controvertir la decisión. Esto, con el fin de que las personas cuenten con una suerte de recurso para que Meta revise de nuevo la pertinencia de la inhabilitación de la cuenta.
305. Además del aviso y el enlace, la apoderada de Meta indicó lo siguiente:
“Como alternativa, los usuarios pueden rellenar el formulario “Se desactivó mi cuenta de Instagram” en el Centro de Ayuda de Instagram. Al utilizar esta función, los usuarios deben proporcionar su nombre completo, la dirección de correo electrónico asociada a su cuenta, el nombre de usuario de su cuenta de Instagram, el número de móvil asociado a su cuenta y una descripción que explique por qué apelan la decisión de desactivar permanentemente su cuenta. Meta investigará e informará al usuario con una decisión final”.[312]
306. Por último, la reducción supone limitar la visualización de ciertos contenidos o cuentas que se restringen por incurrir en varias infracciones. A su turno, el principio de información consiste en mostrar avisos a los consumidores de los servicios de Meta para que tengan claro que hay contenidos que, si bien no violan las políticas comunitarias, pueden ser perjudiciales. Por ejemplo, contenido no apto para menores de edad o imágenes sensibles o gráficas.
307. Como se indicó en el inicio de esta providencia, Meta creó en 2021 un Consejo Asesor conformado por expertos independientes en libertad de expresión y derecho digital. Este Consejo Asesor tiene dos facultades: (a) conocer de apelaciones por el ejercicio de la facultad amplia de moderación de contenidos; y (b) emitir recomendaciones generales a Meta sobre su regulación en temas puntuales. Para que una persona pueda acceder a la apelación, debe cumplir 4 requisitos: (i) tener una cuenta activa en el servicio de Instagram o de Facebook, es decir, la cuenta no puede estar inhabilitada o su acceso restringido; (ii) debe contar con una decisión final por parte de Instagram o Facebook en relación con el contenido señalado como infractor; (iii) debe tener un número de referencia de caso que indique que efectivamente Meta ya tuvo la posibilidad de revisar el caso; y (iv) debe presentar la solicitud de apelación dentro de los 15 días siguientes a la adopción de la decisión definitiva por parte de Meta.[313] Todo este proceso está disponible exclusivamente en inglés.
308. A partir de las consideraciones antes expuestas relacionadas con las normas comunitarias de Meta sobre desnudos y servicios sexuales vigentes para el momento en que se cerró la cuenta de la accionante, así como el proceso de moderación de contenidos aplicable a contenidos infractores, la Sala resolverá el caso concreto. Para ello, en los siguientes cuatro acápites, la Corte analizará si, en el caso concreto, la accionada vulneró el derecho a la libertad de expresión, el derecho al debido proceso, el derecho a la igualdad, el derecho al trabajo y a la libertad de escoger oficio de la peticionaria.
309. Para estudiar la aplicación del proceso de moderación de contenidos a la cuenta de la accionante, la Corte pasará a analizar el derecho a la libertad de expresión en conjunto con el debido proceso y la igualdad. Posteriormente, estudiará la potencial vulneración de la libertad de escoger profesión u oficio y el derecho al trabajo.
(i) Derecho a la libertad de expresión, al debido proceso y a la igualdad
310. Según se indicó en las consideraciones de esta providencia, para analizar si un intermediario de redes sociales que ejerce su facultad amplia de moderación de contenidos viola o no la libertad de expresión de los usuarios a quienes sanciona, corresponde evaluar: (i) la naturaleza del contenido publicado, es decir, si se trata de un discurso prima facie protegido por la libertad de expresión; y (ii) la calidad del sujeto, o sea, si su discurso admite restricciones por la posición social que ostenta o si, por el contrario, le asiste una protección reforzada.
311. Además, respecto del debido proceso y el derecho a la igualdad es necesario establecer: (i) que haya consistencia y sensibilidad contextual en la aplicación de las reglas comunitarias, es decir, que las normas se apliquen de forma uniforme a contenidos similares; (ii) que no haya una aplicación discriminatoria o contraria al derecho a la igualdad de las reglas comunitarias; (iii) que las normas de la casa se apliquen en maximización del derecho a la libertad de expresión cuando se trate de contenido potencialmente objetable pero no prohibido; (iv) que haya transparencia sobre las reglas comunitarias infringidas, los procesos de reclamación e impugnación de las decisiones, así como una comunicación formal, sencilla y accesible que redunde en una respuesta de fondo sobre las reclamaciones elevadas a los operadores de las redes sociales; y (v) que las sanciones sean advertidas de antemano a los usuarios, con detalle de las consecuencias que su aplicación puede acarrear.
312. En este contexto, la Corte desarrollará su análisis del siguiente modo. En primer lugar, valorará la naturaleza del contenido publicado por la accionante. En segundo lugar, se desarrollará el test tripartito de libertad de expresión sobre las restricciones impuestas a la accionante en Instagram. En tercer lugar, se evaluará si en dicho contexto se cumplieron o no las garantías del debido proceso y del derecho a la igualdad y no discriminación.
(ii) Naturaleza del contenido publicado por la accionante
313. En el estudio de posibles violaciones al derecho a la libertad de expresión, esta Corte señala que como punto de partida corresponde constatar quién comunica, respecto de quién se comunica y la forma en la que se comunica.
314. Quién comunica. Según la accionante, desde los 17 años se dedicó al modelaje en lo que denomina la industria mainstream, es decir, en la publicidad de productos de distinta índole en el mercado comercial regular. Desde 2009 y hasta el 2011, desarrolló actividades de pornografía, circunstancia que, como indica, la ha hecho ampliamente conocida a nivel nacional e internacional. Luego de este lapso, la actora señaló que participó sólo ocasionalmente en dichas producciones.
315. El 14 de febrero de 2014, la peticionaria abrió su cuenta de Instagram con el dominio @esperanzagomez. De acuerdo con lo que reseñó en su presentación ante la Corte Constitucional en la sesión técnica de noviembre de 2022, la creación de esta cuenta obedeció a su deseo de generar ingresos distintos a los que percibía por desarrollar actividades de pornografía[314].
316. Respecto de quién se comunica. En este caso, a diferencia de otros en los que se discute la posible vulneración de los derechos al buen nombre o a la honra de terceras personas sobre quienes versa el discurso, Esperanza Gómez Silva publicaba contenido sobre ella misma.
317. En efecto, en la sesión técnica celebrada en noviembre de 2022, la demandante señaló que, aunque al principio no tenía mucha experiencia en el manejo de redes sociales de este estilo, notó que varias mujeres compartían contenido, principalmente fotografías sobre su vida cotidiana, su estilo de vida, sus hábitos alimenticios y de cuidado personal, así como sus elecciones de indumentaria y rutinas de ejercicio[315]. Así, según informó a la Corte, decidió empezar a compartir este tipo de contenidos también. Al respecto, comentó que compartía imágenes sobre su vida cotidiana como cocinar, rutinas de entrenamiento y estilo de vida saludable, paseos con su perra, visitas a la playa y, ocasionalmente, contenidos sensuales en lencería, ropa interior o vestidos de baño.
318. El contenido compartido por la accionante estaba dirigido a otros usuarios de Instagram que la seguían en la plataforma, es decir, poco más de 5 millones de personas. En esa medida, los mensajes, fotografías y videos compartidos por la demandante estaban destinados a un público que los consideraba entretenidos o interesantes. Es esa comunidad en sí misma lo que hizo a la accionante atractiva para agencias y empresas que quisieron pautar sobre productos y servicios a través de su cuenta. La Corte entiende que la pérdida de su capacidad para interactuar frente a esa audiencia por la eliminación de su cuenta @esperanzagomez es lo que motivó la presentación de la tutela.
319. La forma en la que se comunica. La accionante insistió en este proceso que nunca compartió contenido sexualmente explícito o en el que apareciera completamente desnuda, en cumplimiento de lo dispuesto por las reglas de uso de Instagram. Sin embargo, indicó que sí publicó fotos sensuales, similares a las que comparten otras personas en dicha red. Esas fotografías, indicó la accionante en el proceso, le ayudaron a ganar más notoriedad en la red social y a conseguir más seguidores. A raíz de ello, empezó a ser contactada por importantes empresas para promocionar productos, entre ellas Netflix, Rappi, marcas de ropa interior y lencería y clínicas estéticas[316].
320. En su acción de tutela, la accionante aportó varias imágenes que, según afirma, fueron eliminadas en diferentes momentos durante el año 2021, cuando comenzó lo que califica como una persecución y un acoso en su contra en Instagram[317], por haberse dedicado offline a la pornografía. Como las fotos hacen parte del acervo probatorio, la Corte las describirá a continuación con el propósito de dilucidar su contenido.
321. En una foto aportada por la accionante, se la ve en compañía de otra mujer. Ambas están vestidas con ropa de lencería. En la imagen, la accionante mira hacia la cámara sonriente mientras que su compañera mira hacia abajo. Las mujeres están cerca y la señora Gómez tiene su mano sobre el abdomen de su acompañante. En la imagen se logran ver de perfil los glúteos de ambas mujeres. En otras tres fotos, se ve sólo a la accionante en ropa interior en su baño y cubriendo sus pechos con las manos, o tomando el sol con sus pechos cubiertos con lo que parece un pedazo de tela y pantalones cortos.
322. Además, en su pronunciamiento sobre la tutela, Meta compartió otras capturas de pantalla sobre publicaciones de la señora Gómez Silva que calificó como sexualmente explícitas o sugestivas[318]. Al estudiar el contenido de estas imágenes, la Corte encuentra lo siguiente:
· En ninguna de las imágenes se ven los genitales de la accionante ni se observa un desarrollo de actividades sexuales. En unas imágenes, la accionante aparece en un baño cubierta con una toalla y haciendo diferentes poses, y en otra con una bata.
· Al publicar las fotos, la señora Gómez Silva acompañó algunas de ellas con un texto que señalaba que, si ya la conocen, saben dónde encontrarla. La accionante también incluyó el hashtag “#humpingday”, una expresión coloquial en inglés que, en general, hace referencia al día miércoles o del medio de la semana, pero que, en algunos contextos, también puede entenderse como “día de sexo”[319].
· En una de las imágenes, la señora Gómez Silva citó la canción “Noche de Sexo” de los artistas de reguetón Wisin & Yandel.
323. Según Meta, en estas fotos la señora Gómez Silva “invita a los usuarios a mantener conversaciones sexuales en directo, lo cual constituye una oferta de servicio sexual”[320]. En efecto, la compañía sostuvo lo siguiente acerca de las leyendas con las que la accionante acompañó las fotos: (i) la cita de la canción de reguetón, para Meta “constituye lenguaje sexualmente explícito”[321], y (ii) las demás fotos y, en particular, la mención de que ya saben dónde encontrarla “implícitamente sugiere que los usuarios saben cómo contactarla, lo cual constituye una oferta de servicios sexuales”[322].
324. Contrario a lo señalado por Meta, la Corte en este caso concluye que, si bien las imágenes aportadas por las partes pueden ser sugerentes, en ninguna de ellas se ven los genitales de la accionante ni muestran actividades sexuales. Tampoco hay leyendas o comentarios de la accionante en las que invite a participar en actividades sexuales o a promocionar servicios sexuales de ningún tipo fuera de la plataforma. Para la Corte, incluso si al hashtag incluido en algunas fotos se le atribuyera un tono sexual, no sería razonable concluir que, por ese solo motivo, en las imágenes se mostraba una actividad sexual o se ofrecían servicios sexuales. Finalmente, en el proceso no se allegó ninguna imagen en la que la accionante promoviera actividades de pornografía o cualquier otra actividad sexual pagada con ella o con otra persona, o que remitiera a otros portales web para tercerizar servicios sexuales.
325. Las imágenes a las que tuvo acceso la Corte parecen ser, en principio, compatibles con las normas de desnudez y prohibición de ofrecer servicios sexuales entre adultos de Meta por las razones ya expuestas. Por lo tanto, en clave constitucional, la Corte considera que el contenido publicado por la accionante es un discurso que no es prohibido y, por lo tanto, hace parte del discurso protegido por la libertad de expresión, aunque pueda parecer chocante por su tono sensual y erótico[323]. Por lo tanto, estos contenidos para ser limitados, deben ser objeto de restricciones razonables y respetuosas de los estándares de derechos humanos[324].
326. Si bien es legítimo que una plataforma, en función de la imagen que desea proyectar y de los públicos a los que quiere dirigirse, restrinja la difusión de ciertos contenidos de carácter sexual, ello no autoriza a concluir que todas las mujeres que han trabajado en la pornografía deban ser, por ese solo hecho, excluidas de manera generalizada de dichos espacios. El hecho de que una persona desarrolle fuera de las redes sociales actividades vinculadas con la pornografía no implica que todas sus publicaciones, incluidas aquellas relacionadas con la difusión de su propia imagen, deban presumirse automáticamente como pornográficas o constitutivas de ofertas de servicios sexuales. Sostener lo contrario no solo desconocería la pluralidad de dimensiones que integran la vida de estas personas, sino que además contribuye a reforzar estereotipos y estigmas que históricamente han recaído sobre las mujeres que han ejercido, o ejercen, actividades de pornografía.
327. Eso no quiere decir, como ya se expresó, que la Corte desconozca que, en ciertos casos, personas inescrupulosas puedan usar una plataforma, incluso cumpliendo sus reglas de uso, para inducir a otros a acudir a otros espacios, o propiciar hechos delictivos, incluyendo de explotación sexual. Pero lo que se insiste es que no se puede presumir que, por el hecho de que una persona realice o haya realizado actividades relacionadas con la pornografía, necesariamente todas sus publicaciones estén dirigidas a inducir a otros a esta actividad o propiciar actividades al margen de la ley.
328. A la luz de estas consideraciones, y sobre el contenido de lo publicado por la señora Esperanza Gómez, según el acervo probatorio con el que cuenta la Corte, se concluye que la accionante: (i) si bien publicó un contenido que para ciertos públicos podría considerarse inapropiado, como por ejemplo los menores de edad, en todo caso no es un discurso que carezca de total protección a la luz de los estándares de la libertad de expresión; (ii) de dichas imágenes no se puede concluir que sea evidente un propósito de utilizar la cuenta de Instagram como un espacio para facilitar encuentros sexuales por fuera de la plataforma, promover la pornografía o incitar a la explotación sexual.
329. Por lo anterior, lo que corresponde es adelantar el test tripartito de libertad de expresión, para determinar si con el cierre de la cuenta se violó o no dicho derecho.
(iii) Aplicación del test tripartito
330. Como se indicó en las consideraciones generales, cuando existe una restricción de la libertad de expresión sobre un discurso que no está prohibido, es necesario establecer la compatibilidad de la restricción con la protección constitucional de ese derecho. Ese estudio se debe hacer a partir de la aplicación del test tripartito, que exige establecer si la medida (i) fue legal, es decir, previa, clara y concreta; (ii) perseguía un fin legítimo; (iii) fue idónea, necesaria y estrictamente proporcional. En este caso, la restricción a la libertad de expresión que se estudia es la eliminación del contenido y el cierre de la cuenta de Instagram de Esperanza Gómez Silva, la cual, como se estableció en la sección inmediatamente anterior, no contenía un discurso que, en principio, debiera considerarse prohibido.
331. Legalidad. El estudio de legalidad, propio del test tripartito de las restricciones a la libertad de expresión, enfrenta un serio desafío conceptual cuando se trata de la moderación de contenidos por parte de plataformas de Internet[325]. Para empezar, de acuerdo con la jurisprudencia reiterada de la Corte Interamericana de Derechos Humanos y de la Corte Constitucional, el principio de legalidad implica dos grandes garantías. La primera es que la fuente de la restricción sea la ley que, según la Corte IDH, debe ser dictada por el Congreso de la República.
332. Es importante hacer notar, que frente a la moderación de contenidos sería imposible de desarrollar el principio de legalidad con base en esta definición, que fue establecida sin tener el contexto del Internet en la mira. En efecto, el carácter transnacional y prácticamente global de la Internet desvanece las fronteras nacionales, al tiempo que la multiplicidad de contenidos que se difunden segundo a segundo, conduce al concepto de gobernanza en la red.
333. La necesidad de que las redes sean espacios seguros, la posibilidad de identificar noticias falsas, en especial, en tiempo electoral, los fenómenos de violencia a gran escala que se cuelan en los intersticios de la comunicación en redes, el matoneo, la inducción de autolesiones y la trata y uso sexual de niñas, niños y adolescentes son motivos suficientes para comprender esta necesidad. Sin embargo, la libertad de expresión es un derecho de especial fuerza normativa y la limitación de contenidos puede afectarlo con especial intensidad.
334. Una de las consecuencias de este concepto, además de la necesidad de que la construcción de una Internet segura sea un compromiso de diversos actores, implica también admitir que las plataformas ejercen, por su propia naturaleza un poder normativo sobre los usuarios, reflejado, en especial en las condiciones de uso y las reglas comunitarios, y en que la suscripción a una plataforma corresponde con la lógica de un contrato de adhesión.
335. Como este poder ya se ejerce y resulta imprescindible al menos en algunos de los ámbitos descritos, lo cierto es que el test tripartito, por lo menos por ahora, debe adecuarse a la manera en que funcionan las plataformas, siempre en el marco de la interpretación evolutiva de los tratados de derechos humanos. Cuando la moderación de contenido reproduce de manera precisa prohibiciones del derecho internacional de los derechos humanos, como la de difundir discursos de odio susceptibles de ser considerados delitos en la legislación interna de un Estado, resulta comprensible que la norma comunitaria se considere válida y que la propia plataforma adelante el procedimiento.
336. A medida que las reglas se extienden más allá de este tipo de materias, la situación se hace más compleja. La moderación podría servirse de un control judicial posterior o ser adoptada por un juez a instancias de la red, y, a su vez, otros principios del test tripartito, como la proporcionalidad, podrían alcanzar mayor relevancia. Esto significa que, si una potencial restricción a la expresión surge de las normas comunitarias, que no están amparadas por el principio democrático y la facultad de configuración del derecho del legislador, entonces el examen de su aplicación en sede judicial debería ser especialmente cuidadoso.
337. De acuerdo con el informe sobre esta materia de la Relatoría de Libertad de Expresión de la OEA, de 2024, debe exigirse especial precisión no solo en el contenido de este tipo de reglas, sino también en su aplicación, y las medidas de mayor intensidad deberían ser excepcionales. El estudio de legalidad exige entonces que las reglas definidas por las plataformas sean precisas, claras y que sean informadas previamente y accesibles, lo que implica que no se encuentren dispersas en diversos “micrositios”.
338. En este caso, al respecto es pertinente mencionar que, según el material probatorio aportado por las partes, a la accionante se le informó a través de varios avisos que su contenido sería eliminado por violar las políticas de desnudos y de servicios sexuales. En los avisos que conoció la Corte, se observa que, además del nombre de la política infringida, hay un botón de reclamo. Sin embargo, no hay más detalles en los avisos sobre el proceso para reclamar por las eliminaciones.
339. La Corte encuentra que las normas sobre desnudos y servicios sexuales entre adultos estaban publicadas en los sitios web y aplicaciones de Meta al momento de la eliminación de la cuenta, aunque con limitaciones de acceso pues no estaban incorporadas en el cuerpo de las Normas Comunitarias de Instagram, sino en otros sitios a los que se accede haciendo clic sobre los enlaces correspondientes. Lo mismo ocurre con las sanciones aplicables, que se describen de forma genérica en las Condiciones de Uso y en las Normas Comunitarias, pero cuya descripción más detallada se encuentra en múltiples enlaces agrupados en la sección sobre aplicación de políticas del Centro de Transparencia de Meta. Además, varias de estas normas están disponibles exclusivamente en inglés.
340. Frente al contenido de las Normas Comunitarias de Instagram y las políticas sobre desnudez adulta y servicios sexuales entre adultos, a primera vista parecen restricciones razonables a la libertad de expresión porque, entre otras, no se valen de categorías sospechosas de discriminación para definir qué conductas están o no permitidas en la plataforma. Tampoco establecen criterios de imposible cumplimiento para las personas usuarias y, además, contemplan excepciones a ejercicios de la libertad de expresión que gozan de especial protección, como imágenes sobre lactancia materna, prevención de cáncer de seno, expresiones artísticas o de protesta.
341. Sin embargo, hay algunas disposiciones vagas que pueden conducir al desconocimiento de derechos fundamentales. Al respecto, el punto cuarto de la Política se refiere al “contenido que implícita o indirectamente ofrezca o solicite sexo” con base en dos criterios concurrentes: (i) ofrecer y pedir sexo, imágenes sexuales, conversaciones por chat sobre sexo, entre otras; (ii) elementos sugerentes, como emojis que en dado contexto son sexualmente sugerentes o jerga regional sexualizada, menciones o representaciones sexualizadas, o poses[326].
342. La imposición de sanciones por el uso de elementos como los emojis sugerentes, la jerga regional sexualizada o las poses puede resultar insensible con ciertos entornos culturales en los que este tipo de cuestiones hacen parte de las conversaciones cotidianas de las personas. Además, puede profundizar el estigma sobre mujeres y minorías sexuales, a quiénes se suele aplicar un rasero mucho más estricto en esta materia. Debido a que se trata de un servicio de alcance global usado en contextos culturalmente diversos, como señalan los organismos de derechos humanos referidos en las consideraciones, es necesario que además de consistencia y transparencia, los intermediarios apliquen sus normas comunitarias o reglas de la casa de forma sensible al contexto.
343. En este caso, para la Corte, las políticas sobre desnudos y servicios sexuales adultos fueron preexistentes a la aplicación de las sanciones e imponen restricciones en principio legítimas. Sin embargo, estuvieron lejos de ser claras en la medida en que el aviso mostrado a la accionante sólo menciona la política general con base en la cual se borró su contenido (desnudez o servicios sexuales), pero no el punto concreto de la política presuntamente desconocido. Por otra parte, como se indicó, el detalle de la política no se encuentra en las Condiciones de Uso o en las Normas Comunitarias de Instagram, sino en el Centro de Transparencia y, para el momento en que se aplicaron las sanciones contra la accionante, estaban exclusivamente en idioma inglés. Es decir, no hace parte del contrato que suscribió la accionante a la hora de acceder a la red social o al menos no en su redacción principal, sino en sitios externos de complejo acceso. En suma, la norma es preexistente a los hechos e integra las denominadas normas comunitarias, pero se encuentra dispersa en distintos lugares de la plataforma y es relativamente indeterminada.
344. Ahora bien, esta es una dimensión del análisis relevante en lo que tiene que ver con la aplicación de una política de moderación de contenidos. La conclusión demuestra que se trata de un fundamento normativo comprensible, pero con problemas de legalidad, aún después de adecuar el concepto de la gobernanza en Internet. La otra dimensión consiste en determinar si el ejercicio de adecuación de los hechos en esta norma (relativamente vaga) fue razonable o no. Es decir, habla sobre la dimensión fáctica del asunto, pero se refleja en especial en el debido proceso.
345. Fin legítimo. La política sobre servicios sexuales entre adultos de Meta busca: (i) impedir la circulación de contenidos que faciliten, fomenten o coordinen encuentros o servicios comerciales entre adultos; (ii) evitar actividades que faciliten la trata, la coacción y los actos sexuales no consentidos; (iii) ampliar su base de usuarios a nivel mundial y a quienes el lenguaje sexualmente explícito les parezca un elemento disuasor. Por su parte, la política sobre desnudos, tiene como finalidades también (i) ampliar la base de usuarios de la plataforma; (ii) y evitar que se comparta contenido no consentido o de menores. Estos fines son legítimos y compatibles con la Constitución y los estándares de derechos humanos, pues encuentran justificación en la supremacía de derechos como el interés superior de los niños, niñas y adolescentes, la libertad e integridad personal, y la libertad de empresa.
346. La Corte considera que el establecimiento de las políticas mencionadas constituye un mecanismo idóneo para alcanzar estos fines, sobre todo al considerar la escala y dimensiones de lo que se publica en redes sociales como Instagram cada minuto. Sin embargo, en el caso concreto, la eliminación de los contenidos publicados por la accionante no satisfaría ninguno de los fines que persiguen las políticas de desnudos y prohibición de oferta de servicios sexuales entre adultos. En efecto, no es claro cómo la eliminación sistemática de sus contenidos y de su cuenta permitía evitar el uso de la plataforma para intercambios sexuales, facilitar la coacción sexual de otras personas o tercerizar servicios sexuales offline.
347. En efecto, el material fotográfico compartido por las partes, que corresponde a contenidos publicados con posterioridad a la eliminación de la cuenta @esperanzagomez, si bien puede ser calificado como sensual, erótico o sugerente, no podría razonablemente calificarse como un ofrecimiento de servicios sexuales entre adultos o como desnudos del tipo que sanciona Instagram.
348. Idoneidad y necesidad. Dado que no es claro cómo la eliminación de contenidos y de la cuenta de la accionante se articulaba con los fines legítimos que subyacen a las políticas sobre desnudos y servicios sexuales, tampoco es claro por qué la medida de eliminación era la más adecuada para cumplir dichos fines; en tanto que la medida de inhabilitación y posterior eliminación de la cuenta @esperanzagomez, era la medida disponible más gravosa para sancionar el contenido presuntamente infractor de la accionante.
349. Al respecto, cabe señalar que si bien la eliminación de contenidos es en abstracto apta para impedir el uso de la plataforma para tranzar con actividades sexuales -consentidas o no-, en el caso concreto no fue idónea. En efecto, las pruebas gráficas aportadas por las partes no muestran un contenido que de manera manifiesta viole las condiciones generales de permanencia en la red social Instagram y las condiciones específicas, es decir, las normas sobre desnudos y servicios sexuales.
350. En ese sentido, la Corte considera que en el caso concreto la aplicación de las sanciones señaladas no resultó idónea para proteger los fines legítimos de limitar la circulación de los desnudos y de actividades de servicios sexuales entre adultos, pues, aunque el contenido de la señora Gómez pueda ser leído como sugestivo por algunas audiencias, nada de lo que pudo conocer la Corte contiene desnudos prohibidos u ofrecimientos de servicios sexuales entre adultos. Meta tampoco ha aportado información o pruebas de la existencia de tales contenidos.
351. Ahora bien, para analizar la proporcionalidad de la medida, la Corte pasará a aplicar las reglas sobre debido proceso y derecho a la igualdad y no discriminación.
352. Meta alegó que Esperanza Gómez Silva violó las normas comunitarias de Instagram en al menos 31 oportunidades antes de que su cuenta @esperanzagomez fuera suspendida y después eliminada definitivamente de sus servidores. Según la compañía, la señora Gómez publicó contenidos que infringen su política de servicios sexuales adultos y de desnudos.
353. La Corte no cuenta con los elementos de convicción que permitan comprender con absoluta claridad cuáles fueron esas 31 infracciones, la política concreta con base en las que se decidió su eliminación, ni el trámite que se adelantó frente a las mismas. Este material probatorio fue solicitado en varias oportunidades por la Corte Constitucional sin éxito, pues como manifestó Meta en su respuesta al auto de pruebas de 29 de mayo de 2023, “no puede proporcionar copias de las 31 violaciones porque la cuenta fue eliminada permanentemente hace más de dos años de acuerdo con las políticas de retención de datos de Meta, previstas en sus Condiciones de Uso y Política de Privacidad de Instagram”[327].
354. En todo caso, en respuesta al auto de pruebas de 9 de octubre de 2023, Meta proporcionó dos capturas de pantalla del equipo de moderación de contenidos. En la primera, se observa una solicitud de revisión sobre 20 eliminaciones de contenido publicado por la accionante calificadas como prostitución, servicio sexual y desnudez, con fecha 14 de diciembre de 2021. En la segunda, se observa una conversación en la que se afirma que el contenido calificado como prostitución no constituía una infracción y que los demás sí[328].
355. La situación probatoria, incluida la ausencia de pruebas que deberían estar en cabeza de la accionada debido a su indiscutible posición privilegiada para el manejo de la información en Instagram, es la siguiente: mientras la accionante ha aportado distintos elementos para comprender que su contenido no podría ser calificado de manera razonable como un desnudo ni como una oferta de servicios sexuales entre adultos (en los términos de las políticas de Meta), Meta no ha aportado ninguna prueba en sentido contrario.
356. Como la acción de tutela se rige por el principio de informalidad, y el silencio de la parte accionada fortalece el relato de la parte accionante, la Corte concluye que, en realidad, no existían contenidos que pudieran conducir a la eliminación de la cuenta. Se llega a esta conclusión, al menos, a partir de las pruebas con las que dispone la Sala y de la ausencia de elementos de convicción que caracteriza la respuesta de Meta, a pesar de que en sus intervenciones ha dicho que tiene política de conservación de los datos para los fines necesarios.
357. Así las cosas, la Corte debe concluir que se violó también el debido proceso de Esperanza Gómez Silva. Resta entonces analizar si las decisiones de Meta desconocieron el principio de igualdad y la prohibición de discriminación.
(v) Igualdad y prohibición de discriminación
358. Como ya se indicó, la accionante señaló que hizo más de 20 reclamaciones a Instagram para que le explicaran porqué desactivaron su cuenta y para solicitar su desbloqueo. Aunque la peticionaria no aportó prueba de esas 20 reclamaciones, sí hay pruebas de que en varias oportunidades elevó estas peticiones sin obtener respuestas de fondo[329].
359. Por otra parte, la accionante señaló que fue discriminada por Meta, principalmente por dos razones. Primero, porque eliminó contenidos suyos similares a los de otras influenciadoras. Segundo, porque, aunque sus contenidos no infringieron las políticas de desnudos y ofrecimiento de servicios sexuales, se la calificó como trabajadora sexual. Meta se opuso y señaló que aplica sus reglas a todas las personas infractoras sin discriminación.
360. Aunque las normas de derecho internacional e interno sobre los límites de la moderación de contenido están en construcción, en las consideraciones de esta sentencia quedó claro que los organismos de derechos humanos consideran que hay al menos cuatro garantías esenciales que se desprenden del régimen internacional de los derechos humanos frente a la moderación de contenidos: (i) transparencia tanto sobre las reglas como en el procedimiento y sanciones aplicables al contenido infractor; (ii) sensibilidad contextual en la aplicación de las reglas; (iii) consistencia y proporcionalidad en la aplicación de las consecuencias de publicar un contenido considerado como infractor; y (iv) maximización de la libertad de expresión. En lo que sigue se estudian estos cuatro elementos.
361. Transparencia: en el análisis sobre legalidad en aplicación del test tripartito se advirtieron varios problemas de transparencia. Por un lado, las reglas específicas sobre desnudos y servicios sexuales entre adultos no se encuentran detalladas en las Normas Comunitarias ni en las Condiciones de Uso de Meta, sino en sitios web diferentes a los que se accede a través de enlaces, esos sí contenidos en las reglas de la casa de Meta. Además, para el momento en que sucedieron los hechos, estas reglas se encontraban disponibles mayoritariamente en inglés. Por otro lado, ni las Normas Comunitarias ni las Condiciones de Uso explican en detalle cómo funciona el procedimiento de moderación de contenidos o las sanciones aplicables al contenido que se considera infractor.
362. Al respecto, cabe mencionar que toda la descripción del procedimiento que se hizo en esta providencia correspondió a una reconstrucción hecha por el despacho sustanciador a partir de las respuestas de la accionada y de la consulta a distintos sitios web del Centro de Transparencia y de Instagram. Es decir, el procedimiento detallado no se encuentra disponible para los usuarios dentro de la plataforma en lugares visibles y accesibles y tampoco en los avisos que anuncian la eliminación de contenidos o de cuentas.
363. Para la Corte resulta particularmente opaco el sistema de faltas o strikes, pues los usuarios no tienen certeza de si el mismo sistema tarifado de Facebook se aplica o no. Además, aunque Instagram emite mensajes que anuncian la infracción, el motivo y la posibilidad de impugnar la decisión, no señala si se aplicó un strike, cuántos tiene la persona en su registro y cuántos le faltan para que su cuenta sea objeto de mayores restricciones.
364. Además, Meta tampoco anuncia cuando impone medidas sancionatorias distintas a la eliminación del contenido, como ocurre con la práctica del shadowbanning. Justo por estos cuestionamientos, Meta abrió el Centro de Transparencia para centralizar allí explicaciones sobre el contenido y aplicación de sus políticas. Sin embargo, continúa siendo una herramienta poco accesible para todos los públicos, laberíntica y sin un orden particular que indique tanto el paso a paso del procedimiento como los mecanismos que tienen las personas para saber si se les aplican strikes y cómo ello afecta su participación en la red social.
365. Por otra parte, la Corte no puede saber con precisión quiénes moderaron el contenido de la accionante ni cómo estaba entrenada específicamente la herramienta de IA que tomó la decisión de borrar sus fotos y videos. Estos vacíos en la información muestran problemas de transparencia, pues debería al menos quedar un registro de quiénes, en qué condiciones y porqué razones curan contenidos y deciden eliminar cuentas.
366. Es claro para la Corte que, dado el volumen de información que circula en una plataforma digital y el nivel de sofisticación alcanzado por los módulos de IA, estos son imprescindibles para la moderación de contenidos. Pero también es consciente este Tribunal de los desafíos que supone su utilización. Entre estos se cuentan: (i) la posibilidad de que reciban los sesgos en el aprendizaje de los operarios humanos y los programadores; (ii) las dificultades para que sean sensibles al contexto; y (iii) la imposibilidad de conocer todo el proceso de aprendizaje, pues, precisamente, las redes neuronales y el machine learning implican procedimientos que no son accesibles en su integridad para el ser humano. En consecuencia, si las plataformas acuden al poder de procesamiento de estas herramientas, es también imprescindible, en clave de derechos humanos, la intervención de los seres humanos para las decisiones más complejas.
367. En este contexto, la Corte considera que el sistema de eliminación de contenidos y eventual inhabilitación de cuentas de Meta debe ser mucho más transparente. En el caso concreto, y por las razones expuestas, la Corte encuentra que Meta desconoció la garantía de transparencia que se desprende de las reglas del debido proceso aplicables a la moderación de contenidos. No solo las reglas no están claras, sino que tampoco es claro cómo se realizó la moderación de contenidos, y si existió un sistema de control o verificación humana previa la eliminación de la cuenta de la actora.
368. Sensibilidad contextual: dado que la Corte no pudo acceder a la información sobre quiénes o qué herramientas moderaron los contenidos de la accionante, tampoco pudo conocer específicamente qué tipo de formación tuvieron los moderadores humanos o el proceso de aprendizaje de máquina que entrenó a las IAs involucradas en estas decisiones. En efecto, la Corte sólo tuvo acceso a una descripción genérica sobre el entrenamiento de moderadores humanos y artificiales, sin especificaciones para el caso concreto.
369. Sin embargo, al estudiar las fotografías compartidas por la accionante, la Corte infiere que hay una aplicación descontextualizada de las reglas de Meta, especialmente de las relativas al ofrecimiento de servicios sexuales. Por ejemplo, al calificar citas a canciones de reguetón en la descripción de fotos como un “lenguaje sexualmente explícito” se hace evidente una aplicación insensible al contexto, y se materializa el riesgo de las normas especialmente vagas, como aquellas que hablan de ofertas sexuales o actividades sexuales implícitas.
370. Sobre este punto, nótese que, en el 2021, la lista de canciones más escuchada de la plataforma de música Spotify fue Mansión Reggaetón. Según la aplicación, 3,6 millones de los oyentes de este género musical son latinoamericanos[330]. Estas cifras apenas logran ilustrar el fenómeno cultural del reguetón, que, como un género de origen latino no sólo es escuchado por millones de personas, sino que hace parte de las costumbres y del día a día de las personas que habitan la región, Colombia incluida. El reguetón, hoy en día, ha trascendido las fronteras de Latinoamérica, pero, aun así, es más popular en los países de la región.
371. Las letras del reguetón son conocidas por su contenido sexualmente explícito y por eso han sido objeto de amplios debates sociales, sobre todo porque en muchas oportunidades se cosifica a las mujeres como objetos sexuales. Sin embargo, de allí no puede seguirse que la utilización de una canción de reguetón, con líricas sexualmente explícitas, equivalga a la oferta de servicios sexuales[331]. Para ponerlo en otros términos, la Corte considera que eliminar contenidos de una persona por hacer referencia a canciones de este género no puede ser considerado per se como el ofrecimiento de un servicio sexual, especialmente porque en la vida cotidiana de muchas personas latinoamericanas es común traer a colación letras de canciones de este género. Así, lo que sugiere esta discusión, es que hubo una aplicación descontextualizada de las normas comunitarias.
372. Consistencia y proporcionalidad: Meta aseguró en todas sus comunicaciones a este Tribunal que la compañía aplica de manera consistente sus políticas a todos los usuarios, es decir, sin basarse en su raza, su origen nacional, o cualquier otra razón potencialmente discriminatoria. En particular, señaló que ni el género ni la conducta offline de la accionante sirvieron de sustento a su decisión de cerrar definitivamente su cuenta. Este argumento surgió en respuesta al alegato de la accionante en el que señaló que Meta la discriminó por ser mujer, y por ser alguien conocido por haber realizado actividades de pornografía fuera de línea.
373. Nótese que la afectación al derecho a la igualdad y a no ser discriminada fue el mayor reproche que realizó la accionante a las actuaciones de Meta, en sus diferentes intervenciones a lo largo del proceso. Durante la sesión técnica de noviembre de 2022, la accionante afirmó que “Instagram decide encasillarme en la pornografía y Esperanza Gómez no es sólo pornografía”. Aseveró también que, aunque no desconoce que es reconocida por sus actividades de pornografía, no quiere ser identificada sólo en ese aspecto de su vida.
374. Para la peticionaria, que la mayoría de los contenidos eliminados de su cuenta se califiquen como servicios sexuales para adultos revela el sesgo discriminatorio en su contra, pues muchas de sus imágenes no son muy diferentes de las que publican otras mujeres en Instagram. Así, insiste, lo diferencial es el hecho de ser Esperanza Gómez. En efecto, la accionante compartió varias capturas de pantalla de otras usuarias de Instagram en las que se ven publicaciones con vestidos de baño y en ropa interior, en poses sexualmente provocativas o sensuales, incluso mucho más sugestivas que las suministradas en este proceso de la accionante, que no fueron eliminadas por la plataforma.
375. Para la demandante, entonces, la eliminación de sus contenidos la encasilla en una identidad unidimensional que la despoja de su complejidad. Este descontento lo dejó ver en las siguientes afirmaciones:
“Yo no sólo soy actriz porno. Compartía mi vida cotidiana en muchos aspectos. Me contrataban para ser la imagen de muchas marcas, para hacer publicidad de productos” […] Decide Instagram que no…que Esperanza Gómez saca una fotografía en lencería...en una modelo tradicional una foto en lencería no es pornográfica, pero una foto de lencería de Esperanza Gómez la convierte Instagram y los seguidores que no se sienten de acuerdo con lo que yo normalmente expreso…entonces viene esta plataforma y me quiere seguir encasillando en solamente pornografía […] Esperanza Gómez se come un banano y es pornografía. Esperanza Gómez sale en ropa interior y es pornografía” [332]
376. Con base en lo anterior, procede la Corte a analizar si la aplicación de las normas comunitarias de Meta fue consistente, es decir, si respondió a los parámetros del principio de igualdad y no discriminación. Para ello, aplicará, como es usual, el juicio integrado de igualdad. Según la jurisprudencia de esta Corte, este juicio requiere: (i) establecer un criterio de comparación o patrón de igualdad, es decir, determinar si se trata de supuestos susceptibles de ser comparados; (ii) definir desde una perspectiva fáctica y jurídica si hubo un trato desigual entre iguales o igual entre distintos; y (iii) establecer la justificación constitucional del tratamiento distinto[333].
377. La jurisprudencia señala que cuando se aprecia que la medida introduce una diferenciación entre personas que afecta el goce de derechos constitucionales fundamentales, o cuando está de por medio un criterio sospechoso de discriminación, procede la aplicación del test en su intensidad estricta[334]. Este tipo de examen supone determinar si el fin que justifica la medida es imperioso, si la medida es necesaria para alcanzar ese fin y si no resulta desproporcionada en sentido estricto[335].
378. Para establecer un patrón de comparación, la Corte procederá a describir el contenido de las cuentas aportadas por la accionante en este proceso (anexo 1 de su escrito de tutela), las cuales se encuentran actualmente abiertas en la red social Instagram. Con el propósito de preservar la identidad de sus titulares, la Corte empleará seudónimos, de modo que se referirá a las cuatro influenciadoras como Laura, Paola, Catalina y Paloma.
Tabla 6. Contenido de las cuentas que la accionante pidió comparar con la suya.
Influenciadora |
Contenido general de la cuenta |
Contenidos objeto de comparación |
Laura |
La cuenta tiene varias publicaciones de fotografías en las que sólo aparece la titular de la cuenta. No hay signos de verificación de autenticidad. Tiene más de 500 mil seguidores. |
En la página principal de la cuenta se observan varias imágenes similares a las de la accionante. Por ejemplo, hay una imagen en la que se ve a Laura en lo que parece ser una piscina, con una tela transparente que cubre sus pechos y sus genitales (aunque es a la vez traslúcida). Además, se encuentran al menos 18 fotos publicadas en el último año en las que Laura aparece en lencería. En algunas de ellas se alcanzan a ver sus pezones, aunque no su zona genital. |
Paola |
La cuenta tiene fotografías en las que aparece mayoritariamente Paola. Tiene más de 2 millones de seguidores. Dice ser deportista y su contenido así parece indicarlo. Además, tiene varias publicaciones relacionadas con hábitos alimenticios. |
En la página principal de la cuenta se encuentran varias fotografías en las que Paola aparece en vestido de baño, el cual cubre la zona del busto y los genitales. Paola también tiene varias fotos en lencería en distintas poses donde se logran apreciar su espalda, sus glúteos y sus piernas. |
Catalina |
La cuenta tiene fotografías de la titular y de otras personas, incluido su hijo, otras mujeres y el que parece ser su pareja. Tiene más de siete millones de seguidores. |
En la cuenta de Catalina se logran apreciar varias fotografías similares a las de la accionante. En una foto reciente aparece tendida sobre el pasto desnuda con dos hojas de árbol cubriendo sólo sus pezones. En el último año aparecen publicadas muchas fotografías en lencería, con prendas que apenas cubren sus pechos y su zona genital. En muchas de ellas, aparece con poses sugestivas. En otras no tiene ninguna prenda sobre sus pechos y cubre la zona de sus pezones con stickers (adhesivos) o con plantas.
|
Paloma |
La cuenta tiene fotografías en las que se ve principalmente Paloma desarrollando diferentes actividades. Tiene cerca de 330 mil seguidores. |
En la página principal de Paloma se observan varios contenidos similares a los de la accionante. Por ejemplo, en una foto publicada en el último año, aparece Paloma de espaldas desnuda en una tina y se alcanza a ver parte de sus glúteos. En otra foto aparece en una piscina desnuda y cubriendo sus pechos con sus manos. También tiene fotos en lencería, aunque menos que Catalina y Laura. |
379. En esta providencia se describieron varias de las imágenes aportadas por la accionante y que, según afirma, motivaron el cierre de su cuenta. En algunas aparece en lencería, sin mostrar pechos ni genitales, aunque en varias sí se ven sus glúteos. Otras la muestran en ropa deportiva y de perfil. En una fotografía se encuentra en un baño cubriendo sus pechos con el brazo y vistiendo ropa interior que cubre sus genitales. La imagen más sugestiva es aquella en la que porta un disfraz de lencería con orejas de conejo, guantes negros hasta el antebrazo y se cubre los pechos con las manos; tampoco allí se exhiben sus genitales.
380. La Corte considera ilustrativo el ejercicio de comparación que propuso la accionante frente a otras influenciadoras de Instagram. En efecto, como se observa en la Tabla 6, el material compartido por ella es equiparable al que publicaron otras influenciadoras e incluso es menos explícito que el de Laura y Catalina. Existe, entonces, un patrón claro de comparación: la publicación de fotos en ropa interior o lencería.
381. Ahora bien, desde el punto de vista fáctico y jurídico, la Corte encuentra un trato diferenciado entre el que recibió la accionante y las demás influenciadoras. Como lo reconoció Meta Platforms, Inc., antes de remover la cuenta @esperanzagomez había eliminado al menos 31 publicaciones de la accionante por supuestas infracciones a sus reglas sobre desnudez y ofrecimiento de servicios sexuales. Como respaldo, aportó capturas de pantalla que mostrarían discusiones internas entre moderadores sobre el caso de la accionante. Sin embargo, frente a las influenciadoras señaladas por la accionante, que comparten contenidos semejantes, no se acreditó la aplicación de medidas similares.
382. En consecuencia, la Corte concluye que se dio un tratamiento diferencial y más severo a la accionante. Mientras que Laura, Paola, Catalina y Paloma mantienen sus cuentas activas, la peticionaria ha debido abrir nuevas cuentas para reconstruir su audiencia, las cuales también han sido objeto de moderación.
383. Sobre la justificación de esta diferencia de trato, Meta sostuvo que nunca discriminó a la accionante y que la existencia de otras cuentas de mujeres vinculadas a la pornografía demuestra la aplicación uniforme de sus políticas. La compañía indicó además que desde 2019 ha moderado 104,3 millones de piezas de contenido por desnudos y actividad sexual de adultos. No obstante, la empresa no se refirió específicamente a las cuentas mencionadas en el expediente.
384. Como en este caso, el trato diferencial tiene el potencial de comprometer no solo la igualdad sino la libertad de expresión, y dado que en este caso se alega una posible discriminación por razones de género, lo procedente es aplicar un test estricto de igualdad. Esto es, se debe analizar si: (i) la medida adoptada cumple una finalidad imperiosa; (ii) es necesaria para alcanzar ese fin; (iii) no resulta desproporcionada en sentido estricto.
385. Como arriba se ilustró, en este caso se han identificado al menos dos grupos comparables: la accionante y otras cinco modelos con cuentas activas. Asimismo, hay un criterio de comparación, como es la publicación de imágenes sugerentes en vestido de baño o ropa interior. Por lo menos las fotos aportadas al proceso, como ya se indicó, son imágenes que sugieren sensualidad, pero no son fotos de sexualidad explícita. Finalmente, existe un trato diferenciado, pues mientras que los contenidos de la accionante fueron eliminados en varias ocasiones, y su cuenta finalmente cerrada, los contenidos de las demás modelos permanecen en la red y sus cuentas, hasta donde conoce la Corte no han sido desactivadas.
386. Ahora bien, establecidos estos puntos, corresponde hacer el examen de proporcionalidad. En relación con la finalidad, para la Corte es claro que la medida establecida por Meta obedece un objetivo imperioso: combatir la explotación sexual, la pornografía infantil y la difusión de material no consentido.
387. No obstante, la Corte observa que el requisito de necesidad no se cumple por varias razones. Por un lado, porque no se logró demostrar que la medida extrema aplicada a la peticionaria fuera idónea para alcanzar esos objetivos. En un proceso judicial en el que hay una reclamación por discriminación, le correspondía a Meta desvirtuar lo alegado, y como se ha insistido, la compañía se limitó a hacer afirmaciones genéricas, sin entrar a mostrar por qué la actora había violado las reglas de la comunidad o por qué la medida adoptada del cierre de su cuenta era imperativa para lograr las finalidades mencionadas.
388. La defensa de Meta se apoya en la supuesta neutralidad de sus políticas. Pero la opacidad en los mecanismos de control, unida a la falta de motivación concreta, sugiere que el trato diferenciado pudo estar influenciado por el reconocimiento público de la accionante en actividades fuera de la plataforma.
389. Ahora bien, vale insistir en que la Corte no desconoce que las imágenes publicadas por la accionante pueden resultar sensibles para ciertos públicos, incluyendo para los niños y las niñas. Pero siendo ese el caso, Meta contaba con medidas menos restrictivas que el cierre definitivo de la cuenta, como, por ejemplo, limitar la visibilidad de las publicaciones, aplicar mecanismos de advertencia o incluso recurrir a prácticas como el shadowbanning, siempre que se informara de forma clara y motivada a la titular de la cuenta. No obstante, Meta optó por la sanción más gravosa, equiparando el contenido de la actora al de quienes difunden material expresamente prohibido.
390. En suma, sin cuestionar la legitimidad de las políticas generales de moderación de contenidos sobre desnudos y servicios sexuales, lo que observa la Corte es que en este caso la actuación de Meta vulneró la libertad de expresión, el debido proceso y la igualdad de la accionante. Además, incumplió su compromiso corporativo de respeto a los derechos humanos[336], al aplicar de manera inconsistente y poco transparente sus normas comunitarias, sin pronunciamiento de fondo ni justificación suficiente frente al trato desigual.
(vi) Libertad de escoger profesión u oficio y derecho al trabajo
391. Por último, la Corte debe analizar si, como señaló la actora en este proceso, la actuación de Meta vulneró la libertad de escoger profesión u oficio y su derecho al trabajo.
392. Como es bien sabido, la Constitución reconoce el trabajo como un derecho fundamental que debe ejercerse en condiciones dignas y justas (art. 25) y garantiza la libertad de escoger profesión u oficio (art. 26), con vigilancia estatal sobre las profesiones y libre ejercicio de los oficios salvo riesgo social. La Corte ha señalado que el trabajo es un valor fundante, un principio rector y un derecho-deber social, concebido como actividad libre y lícita que dignifica a la persona y contribuye al progreso colectivo[337]. En concordancia, la OIT lo define como toda actividad humana, remunerada o no, que produce bienes, servicios o medios de subsistencia[338].
393. Por su parte, el derecho reconocido en el artículo 26 Superior, es decir, la libertad de escoger profesión u oficio, implica “la posibilidad de optar sin coacciones ni presiones por la actividad lícita, profesional o no, a la que habrá de dedicarse la persona teniendo en cuenta su vocación, capacidades, tendencias y perspectivas”[339].
394. Los oficios y actividades profesionales evolucionan al compás de las innovaciones sociales y tecnológicas, de manera que la revolución digital trae consigo también una revolución en el mundo del trabajo. Las tecnologías de la información y la telecomunicación, especialmente Internet, han dado lugar a la configuración de nuevas dinámicas laborales con ventajas, problemas y tensiones.
395. En este contexto, al amparo del derecho consagrado en el artículo 26 constitucional, es legítimo que una persona que se dedicó en el pasado a la pornografía busque sus medios de subsistencia a través de otras actividades, como la de influenciadora. En esa medida, las personas que optan por estas actividades propias de la revolución tecnológica actual tienen derecho a que esa libertad se materialice a través de la garantía de su derecho al trabajo.
396. Como se señaló en las consideraciones iniciales de esta sentencia, hoy en día plataformas como Instagram son operadas como una especie de local comercial (o common carriers como se les denomina en la doctrina norteamericana), de manera que, si bien Meta puede establecer unas reglas de permanencia de quienes trabajan de forma independiente en esos espacios, tiene que hacerlo respetando los derechos fundamentales de esas personas, incluido el trabajo.
397. En el presente caso, las declaraciones, los contratos, los documentos de propiedad y las imágenes que las partes allegaron a esta Corporación ilustran que el oficio que desarrollaba la accionante en Instagram era como el de una usuaria que eligió usar la plataforma para posicionarse como influenciadora. Esta actividad era realizada de manera independiente, pues no obra prueba alguna de subordinación de Instagram sobre la peticionaria, aunque si había una relación desigual y de indefensión por la posición dominante de Meta en el mercado de las plataformas de red social y por las amplias potestades que tiene para permitir o restringir la participación de las personas en su plataforma.
398. En este contexto, la Corte Constitucional estima que las decisiones tomadas por Meta impactaron la actividad económica de la accionante como influenciadora. En efecto, la razón por la que la peticionaria logró construir un modelo de negocio en la red social Instagram se debió, principalmente, al número de seguidores que logró acumular desde 2014 hasta 2021. Con esos más de 5.7 millones de personas como audiencia, la demandante alcanzó a ser una mega-influenciadora, y con ello construir una marca que lleva su nombre y una presencia digital que le sirvió para promocionar productos y servicios de distinta índole.
399. Como también aquí se indicó, Meta en este proceso no logró probar que la actividad de influenciadora realizada por la actora en la red social Instagram, consistiera en actividades prohibidas de oferta de servicios sexuales, o que pudieran comprometer conductas como la explotación sexual, o la pornografía infantil. Tampoco, aparece en sus reglas de uso que comportamientos offline tengan incidencia en la permanencia o no de los influenciadores en una red social.
400. En ese sentido, la aplicación poco transparente e inconsistente de las normas comunitarias de Meta imposibilitaron el acceso de la accionante a su cuenta, que en este contexto era el espacio en el que ella desarrollaba su trabajo independiente como influenciadora. Así lo demuestra la accionante con la certificación de los contratos que fueron cancelados y las cifras que dejó de recibir cuando su cuenta fue borrada. En efecto, según las afirmaciones del antiguo mánager de la señora Gómez Silva, presentadas como anexo 2 a la demanda de tutela, la accionante dejó de percibir aproximadamente 298 millones de pesos colombianos al año por la cancelación de su cuenta[340]. El mánager asegura que casi todas las compañías y personas que la buscaban para pautar, perdieron interés al conocer sobre el cierre de la cuenta @esperanzagomez[341]. Meta no puso en duda esta información en sus intervenciones durante el trámite de tutela.
401. En estas circunstancias, la Corte considera que Meta desconoció el derecho de la accionante a escoger el oficio de influenciadora y su derecho al trabajo. En primer lugar, porque eliminó su cuenta definitivamente a partir de una aplicación inconsistente de sus reglas de la casa y, con ello, le impidió acceder al medio por el cual realizaba sus actividades como influenciadora. En segundo lugar, porque no respondió de fondo a sus peticiones de revisión de la decisión antes mencionada, en contravía del derecho al debido proceso que le asiste a cualquier persona, especialmente cuando se le restringe el acceso a su lugar de trabajo. Por último, porque no explicó con suficiente precisión las razones por las que la cuenta de la peticionaria era merecedora de ese tratamiento adverso, pero en todo caso le permitió abrir otras cuentas que posteriormente también eliminó siguiendo un patrón de conducta similar.
402. Ahora bien, a pesar de que la Corte encuentra probada la vulneración de los mencionados derechos, no sucede lo mismo con el derecho al mínimo vital. En efecto, con las pruebas aportadas a este proceso no se demostró que las afectaciones a las actividades económicas de la accionante comprometieran de manera directa su nivel de vida. En consecuencia, la Corte se abstendrá de declarar la vulneración del derecho al mínimo vital.
403. En síntesis, se insiste en que es legítimo que una plataforma en función de la imagen que desea proyectar y de los públicos a los que desea dirigirse, restrinja la difusión de ciertos contenidos. Pero en principio no hay una razón para dar un tratamiento diferencial y más severo a las mujeres que han trabajado en la pornografía. De hecho es legítimo que estas personas busquen otras fuentes de ingreso, y mientras su comportamiento en línea no lleve a conductas prohibidas deberían poder ejercer sus derechos en igualdad de condiciones con las demás personas. De todas maneras, se insiste, si la plataforma tiene en cuenta conductas offline como parte de sus políticas de moderación de contenido, este hecho debe ser explícito y transparente, y no puede consistir en criterios discriminatorios.
404. Por todo lo anterior, la Corte concluye que la decisión de Meta de eliminar los contenidos de la señora Esperanza Gómez Silva, así como su cuenta @esperanzagomez, constituyó una restricción a la libertad de expresión que no se justificó en términos de legalidad, necesidad y proporcionalidad.
405. De igual modo, la Corte considera que el procedimiento de moderación de contenidos aplicado desconoció varias garantías del debido proceso que le asisten a la accionante, en particular las de transparencia, sensibilidad contextual, consistencia y proporcionalidad.
406. En materia de igualdad, la Corte advierte que Meta aplicó sus políticas de manera inconsistente y optó por imponer la sanción más gravosa, al eliminar la cuenta de la accionante, a pesar de que no procedió de la misma manera frente a otras influenciadoras que han publicado contenidos similares o incluso más explícitos. La parte accionada no acreditó una razón legítima que justificara este trato diferenciado.
407. Adicionalmente, la Corte encontró que, al suprimir la cuenta de la accionante mediante un procedimiento poco transparente e inconsistente, Meta restringió arbitrariamente el espacio en el que la actora ejercía su actividad como influenciadora.
408. No obstante, la Corte en este caso no halló vulneración del derecho al mínimo vital y móvil, ya que no se probó que la limitación de su trabajo afectara de manera directa el nivel de vida de la accionante.
409. En esta misma línea, la Corte no ordenará en este caso una condena en abstracto por perjuicios económicos. Conforme al artículo 25 del Decreto 2591 de 1991, el juez de tutela puede adoptar esta medida cuando el afectado no disponga de otro medio judicial y la violación sea manifiesta y producto de una acción arbitraria clara e indiscutible. Esta figura cubre únicamente el daño emergente, no las ganancias dejadas de percibir.
410. Si bien en este caso la Corte constató una vulneración de derechos fundamentales, existen otros mecanismos judiciales idóneos para reclamar la indemnización de los perjuicios: en particular, la vía civil permite discutir tanto el daño emergente como el lucro cesante que pudieran derivarse de la cancelación o no renovación de los contratos celebrados por la accionante. La Corte adopta esta decisión, porque, si bien pudo causarse un daño patrimonial, este no comprometió la estabilidad económica de la accionante ni la dejó en estado de indefensión manifiesta. Por tanto, corresponde a la jurisdicción civil determinar la responsabilidad, el daño y los perjuicios ocasionados.
411. En lo que sigue, se sintetizarán las medidas que la Corte adoptará para enfrentar los efectos de la violación de los derechos de la demandante.
412. Esta sentencia, como arriba se indicó, es la primera en la que la Corte aborda comprensivamente el tema de la moderación de contenidos por parte de plataformas de redes sociales. Dado su alcance, y lo encontrado en este proceso, la Corte impartirá dos tipos de órdenes: unas destinadas a evitar en el país un ejercicio arbitrario de dicha facultad, y otras que abordan el caso particular de la accionante.
413. Por un lado, la Corte ordenará a Meta Platforms, Inc. establecer un canal de comunicación electrónica accesible y visible que permita la notificación de procesos judiciales en su contra que se originen en Colombia. Como al inicio de esta providencia se indicó, no son menores las dificultades advertidas en este proceso para notificar a la compañía, cuestión que amerita correctivos.
414. Asimismo, se ordenará a Meta Platforms, Inc. revisar y ajustar las Condiciones de Uso de Instagram y su Política de Privacidad, de modo que los usuarios ubicados en Colombia o cuyos contenidos tienen efectos relevantes en este país, y cuyas cuentas son eliminadas por infracciones a las Condiciones de Uso o las Normas Comunitarias, conozcan con claridad las razones de la medida, el tiempo durante el cual se preservará su información, los fines de dicha conservación y los mecanismos dispuestos por la plataforma para controvertir esa decisión.
415. También se ordenará a Meta que en sus Condiciones de Uso y Normas Comunitarias quede unificada en un único sitio, expresada con claridad y en idioma español las políticas sobre desnudos y actividad sexual de adultos, y sobre servicios sexuales entre adultos. Como se explicó al analizar el caso concreto, esas reglas no son verdaderamente claras ni accesibles, pues están dispersas en diversos micrositios a los que se accede haciendo clic sobre múltiples enlaces ubicados en el Centro de Transparencia de Meta y, en algunos casos, están únicamente disponibles en el idioma inglés.
416. Además, la Corte instará a Meta a definir con mayor claridad y detalle:
(i) Las reglas sobre contenidos sexuales implícitos, que hacen parte de la política sobre desnudos y actividad sexual. En efecto, como se explicó en detalle al analizar el incumplimiento del sub-principio de legalidad del test tripartito, algunas de esas disposiciones son vagas e indeterminadas, lo cual puede conducir al desconocimiento de derechos fundamentales.
(ii) Las reglas de moderación de contenidos para el servicio Instagram, incluido el sistema de strikes y la eventual consideración de conductas offline, de los cuales deberá informar de manera clara e inequívoca a los usuarios. Así, como se indicó previamente al analizar la vulneración del derecho a la igualdad, estos dos puntos resultan particularmente opacos, pues las Normas Comunitarias y las Condiciones de Uso no explican en detalle cómo funciona el procedimiento de moderación de contenidos o las sanciones aplicables al contenido que se considera infractor.
417. En atención a las deficiencias de transparencia en la aplicación de las políticas de moderación de contenidos que fueron identificadas en esta sentencia, esta Corporación también invitará a Meta Platforms, Inc. a crear un mecanismo de rendición de cuentas para que, como lo hace en otras jurisdicciones, publique informes periódicos sobre sus decisiones de moderación de contenidos frente a usuarios colombianos.
418. Adicionalmente, la Corte ordenará a Meta elaborar, dentro de los seis meses siguientes a la notificación de esta sentencia, un informe que deberá publicarse en su Centro de Transparencia y remitirse al despacho sustanciador para difusión en la página web de la Corte Constitucional.
419. Igualmente, esta Corporación invitará al Consejo Asesor de Meta a elaborar un dictamen consultivo (policy advisory opinion) sobre la aplicación de las políticas de desnudos y actividad sexual de adultos, así como de servicios sexuales entre adultos, frente a la amplia facultad de moderación de contenidos. En particular, se le pedirá formular recomendaciones sobre el uso de actividades offline como criterio de moderación, así como sobre los estándares de transparencia, debido proceso, no discriminación y libertad de expresión que deben observarse al eliminar contenidos o cuentas.
420. Además, se instará al Ministerio del Trabajo, a la Superintendencia de Industria y Comercio y al Ministerio de Tecnologías de la Información y las Comunicaciones a avanzar en regulaciones sobre la actividad de influenciadores en redes sociales, en las que se definan claramente sus derechos y deberes frente a las audiencias, así como las reglas de su relación con las plataformas digitales.
421. Por otro lado, en cuanto al caso específico de la señora Esperanza Gómez Silva, la Corte considera que Meta Platforms, Inc. vulneró sus derechos al debido proceso, igualdad, libertad de expresión, trabajo y libertad de escoger oficio. No obstante, reconoce la necesidad de equilibrar la protección de estos derechos con la preservación de la facultad de moderación de contenidos, indispensable para impedir la circulación de pornografía infantil, explotación sexual y demás discursos no protegidos por la libertad de expresión.
422. En este contexto, la Corte ordenará a Meta abstenerse de imponer restricciones arbitrarias que vulneren los derechos tutelados a la accionante respecto de la cuenta que actualmente posee. En adelante, deberá aplicar sus reglas de forma transparente, clara, precisa, sensible al contexto y consistente, justificando cualquier restricción a la libertad de expresión conforme al test tripartito en la materia. Como medida de satisfacción y garantía de no repetición, Meta deberá publicar las conclusiones de esta sentencia en su Centro de Transparencia. Finalmente, la Corte desvinculará a Facebook Colombia S.A.S. del trámite por carecer de legitimación en la causa.
En mérito de lo expuesto, la Sala Primera de Revisión de la Corte Constitucional,
Primero. LEVANTAR la suspensión de términos ordenada por la Sala Primera de Revisión de Tutelas mediante auto del 9 de octubre de 2023.
Segundo. REVOCAR la sentencia de primera instancia proferida el 17 de febrero de 2023 por el Juzgado Treinta y Cuatro Penal Municipal con Funciones de Conocimiento de Cali, y en reemplazo DECLARAR LA CARENCIA ACTUAL DE OBJETO POR DAÑO CONSUMADO en los derechos a la libertad de expresión, al debido proceso, a la igualdad y no discriminación, a la libertad de escoger profesión u oficio y al trabajo de la señora Esperanza Gómez Silva.
Tercero. ORDENAR a Meta Platforms, Inc. abstenerse de imponer restricciones arbitrarias a los derechos tutelados en la presente sentencia en perjuicio de la accionante, respecto de la cuenta que tiene actualmente. En tal sentido, en lo sucesivo, deberá aplicar de forma transparente, sensible al contexto y consistente sus reglas de la casa, sin incurrir en violaciones de derechos fundamentales.
Cuarto. ORDENAR a Meta Platforms, Inc. la publicación de las conclusiones de esta sentencia en su Centro de Transparencia, dentro del término de quince (15) días desde la notificación de esta sentencia.
Quinto. ORDENAR a Meta Platforms, Inc. establecer un canal de comunicación electrónica accesible y visible que permita la notificación de procesos judiciales en su contra que se originen en Colombia, dentro del término de quince (15) días desde la notificación de esta sentencia.
Sexto. ORDENAR a Meta Platforms, Inc. que, dentro del término de tres (3) meses desde la notificación de esta sentencia, revise y ajuste las Condiciones de Uso de Instagram y su Política de Privacidad, de modo que los usuarios ubicados en Colombia o cuyos contenidos tienen efectos relevantes en este país, y cuyas cuentas son eliminadas por infracciones a las Condiciones de Uso o las Normas Comunitarias, conozcan con claridad las razones de la medida, el tiempo durante el cual se preservará su información, los fines de dicha conservación y los mecanismos dispuestos por la plataforma para controvertir esa decisión.
Séptimo. ORDENAR a Meta Platforms, Inc. que, dentro del término de tres (3) meses desde la notificación de esta sentencia, en sus Condiciones de Uso y Normas Comunitarias quede unificada en un único sitio, expresada con claridad y en idioma español la política sobre desnudos y actividad sexual y la política sobre servicios sexuales entre adultos.
Octavo. INSTAR a Meta Platforms, Inc. para que, a la mayor brevedad posible, defina con mayor claridad y detalle: (i) las reglas sobre contenidos sexuales implícitos, que hacen parte de la política sobre desnudos y actividad sexual y (ii) las reglas de moderación de contenidos para el servicio Instagram, incluido el sistema de strikes y la eventual consideración de conductas offline, de los cuales deberá informar de manera clara e inequívoca a los usuarios.
Noveno. INVITAR a Meta Platforms, Inc. a crear un mecanismo de rendición de cuentas para que, como lo hace en otras jurisdicciones, publique informes periódicos sobre sus decisiones de moderación de contenidos en frente a usuarios colombianos.
Décimo. ORDENAR a Meta Platforms, Inc. remitir un informe con destino a la Corte Constitucional en el que indique el estado del cumplimiento de las medidas ordenadas por esta Corporación, seis (6) meses después de la notificación de esta sentencia. Dicho informe deberá ser publicado en español y en inglés en su Centro de Transparencia.
Decimoprimero. INVITAR al Consejo Asesor de Meta (Oversight Board) para que, en ejercicio de sus potestades, desarrolle un dictamen consultivo (policy advisory opinion) sobre la moderación de contenidos sobre publicaciones en Instagram potencialmente violatorias de las normas sobre desnudos y actividad sexual de adultos, así como de servicios sexuales entre adultos, y los límites de dicha facultad en términos de transparencia, debido proceso, libertad de expresión e igualdad y no discriminación y la protección de las influenciadoras que desarrollan trabajos independientes en esa red social.
Decimosegundo. INSTAR al Ministerio del Trabajo, a la Superintendencia de Industria y Comercio y al Ministerio de Tecnologías de la Información y las Comunicaciones a avanzar en regulaciones sobre la actividad de influenciadores en redes sociales, en las que se definan claramente sus derechos y deberes frente a las audiencias, así como las reglas de su relación con las plataformas digitales.
Decimotercero. DESVINCULAR a Facebook Colombia S.A.S. por carecer de legitimidad por pasiva en el proceso de la referencia.
Decimocuarto. LIBRAR las comunicaciones –por la Secretaría General de la Corte Constitucional–, así como DISPONER las notificaciones a las partes –a través del juez de tutela de instancia–, previstas en el artículo 36 del Decreto Ley 2591 de 1991.
Comuníquese y cúmplase.
NATALIA ÁNGEL CABO
Magistrada
CÉSAR HUMBERTO CARVAJAL SANTOYO
Magistrado (e)
JUAN CARLOS CORTÉS GONZÁLEZ
Magistrado
ANDREA LILIANA ROMERO LOPEZ
Secretaria General
[1] Así lo reconoce ella misma en la acción de tutela. Expediente digital T-8.764.298, Acción de tutela (01), p. 1.
[2] Expediente digital T-8.764.298, Anexo I. Escrito de solicitud de restablecimiento de la cuenta (11), p. 4 a 9.
[3] Ibid., p. 5 a 9.
[4] Expediente digital T-8.764.298, Acción de tutela (01), p. 1. En la acción de tutela, la demandante señaló que su cuenta fue cerrada en mayo de 2021. No obstante, en el expediente obra un pantallazo de un mensaje remitido por Facebook a la peticionaria en el que le informó que el 8 de noviembre de 2021 se eliminó una de sus publicaciones (Expediente digital T-8.764.298, Anexo I. Escrito de solicitud de restablecimiento de la cuenta 11, p. 1).
[5] Expediente digital T-8.764.298, Anexo I. Escrito de solicitud de restablecimiento de la cuenta (11), p. 1.
[7] Ibid., p 2.
[12] Expediente digital T-8.764.298, Contestación de la Superintendencia de Industria y Comercio (33).
[16] La Sala de Selección estuvo conformada por la magistrada Diana Fajardo Rivera y el magistrado Antonio José Lizarazo Ocampo.
[17] Expediente digital T-8.764.298, Contestación de Facebook Colombia S.A.S al Auto del 26 de septiembre de 2022, p. 3.
[18] Ibid, p. 4.
[19] Ibid, p. 7.
[20] Ibid., p. 7. Facebook Colombia S.A.S. allegó al expediente las condiciones de uso de Instagram vigentes al 18 de enero de 2022.
[21] En la contestación de la demanda, luego de pronunciarse sobre las directrices del servicio y de la comunidad del servicio de Instagram, Meta Platforms, Inc. expuso los motivos por los cuales considera que Esperanza Gómez Silva violó repetidamente las normas comunitarias de Instagram. Asimismo, se pronunció sobre (i) los hechos de la demanda; (ii) expuso las razones por las cuales estima que los jueces colombianos carecerían totalmente de jurisdicción y competencia para decidir este asunto; (iii) también señaló los motivos en virtud de los cuáles la acción de tutela instaurada por la peticionaria es improcedente o, en su lugar, debe ser denegada. A partir de esos argumentos, la empresa accionada solicitó rechazar por improcedente la acción de tutela instaurada por Esperanza Gómez Silva y, en subsidio, denegar en su totalidad las pretensiones contenidas en la demanda (Expediente digital T-8.764.298, Contestación de Meta Platforms, Inc. al Auto 1678 de 2022 de 2022).
En un memorial separado, la empresa accionada respondió el cuestionario formulado en el Auto 1678 de 2022 (Expediente digital T-8.764.298, Contestación de Meta Platforms, Inc. al Auto 1678 de 2022 de 2022)
[22] Expediente digital T-8.764.298, Contestación Meta Platforms, Inc., p. 19.
[23] Ibid., p. 19. La accionada no invocó, expresamente, el numeral 8 del artículo 133 del Código General del Proceso.
[24] A-288 de 2009, por medio del cual se declaró la nulidad de todas las actuaciones surtidas en el proceso T-2.280.939, por haberse advertido la existencia de una causal de nulidad por indebida integración de la causa pasiva.
[25] Ibid., p. 20.
[26] Ibid.
[27] Expediente digital T-8.764.298, Auto que admite 2021-00227-00, (2) (26) (26.5) párr. 3 “VINCULESE a la presente acción a META PLATFORMS, INC con sede en Colombia (anteriormente denominada FACEBOOK INC), a la SUPERINTENDENCIA DE INDUSTRIA Y COMERCIO y al MINISTERIO DE TECNOLOGÍAS DE LA INFORMACIÓN Y LAS COMUNICACIONES”.
[28] Expediente digital T-8.764.298. 13. Contestación Super Intendencia1
[29] Ibid., p. 3.
[30] Juzgado 34 Penal Municipal con Función de Conocimiento del Circuito de Cali. No. 019, Rad. 76-001-40-09-034-2021-00227-00 (el 17 de febrero de 2023) p. 17.
[31] Ibid.
[32] Ibid., p. 18.
[33] Se le formularon seis (6) preguntas relacionadas con el procedimiento específico aplicado a la cuenta de la señora Esperanza Gómez, la forma en la que se emplea la inteligencia artificial por parte de Meta, cómo se evitan sesgos de distinta índole en estos casos, el proceso de reclamación por eliminación y bloqueo de cuentas y el rol que le da Meta al trabajo como influenciador(a) a la hora de tomar decisiones de moderación de contenidos.
[34] Se le formularon cuatro (4) preguntas relacionadas con su domicilio, la ubicación desde la que adelanta su trabajo como influenciadora, la ubicación desde la que ejecuta las obligaciones de sus contratos de publicidad, e información adicional relacionada con el proceso de reclamación ante Meta por el cierre de su cuenta.
[35] Expediente digital T-8.764.298,
[36] Expediente digital T-8.764.298, Contestación Meta Platforms, Inc.
[37] Ibid, p. 36.
[38] Corte Constitucional, sentencia C-1189 de 2000.
[39] Uta Kohl. Jurisdiction and the Internet: Regulatory Competence Over Online Activity. Cambridge: Cambridge University Press, 2007, p. 4 (traducción del despacho sustanciador).
[40] Asimismo, como lo indicó la Corte en la sentencia SU-420 de 2019 en relación con el derecho a la libertad de expresión, “la libertad de expresión “offline” es la misma “online”, por tanto la presunción a favor de este derecho tiene plena vigencia en el entorno digital. Lo anterior significa que esta garantía debe ser respetada por los Estados y protegida de intromisiones ilegítimas por parte de terceros”.
[41] Corte Constitucional, sentencia C-1147 de 2001.
[42] Expediente digital T-8.764.298, Gomez v Meta amicus curiae, (2) (6) (6.3.3)
[43] Expediente digital T-8.764.298, Nulidad Esperanza Gómez – Fundación Karisma, (2) (6) (10.3.4)
[44] Expediente digital T-8.764.298, Presentación de Nelson Remolina. Sesión Técnica de 15 de noviembre de 2022, disponible en: https://www.youtube.com/watch?v=SCPr0_pdjNw
[45] Expediente digital T-8.764.298, Presentación de Francisco Reyes Villamizar. Sesión Técnica de 15 de noviembre de 2022, disponible en: https://www.youtube.com/watch?v=SCPr0_pdjNw
[46] Expediente digital T-8.764.298, Presentación de Eric Goldman. Sesión Técnica de 15 de noviembre de 2022, disponible en: https://www.youtube.com/watch?v=SCPr0_pdjNw
[47] Samuel Miller. ‘Prescriptive Jurisdiction over Internet Activity: The Need to Define and Establish the Boundaries of Cyberliberty”. Indiana Journal of Global Legal Studies 10 (2) (2003), p. 228 (traducción del despacho sustanciador).
[48] Expediente digital T-8.764.298, Escrito de Wikimedia, (2) (6) (6.3.4)
[49] Expediente digital T-8.764.298, PREGUNTAS SESIÓN TÉCNICA CORTE CONSTITUCIONAL_Eje libertad de expresión, género y curación de contenidos; Expediente digital T-8.764.298, Documento Corte Constitucional – Sesión técnica Esperanza Gómez - Linterna Verde, (2) (6) (6.3.8)
[50] Dan Burk. ‘Jurisdiction in a World Without Borders’. Virginia Journal of Law and Technology 1 (1997), 1522.
[51] CEPAL. Elementos principales del informe sobre el estado de la jurisdicción de Internet en América Latina y el Caribe 2020.
[52] Kohl. Jurisdiction and the Internet…, 22-23.
[53] Kohl. Jurisdiction and the Internet… 25-26 (traducción del despacho sustanciador).
[54] El artículo 3º de la Ley 1581 de 2012 define el tratamiento como “Cualquier operación o conjunto de operaciones sobre datos personales, tales como la recolección, almacenamiento, uso, circulación o supresión”.
[55] Resoluciones No. 1321 de 2019 (“Facebook Inc.”), 21478 de 2019 (“Uber Inc.”), 53593 de 2020 (“Google LLC”), 62132 de 2020 (“Tiktok Inc.”), 74519 de 2020 (“Zoom Inc.”) y 29826 de 2021 (“WhatsApp LLC”).
[56] Corte Constitucional, Autos 460 de 2019 y 086 de 2007 reiterados en el Auto 191 de 2021.
[57] Vladimir Alexei Chorny Elizalde, Luis Fernando García Muñoz y Grecia Elizabeth Macías Llanas, “La moderación de contenidos desde una perspectiva interamericana,” Al Sur, contribución al Diálogo de las Américas sobre Libertad de Expresión en Internet de la Comisión Interamericana de Derechos Humanos, (marzo de 2022, Ciudad de México), p. 37. Cit. Roberts, Sarah. “Behind The Screen: Content Moderation in the Shadows of Social Media”. Yale University Press. Estados Unidos. 2019, p. 33.
[58] Meta,“How Meta enforces it’s policies?”, Disponible en: https://transparency.fb.com/enforcement/taking-action/
[59] Cumbre Mundial sobre la Sociedad de la Información y la Comunicación. Declaración de Principios: Construir la Sociedad de la Información: un desafío global para el nuevo milenio, WSIS-03/GENEVA/4-S, 12 de mayo de 2004.
[60] Boyd, D. M. y Ellison, N. B. (2007). Social Network Sites: Definition, History, and Scholarship. Journal of Computer‑Mediated Communication, 13, 210–230. doi:10.1111/j.1083‑6101.2007.00393.x Ver también, Darrel Ince (Ed), Dictionary of the Internet. 2da Edición, Oxford University Press, 2009.
[61] Corte Constitucional, sentencia SU-420 de 2019.
[62] De acuerdo con el Digital 2024: Global Overview Report, las personas consultadas reportaron múltiples razones por las cuales acuden a las redes sociales. Entre otras, indicaron: (i) estar en contacto con amigos y familia; (ii) llenar el tiempo libre; (iii) encontrar contenido; (iv) encontrar inspiración de cosas para hacer y comprar; (iii) encontrar productos para comprar; (iv) compartir y discutir opiniones con otros; (v) hacer nuevos contactos; (vi) generar redes laborales; (vii) seguir a celebridades e influencers. Disponible en: https://datareportal.com/reports/digital-2024-global-overview-report.
[63] Simon Kemp. Digital 2024: Global Overview Report. Disponible en: hfttps://datareportal.com/reports/digital-2024-global-overview-report.
[64] La población mundial para junio de 2024 alcanza los 8.119 billones de personas. Fuente: “Población mundial”, tablero de la población mundial, Fondo de Población de las Naciones Unidas, consultado el 2 de junio de 2024: https://www.unfpa.org/es/data/world-population-dashboard.
[65] S. Dixon, “Instagram: number of global users 2020-2025”, Statista, febrero 15, 2023. Disponible en: https://www.statista.com/statistics/183585/instagram-number-of-global-users/.
[66] Stacy Jo Dixon, “Daily time spent on social networking by internet users worldwide from 2012 to 2023,” Statista (julio 6 de 2023). Disponible en: https://www.statista.com/statistics/433871/daily-social-media-usage-worldwide/ .
[67] Simon Kemp. Digital 2024: Global Overview Report. Disponible en: https://datareportal.com/reports/digital-2024-global-overview-report.
[68] Robert Post. Social Media, Freedom of Speech, Content Regulation and the Protection of Democracy. Conferencia dictada en el Global Constitutional Seminar, Septiembre 2022 (manuscrito sin publicar).
[69] Derechos humanos en la era digital ¿Pueden marcar la diferencia? Discurso programático de Michelle Bachelet, Alta Comisionada de las Naciones Unidas para los Derechos Humanos, Japan Society, Nueva York, 17 de octubre de 2019. https://www.ohchr.org/es/2019/10/human-rights-digital-age.
[70] Ibid.
[71] Tarleton Gillespie, “Custodians of the Internet”, 2020, Yale University Press, pág. 5.
[72] Bachelet, “Derechos humanos en la era digital”. Gillespie, “Custodians of the Internet”. Post, “Social Media, Freedom of Speech, Content Regulation and the Protection of Democracy”. La jurisprudencia constitucional también ilustra la reflexión sobre los beneficios y desafíos de Internet. Por ejemplo, en la sentencia T-324 de 2020, la Corte reconoció que la tecnología puede ser utilizada con finalidades diversas, incluso contrarias al sistema democrático. Por lo mismo, insistió en la importancia de reconocer “que el Internet y las nuevas tecnologías también implican riesgos, que cada día se conocen más”. Por tanto, la Corte consideró fundamental “asegurar que los espacios virtuales y digitales ofrezcan las mismas libertades y garantías para el debate público, y se mantenga como un espacio de libre, abierto y amplio espectro de comunicación y deliberación”.
[73] Un recuento de los principales hitos de la moderación de contenidos, puede verse en: Amy Fox. “The Evolution of Content Moderation Rules Throughout The Years”, abril de 2021. Disponible en: https://www.checkstep.com/the-evolution-of-content-moderation-rules-throughout-the-years/.
[74] P.W. Singer & Emerson T. Brooking (2018). LikeWar: The Weaponization of Social Media. Houghton Mifflin Harcourt, Boston & New York, pág. 227.
[75] Ibid, pág. 229.
[76] Ibid., pág. 228.
[77] Ibid.
[78] Eric Goldman & Jess Mier, “Online account terminations/content removals and the benefits of internet services enforcing their house rules,” Journal of Free Speech Law 191, (Agosto, 2021). También: Expediente digital T-8.764.298, Colombian Constitutional Court written submission (Eric Goldman, Universidad de San Diego) (2) (6) (6.3.2)
[79] Amy Fox. “The Evolution of Content Moderation Rules Throughout The Years”, abril de 2021. Disponible en: https://www.checkstep.com/the-evolution-of-content-moderation-rules-throughout-the-years/.
[80] Ahmed Alhrabi. “The Role of Social Media in Arab Spring”. MECSJ 14 (2018). Disponible en: https://www.mecsj.com/uplode/images/photo/The_Role_of_Social_Media_in_Arab_Spring.pdf.
[81] Amy Fox. “The Evolution of Content Moderation Rules Throughout The Years”, abril de 2021. Disponible en: https://www.checkstep.com/the-evolution-of-content-moderation-rules-throughout-the-years/.
[82] Ibid.
[83] International Fact-Checking Network, Empowering fact-checkers worldwide, https://www.poynter.org/ifcn/
[84] Global Internet Forum to Counter Terrorism, “Preventing terrorists and violent extremist from exploiting digital platforms", https://gifct.org/.
[85] Oversight Board. https://www.oversightboard.com/.
[86] Electroic Frontier Foundation, “How COVID Changed Content Moderation: Year in Review 2020”. https://www.eff.org/deeplinks/2020/12/how-covid-changed-content-moderation-year-review-2019.
[87] The Guardian. “Twitter and Facebook lock Donald Trump’s accounts after video address”. 7 de enero de 2021. https://www.theguardian.com/us-news/2021/jan/06/facebook-twitter-youtube-trump-video-supporters-capitol.
[88] Oversight Board. “Former Presdient Trump’s Suspension”. https://www.oversightboard.com/decision/fb-691qamhj/.
[89] The New York Times. “Meta Says It Will End Its Fact-Checking Program on Social Media Posts”. https://www.nytimes.com/live/2025/01/07/business/meta-fact-checking.
[90] Meta, “How Meta enforces it’s policies?”, Disponible en: https://transparency.fb.com/enforcement/taking-action/.
[91] Esta distinción es propuesta por los profesores Eric Goldman y Jess Miers en: Eric Goldman & Jess Mier, “Online account terminations/content…” p. 194.
[92] Convención Americana sobre Derechos Humanos, artículo 13. Pacto Internacional de Derechos Civiles y Políticos, art. 20.
[93] Meta, “Facebook Community Standards,” Transparency Center, Meta Platorms, Inc. Disponible en: https://transparency.fb.com/policies/community-standards/?source=https%3A%2F%2Fwww.facebook.com%2Fcommunitystandards
[94] Eric Goldman & Jess Mier, “Online account terminations/content…” p. 195.
[95] Así ocurre, por ejemplo, con las normas comunitarias de Meta, que para los servicios de Instagram y Facebook indica qué cosas sí pueden publicar los usuarios.
[96] Chorny, García y Macias, “La moderación de contenidos desde una perspectiva interamericana…”, p. 41-42.
[97] Oversight Board. “Content Moderation in a New Era for AI and Automation”. https://www.oversightboard.com/news/content-moderation-in-a-new-era-for-ai-and-automation/.
[98] Ibid., pág. 42.
[99] Ibid., cit. Klonick, Kate. “The new governors: The people, rules, and processes governing online speech”. Harvard Law Review, 131, 2018.
[100] Oversight Board. “Content Moderation in a New Era for AI and Automation”. https://www.oversightboard.com/news/content-moderation-in-a-new-era-for-ai-and-automation/.
[101] Ibid., p. 6.
[102] Ibid.
[103] Gillespie. Custodians of the Internet…p. 11.
[104] Ibid.
[105] The New York Times. “Meta Says It Will End Its Fact-Checking Program on Social Media Posts”. https://www.nytimes.com/live/2025/01/07/business/meta-fact-checking.
[106] Meta. “More Speech and Fewer Mistakes”. https://about.fb.com/news/2025/01/meta-more-speech-fewer-mistakes/.
[107] Ibid.
[108] The New York Times. “Meta Says It Will End Its Fact-Checking Program on Social Media Posts”. https://www.nytimes.com/live/2025/01/07/business/meta-fact-checking.
[109] La Silla Vacía. “Hoy temo que nuestros datos sean utilizados políticamente por las plataformas: Catalina Botero.” https://www.lasillavacia.com/silla-nacional/hoy-temo-que-nuestros-datos-sean-utilizados-politicamente-por-las-plataformas-catalina-botero/
[110] Twitch (2021). Our Plan for Addressing Severe Off-Service Misconduct. Disponible en: https://blog.twitch.tv/en/2021/04/07/our-plan-for-addressing-severe-off-service-misconduct/
[111] Cecilia Anastasio (2021). Twitch Will Act on ‘Serious’ Offenses That Happen Off-Platform. En: Wired. Disponible en: https://www.wired.com/story/twitch-off-platform-policy-harassment/
[112] Twitch (2021). Our Plan for Addressing Severe Off-Service Misconduct. Disponible en: https://blog.twitch.tv/en/2021/04/07/our-plan-for-addressing-severe-off-service-misconduct/
[113] Kamya Yadav (2021). Platform Interventions: How Social Media Counters Influence Operations. En: Carnegie Endowment for International Peace. Disponible en: https://carnegieendowment.org/posts/2021/01/platform-interventions-how-social-media-counters-influence-operations?lang=en
[114] Shannon Bond (2022). Kicked off Facebook and Twitter, far-right groups lose online clout. En: NPR. Disponible en: https://www.npr.org/2022/01/06/1070763913/kicked-off-facebook-and-twitter-far-right-groups-lose-online-clout
[115] Danielle Blunt & Zahra Stardust (2021) Automating whorephobia: sex, technology and the violence of deplatforming, Porn Studies, 8:4, 350-366; Olivia Snow. Are You Ready to Be Surveilled Like a Sex Worker? FOSTA/SESTA laws deplatformed sex workers and set the stage to overturn Roe v. Wade, En: Wired, 27 de junio de 2022. Disponible en: https://www.wired.com/story/roe-abortion-sex-worker-policy/
[116] Annamarie Houlis. Inside the Instagram sex industry. En: Cosmopolitan, 17 de octubre de 2017; Katie McQue and Mei-Ling McNamara. How Facebook and Instagram became marketplaces for child sex trafficking. En: The Guardian, 27 de abril de 2023. Sobre esta situación en Colombia, ver: Wes Michael Tomaselli. Webcam Sex Work Is a Lifeline for Women Who Lost Their Jobs During COVID. En Vice, 22 de septiembre de 2020.
[117] Allard K. Lowenstein International Human Rights Clinic at Yale Law School (2023). Managing and Mitigating Indirect Hate Speech on Meta Social Media Platform. Disponible en: https://law.yale.edu/sites/default/files/documents/documents/pdf/Managing%20Indirect%20Hate%20Speech%20Meta%20Platforms%201121.pdf
[118] Ibid., pág. 13.
[119] Ibid., pág. 29.
[120] En la discusión sobre hasta dónde debe llegar la participación estatal en la moderación de contenidos, cada vez hay más ejemplos de medidas y políticas que tienen a ampliar el papel del Estado en esta actividad. En Uganda, por ejemplo, el presidente ordenó impedir el acceso a redes sociales como Facebook antes de las elecciones de 2021, para evitar la circulación de propaganda electoral de su popular contendor. En el caso de Reino Unido, el Online Safety Act de 2023 permite a determinadas autoridades ordenar la remoción de contenido protegido considerado ilegal, pero que, según sus críticos, también permite eliminar contenido protegido por la libertad de expresión de las redes sociales. Amnesty International, “Uganda: Authorities must lift social media block amid crackdown ahead of election,” enero de 2021, disponible en: https://www.amnesty.org/en/latest/news/2021/01/uganda-authorities-must-lift-social-media-block-amid-crackdown-ahead-of-election/. Oficina del Alto Comisionado de Naciones Unidas para los Derechos Humanos, “Moderating online content: fighting harm or silencing dissent?,” julio de 2021, disponible en: https://www.ohchr.org/en/stories/2021/07/moderating-online-content-fighting-harm-or-silencing-dissent.
[121] Gerald Turkel, ‘The Public/Private Distinction: Approaches to the Critique of Legal Ideology’ (1988) 22 Law & Society Review 801.
[122] Corte Constitucional, sentencia C-204 de 2019, cit. C-881 de 2014.
[123] Ibid.
[124] Ibid., cit. T-291 de 2016.
[125] Ibid., cit. T-407 de 2012.
[126] Expediente digital T-8.764.298, Documento Corte Constitucional – Sesión técnica Esperanza Gómez - Linterna Verde, (2) (6) (6.3.8)
[127] Knight First Amendment Institute v. Trump, 928 F. 3d 226 (2nd Cir., 2019).
[128] Biden v. Knight First Amendment Institute, No. 20-197, 593 U.S. (2021)
[129] Expediente digital T-8.764.298, PREGUNTAS SESIÓN TÉCNICA CORTE CONSTITUCIONAL. Eje libertad de expresión, género y curación de contenidos, p. 18-19.
[130] J. Ahava (2018)- “The Public Sphere and Digital Culture”. En Marbella International University Centre-Iowa University. Disponible en: https://miuc.org/the-public-sphere-and-digital-culture/
[131] Corte Constitucional, sentencia T-149 de 2025.
[132] Corte Constitucional, sentencia SU-420 de 2019.
[133] Esta sección impide atribuirles responsabilidad a los operadores de sitios web si, al actuar como “buenos samaritanos”, intentan remover contenidos que son incompatibles con la decencia, pero fallan en la remoción de otros igualmente infractores. Bassini, Marco. “Social Networks as New Public Forums?”, The Italian Review of International and Comparative Law 1, 2 (2022): 311-334, Doi: https://doi.org/10.1163/27725650-01020005
[134] Esta regulación señala que no se les puede atribuir responsabilidad a los intermediarios por (i) la mera transmisión de información; (ii) el caching o alojamiento de memoria tampón (conservación de memoria caché); (iii) el alojamiento de datos; y, además, (iv) no se les pueden imponer obligaciones de supervisión frente a la información cuya circulación facilitan. Parlamento Europeo y Consejo de Europa. Directiva 2000/31/CE del Parlamento Europeo y del Consejo de 8 de junio de 2000 relativa a determinados aspectos jurídicos de los servicios de la sociedad de la información, en particular el comercio electrónico en el mercado interior (Directiva sobre el comercio electrónico), arts. 12, 13, 14 y 15.
[135] Corte Constitucional, sentencia SU-420 de 2019.
[136] Relator Especial de las Naciones Unidas (ONU) para la Libertad de Opinión y de Expresión, Representante para la Libertad de los Medios de Comunicación de la Organización para la Seguridad y la Cooperación en Europa (OSCE), Relatora Especial de la Organización de Estados Americanos (OEA) para la Libertad de Expresión y Relatora Especial sobre Libertad de Expresión y Acceso a la Información de la Comisión Africana de Derechos Humanos y de los Pueblos (CADHP). Declaración Conjunta sobre Libertad de Expresión e Internet, 2011.
[137] Las normas de derecho blando son una fuente relevante reconocida por esta corporación para interpretar las obligaciones que se desprenden del bloque de constitucionalidad. Ver: Corte Constitucional, sentencia T-237 de 2023.
[138] Electronic Frontier Foundation, Asociación por los Derechos Civiles, Article 19, The Centre for Internet & Society, Derechos Digitales, KictAnet & OpenNet. Principios de Manila sobre responsabilidad de intermediarios. Disponibles en: https://manilaprinciples.org/es.html#:~:text=Las%20%C3%B3rdenes%20de%20restricci%C3%B3n%20de,sustento%20legal%20de%20la%20orden.
[139] Relatores ONU, OEA, OSCE y CADHP, Declaración Conjunta sobre Libertad de Expresión e Internet, 2011, artículo 1, principios generales.
[140] Relatores ONU, OEA, OSCE y CADHP, Declaración Conjunta del Vigésimo Aniversario: Desafíos para la Libertad de Expresión en la Próxima Década. Disponible en: https://www.oas.org/es/cidh/expresion/showarticle.asp?artID=1146&lID=2
[141] Parlamento Europeo, Consejo y Comisión Europeas, “Declaración Europea sobre Principios y Derechos Digitales,” 2023, par. 15.
[142] Parlamento Europeo, Ley de Servicios Digitales, 2022/2065, 19 de octubre de 2022. Disponible en: https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:32022R2065#d1e3582-1-1
[143] UNESCO. Salvaguardar la libertad de expresión y el acceso a la información: directrices para un enfoque de múltiples partes interesadas en el contexto de la regulación de las plataformas digitales. Borrador 3.0, 27 de abril de 2023.
[144] Santa Clara Principles 2.0, Principles for Government and Other State Actors, Disponible en: https://santaclaraprinciples.org/.
[145] El mismo Consejo Asesor de Meta así lo reconoce. Al llamar la atención sobre los riesgos de la automatización en la moderación de contenidos, insiste en que los algoritmos de IA pueden reforzar los sesgos sociales existentes o inclinarse hacia un lado de las divisiones ideológicas. Es imperativo que las plataformas garanticen que la libertad de expresión y las consideraciones de derechos humanos estén integradas en estas herramientas desde el principio y por diseño, teniendo en cuenta los enormes desafíos institucionales y tecnológicos que supone reformar sistemas que ya operan a gran escala. Al respecto ver: https://www.oversightboard.com/news/content-moderation-in-a-new-era-for-ai-and-automation/
[146] Corte Constitucional, sentencias T-015 de 2015, T-904 de 2013 y T-391 de 2007.
[147] Corte Constitucional, sentencia SU-420 de 2019.
[148] Corte Constitucional, sentencia SU-420 de 2019.
[149] Corte Constitucional, sentencia T-145 de 2016.
[150] Corte Constitucional, sentencia T-275 de 2021.
[151] Corte Constitucional, sentencia T- 241 de 2023. Cit., T-243 de 2018, T-145 de 2016.
[152] Ibid., cit. T-145 de 2016.
[153] Por ejemplo, en las sentencias T-550 de 2012, T-050 de 2016, T-155 de 2019 y T-179 de 2019, recogidas en la sentencia SU-420 de 2019.
[154] En esta sentencia, la Corte planteó las siguientes conclusiones sobre los casos en los cuales se solicita la eliminación de una publicación en internet por, presuntamente, vulnerar los derechos al buen nombre o a la honra de otras personas: “(i) la libertad de expresión, como garantía fundamental de cualquier sociedad democrática, adquiere una especial garantía en el entorno digital, al brindar un acceso simple y rápido a un amplio número de personas; (ii) la restricción a este derecho se puede dar cuando se concluye una flagrante vulneración a los derechos a la honra, buen nombre e intimidad como resultado de un ejercicio de ponderación de derechos; (iii) los intermediarios de internet cuentan con un proceso de auto control, el cual no escapa de la intervención judicial; (iv) las plataformas no pueden censurar de manera previa el contenido introducido por sus usuarios; (v) la responsabilidad por afectación de un derecho está en cabeza de quien hace una publicación; y (vi) si bien el intermediario no es el responsable de la afectación a la honra o buen nombre, debe proceder a retirar el contenido cuando quiera que un juez decida que la información debe ser excluida de la esfera pública.” Sentencia SU-420 de 2019, fundamento 126.
[155] Corte Constitucional, sentencia C-442 de 2011.
[156] Consejo de Derechos Humanos de Naciones Unidas. Report of the detailed findings of the Independent International Fact-Finding Mission on Myanmar. A/HRC/39/CRP.2, 17 September 2018, párrs. 696 a 716.
[157] Ibid.
[158] Corte Constitucional, sentencia T-452 de 2022.
[159] Corte Constitucional, sentencia SU-420 de 2019.
[160] Corte Constitucional, sentencia C-442 de 2011.
[161] Corte Constitucional, sentencia C-442 de 2011.
[162] Ibid.
[163] Corte Constitucional, sentencia SU-274 de 2019.
[164] Ibid.
[165] Corte Constitucional, sentencia T-329 de 2021. Cit., C-593 de 2014.
[166] Ibid., cit. T-054 de 2008.
[167] Ibid., p. 43.
[168] UNESCO. Salvaguardar la libertad de expresión y el acceso a la información: directrices para un enfoque de múltiples partes interesadas en el contexto de la regulación de las plataformas digitales. Borrador 3.0, 27 de abril de 2023; Relatores ONU, OEA, OSCE y CADHP, Declaración Conjunta del Vigésimo Aniversario: Desafíos para la Libertad de Expresión en la Próxima Década. Disponible en: https://www.oas.org/es/cidh/expresion/showarticle.asp?artID=1146&lID=2; Santa Clara Principles 2.0, Principles for Government and Other State Actors, Disponible en: https://santaclaraprinciples.org/; Asamblea General de la Organización de las Naciones Unidas. Informe de la Relatora Especial sobre la promoción y protección del derecho a la libertad de opinión y de expresión, Irene Khan, sobre género y libertad de expresión y opinión. A/76/258, julio 30 de 2021.
[169] Corte Constitucional, sentencia T-061 de 2022.
[170] Ver, entre otras: SU-420 de 2019 a T-241 de 2023.
[171] Asamblea General de la Organización de las Naciones Unidas. Informe de la Relatora Especial sobre la promoción y protección del derecho a la libertad de opinión y de expresión, Irene Khan, sobre género y libertad de expresión y opinión. A/76/258, julio 30 de 2021, párr. 4.
[172] Ibid., párr. 13-14.
[173] Ibid., p. 10.
[174] Expediente digital T-8.764.298, PREGUNTAS SESIÓN TÉCNICA CORTE CONSTITUCIONAL Eje libertad de expresión, género y curación de contenidos.
[175] Chorny Elizalde, García Muñoz y Macias Llanas, “La moderación de contenidos desde una perspectiva interamericana…”, p. 45.
[176] Ibid.
[177] Asamblea General de la Organización de las Naciones Unidas. Informe de la Relatora Especial sobre la promoción y protección del derecho a la libertad de opinión y de expresión, Irene Khan, sobre género y libertad de expresión y opinión. A/76/258, julio 30 de 2021, párr. 26.
[178] Chorny Elizalde, García Muñoz y Macias Llanas, “La moderación de contenidos desde una perspectiva interamericana…”, p. 49.
[179] Consejo Asesor de Meta.2023-036-IG-UA, 2023-037-FB-UA, Educational posts about ovulation.
[180] Consejo Asesor de Meta. 2020-004-IG-UA, Breast cancer symptoms and nudity.
[181] Consejo Asesor de Meta. 2022-010-IG-UA, Gender identity and nudity.
[182] Consejo Asesor de Meta. 2021-016-FB-FB, Swedish journalist reporting sexual violence against minors.
[183] Consejo Asesor de Meta. 2023-053-FB-UA, Breast Self-Exam.
[184] Estos casos son: Consejo Asesor de Meta. 2020-004-IG-UA, Breast cancer symptoms and nudity; 2021-016-FB-FB, Swedish journalist reporting sexual violence against minors; 2022-009-IG-UA and 2022-010-IG-UA Gender identity and nudity.
[185] Gianluca Mauro and Hilke Schellmann, ‘There is no standard’: investigation finds AI algorithms objectify women’s bodies, The Guardian, 8 de febrero de 2023.
[186] Ibid.
[187] Expediente digital T-8.764.298, PREGUNTAS SESIÓN TÉCNICA CORTE CONSTITUCIONAL-Eje libertad de expresión, género y curación de contenidos, p. 29.
[188] Chorny Elizalde, García Muñoz y Macías Llanas, “La moderación de contenidos desde una perspectiva interamericana…” p. 49.
[189] CEDAW, Relatores ONU, OEA, OSCE y CADHP, Declaración Conjunta sobre Libertad de Expresión y Justicia de Género, 3 de mayo de 2022. Disponible en: https://www.oas.org/es/cidh/expresion/showarticle.asp?artID=1233&lID=2
[190] Ibid.
[191] Ibid.
[192] Ibid.
[193] Se refiere a palabras que, si bien no están formalmente incorporadas al diccionario en castellano, en todo caso tienen un uso relativamente nuevo y frecuente en las personas hablantes de la lengua.
[194] Observatorio de la lengua. Real Academia de la Lengua Española, disponible en: https://www.rae.es/observatorio-de-palabras/influencer
[195] Zniva, R., Weitzl, W.J. & Lindmoser, C. Be constantly different! How to manage influencer authenticity. Electron Commer Res (2023). https://doi.org/10.1007/s10660-022-09653-6
[196] Ibid.
[197] Werner Geyser, What is an influencer? – Social Media Influencers Defined, Influencer Marketing Hub, 24 de marzo de 2023. Disponible en: https://influencermarketinghub.com/what-is-an-influencer/
[198] Zniva, R., Weitzl, W.J. & Lindmoser, C. Be constantly different! How to manage influencer authenticity. Electron Commer Res (2023). https://doi.org/10.1007/s10660-022-09653-6
[199] Cámara de Representantes de Colombia. Proyecto de Ley Nº 215 de 2020 Cámara “Por medio del cual se reglamenta la publicidad en redes sociales y se dictan otras disposiciones”.
[200] Al respecto, ver: María Fernanda Pérez Villegas & Sara Alexandra Monsalve Cardona, “Regulación de la Publicidad de los Influenciadores: Una Mirada al Caso Colombiano Desde el Derecho Comparado”, Universidad EAFIT – Escuela de Derecho, Medellín: 2019. Disponible en: https://repository.eafit.edu.co/bitstream/handle/10784/13793/MariaFernanda_Perez_Sara_Monsalve_2019.pdf?sequence=2&isAllowed=y; Catalina Goanta & Isabelle Wildhaber, In the Business of Influence: Contractual practices and Social Media content monetisation. 2019, Schweizerische Zeitschrift für Wirtschafts- und Finanzmarktrecht, 91(4), 346. https://www.szw.ch/de/artikel/2504-0685-2019-0033/business-influence-contractual-practices-and-socialmedia-content
[201] Superintendencia de Industria y Comercio, Guía de Buenas Prácticas en la Publicidad a través de Influenciadores Digitales. Delegatura para la Protección del Consumidor, 2020, p. 11.
[202] Frithjof Micahelsen, Luena Collini, et al., “The impact of influencers on advertising and consumer protection in the Single Market”, Policy Department for Economic, Scientific and Quality of Life Policies Directorate-General for Internal Policies, European Parliament, marzo de 2022, p. 2; Catalina Goanta & Isabelle Wildhaber, In the Business of Influence: Contractual practices and Social Media content monetisation. 2019, Schweizerische Zeitschrift für Wirtschafts- und Finanzmarktrecht, 91(4), 346. https://www.szw.ch/de/artikel/2504-0685-2019-0033/business-influence-contractual-practices-and-socialmedia-content
[203] Catalina Goanta & Isabelle Wildhaber, In the Business of Influence: Contractual practices and Social Media content monetisation. 2019, Schweizerische Zeitschrift für Wirtschafts- und Finanzmarktrecht, 91(4), 346. https://www.szw.ch/de/artikel/2504-0685-2019-0033/business-influence-contractual-practices-and-socialmedia-content, p. 350.
[204] Organización Internacional del Trabajo, Centro Interamericano para el Desarrollo del Conocimiento en la Formación Profesional (OIT/CINTERFOR). “Trabajo”. https://www.oitcinterfor.org/taxonomy/term/3315?page=1#:~:text=Conjunto%20de%20actividades%20humanas%2C%20remuneradas,sustento%20necesarios%20para%20los%20individuos.
[205] Expediente digital T-8.764.298, Contestación Meta Platforms, Inc., (2) (18) (6.3.14), p. 20.
[206] “Cómo resolveremos las disputas. Si eres consumidor, las leyes del país donde resides se aplicarán a cualquier demanda, acción o disputa (“demanda”) que presentes contra nosotros y que surja como consecuencia de estas Condiciones, o en relación con ellas. Asimismo, puedes resolver tu demanda en cualquier tribunal competente del país que tenga jurisdicción”. Expediente digital T-8.764.298, Contestación Meta Platforms, Inc., (2) (18) (6.3.14), p. 22.
[207] Como lo indicó el profesor Nelson Remolina en la audiencia pública convocada con ocasión de este caso, en varias ocasiones la Delegatura para la Protección de Datos de la Superintendencia de Industria y Comercio reafirmó que la ubicación física del proveedor tecnológico no es lo que determina la aplicación de la ley colombiana, y “ni el internet ni la extraterritorialidad pueden ser factores de impunidad ni mucho menos de desconocimiento de derechos humanos. Expediente digital T-8.764.298, Presentación de Nelson Remolina. Sesión Técnica de 15 de noviembre de 2022, disponible en: https://www.youtube.com/watch?v=SCPr0_pdjNw
[208] El artículo 37 del Decreto 2591 de 1991 establece que “son competentes para conocer de la acción de tutela, a prevención, los jueces o tribunales con jurisdicción en el lugar donde ocurriere la violación o la amenaza que motivaren la presentación de la solicitud.” Corte Constitucional, Autos 460 de 2019 y 086 de 2007 reiterados en el Auto 191 de 2021. Es decir, el domicilio del accionante o del accionado no es el factor usado por el ordenamiento jurídico para determinar la competencia territorial de quien conoce la acción de tutela, sin perjuicio de que el domicilio de alguna de las partes pueda coincidir con el lugar donde ocurren los hechos. Corte Constitucional, Auto 762 de 2021.
[209] Según el artículo 76 del Código Civil “[e]l domicilio consiste en la residencia acompañada, real o presuntivamente del ánimo de permanecer en ella”. La jurisprudencia pacífica de la Corte Suprema de Justicia sostiene que de la disposición citada se desprenden dos elementos a verificar sobre el domicilio. Primero, un elemento objetivo, es decir, la residencia. Según la Corte Suprema, se trata de un “hecho perceptible por los sentidos y demostrable por los medios ordinarios de prueba”. Segundo, existe un elemento subjetivo, relacionado con el ánimo de permanencia. Para el Alto Tribunal, dicho ánimo es un “aspecto inmaterial que permanece en el fuero interno de la persona, acreditable por las presunciones previstas por el legislador”. Corte Suprema de Justicia. Sala de Casación Civil y Agraria, sentencia STC13012-2022 (20 de septiembre de 2022).
[210] Expediente digital T-8.764.298, 6.5.4ESPERANZA GOMEZ SILVA, Anexo “CERTIFICADO DE TRADICION ESPERANZA APARTAMENTO”.
[211] Ibid., Anexo “certificado propiedad Yumbo”.
[212] En el apartado de pruebas del oficio remitido al Juzgado 34 Penal Municipal con Función de Conocimiento de Cali, la accionante expresamente solicitó como prueba “Se consulte en el Adres mi vinculación al sistema de seguridad social integral.” Expediente digital T-8.764.298, Pronunciamiento de Esperanza Gómez Silva en el segundo trámite de primera instancia, (2) (41) (41), p. 17.
[213] ADRESS, Base de Datos Única de Afiliados – BDUA en el Sistema General de Seguridad Social en Salud, certificado de afiliación Esperanza Gómez Silva. Consultado el 17 de julio de 2023.
[214] Expediente digital T-8.764.298, 6.5.4ESPERANZA GOMEZ SILVA, Anexo “CONSECIÓN MARCA 10,38 41,43 (1)”.
[215] Ibid., Anexo “EG FASHION MODA GROUP ESTATUTO”.
[217] Expediente digital T-8.764.298, Pronunciamiento de Esperanza Gómez Silva en el segundo trámite de primera instancia, (2) (41) (41).
[218] Expediente digital T-8.764.298, contestación requerimiento junio 2023, (2) (48) (28) (28.4.2).
[219] Delegatura de Protección de Datos Personales de la Superintendencia de Industria y Comercio, Resolución No. 1321 de 2019.
[220] El artículo 86 de la Constitución y el artículo 10 del Decreto 2591 de 1991 establecen que todas las personas pueden presentar acción de tutela ante los jueces para lograr la protección de sus derechos fundamentales cuando estos resulten vulnerados por la acción o la omisión de cualquier autoridad pública y, excepcionalmente, por particulares.
[221] Los artículos 5º y 42 del Decreto 2591 de 1991 señalan que la tutela contra particulares procede cuando están encargados de la prestación de un servicio público, su conducta afecta grave y directamente el interés colectivo, o cuando el accionante se encuentra en una situación de indefensión o de subordinación respecto del particular en cuestión.
[222] Corte Constitucional, sentencia SU-420 de 2019, párr. 63; T-454 de 2018, párr. 6-7
[223] Corte Constitucional, sentencia T-643 de 2013, T-145 de 2016.
[224] Ibid.
[225] Corte Constitucional, sentencia T-643 de 2013.
[226] Corte Constitucional, sentencia T-454 de 2018, párr. 6.
[227] Ibid.
[228] Expediente digital T-8.764.298, Contestación Meta Platforms, Inc., (2) (18) (6.3.14); Contestación Meta Platforms, Inc., (2) (18) (6.3.14), documento “01.1.”, p. 6.
[229] Así lo señalaron varios intervinientes en el proceso de tutela, particularmente en el marco de la Sesión Técnica de noviembre de 2022. Al respecto ver la intervención de Francisco Reyes Villamizar y de José Alberto Toro.
[230] La doctrina discute si estos contratos son de suministro en los que la carga onerosa se refleja no en el intercambio de dinero sino de datos personales o, si más bien, son contratos de adhesión atípicos por la relativa gratuidad de las prestaciones. Ver: Daniela Moreno Martínez (2021). Responsabilidad Contractual de Facebook: contratos de adhesión atípicos y redes sociales. Blog del Semillero de Derecho Contractual de la Universidad de los Andes.
[231] Meta Platforms, Inc. es el nombre que adquirió a partir de 2021 la compañía Facebook, Inc., que nació en 2004 con la red social homónima. En la actualidad, Meta es una compañía multiplataforma, es decir, dueña de varios servicios digitales dentro de los que destacan las redes sociales Facebook, Instagram, WhatsApp y Messenger. Según Statista, en 2022 Meta obtuvo poco más de 117.000 millones de dólares en ganancias, y ocupa el octavo puesto de compañías con mayor valor de mercado a nivel mundial de acuerdo con la revista Forbes. Por todo lo anterior, Meta es una de las cinco compañías que integran el denominado Big Tech o gigantes tecnológicos, un término usado para referirse “a las compañías multinacionales basadas en Estados Unidos Apple, Amazon, Microsoft, Alphabet/Google y Facebook/Meta”, que tienen un dominio casi que indisputable del mercado de las tecnologías de la información.
[232] Expediente digital T-8.764.298, Contestación de Facebook Colombia S.A.S. después de la nulidad (2), p. 7, numeral 2.
[233] Ibid., Anexo 1 – certificado de existencia y representación legal.
[234] Expediente digital T-8.764.298, Contestación de Facebook Colombia S.A.S. después de la nulidad (2), p. 7, numeral 2.
[235] Ibid.
[236] Superintendencia de Industria y Comercio. Resolución 46664, Julio 22 de 2022, Rad. 21-16898, versión pública.
[237] Ibid., p. 17.
[238] Esta posición fue defendida por el profesor Henry Sanabria y por el profesor Francisco Reyes. El primero afirmó que en Colombia es posible hacer notificaciones en el extranjero. El segundo, indicó que la cláusula de competencia de Instagram frente a los jueces nacionales es una manifestación expresa sobre la posibilidad de vincular directamente a Meta en cualquier proceso judicial que se surta en su contra en Colombia.
[239] En este sentido se pronunció Wikimedia, que señaló que la filial de Meta en Colombia puede ser considerada como corresponsables de la compañía en “virtud de la legislación del país anfitrión”. Lorna Woods se pronunció en extenso sobre el caso Google Inc. vs. APED y González y sobre la Ley de Servicios Digitales de la Unión Europea que obliga a designar una autoridad para notificar a compañías como Meta sobre procesos en su contra en países europeos o, en su defecto, a las filiales que tiene en ese continente.
[240] Al respecto, el Tribunal Supremo Federal de Brasil suspendió las operaciones de X Brasil Internet Ltda. -controlada por Twitter International Unlimited Company e incorporada por X Corp.- por causa del incumplimiento de sus órdenes, condenó a esa empresa a pagar multas por casi 30 millones de reales y le ordenó designar a un nuevo representante legal en el país, pues el que había sido nombrado se fue del país. En el fallo, el Tribunal enfatizó en la que las empresas con domicilio en el extranjero tienen el deber de designar a un representante legal o de formar una empresa subsidiaria en Brasil, para poder operar legalmente en dicho país (Tribunal Supremo Federal de Brasil, No. de caso PET 12.404, sentencia del 2 de septiembre de 2024).
[241] El artículo 86 de la Constitución y el artículo 6º del Decreto Ley 2591 de 1991 prevén que la acción de tutela solo procede cuando no existan otros mecanismos de defensa judicial, o cuando estos no sean idóneos ni eficaces para la protección inmediata de los derechos fundamentales.
[242] En aquella sentencia, la Corte señaló que, cuando el accionante es una persona natural o cuando una persona jurídica alega que su nombre fue agraviado por una persona natural, el solicitante debe acreditar que agotó los siguientes mecanismos directos: (i) una solicitud de rectificación ante quien hizo la publicación; (ii) una reclamación ante la plataforma en la que se ubica la publicación; y (iii) en todo caso se debe constatar la relevancia constitucional del asunto, lo que implica verificar el contexto en el que se desarrollaron los hechos. Sentencia SU-420 de 2019, fundamentos 67 a 71.
[243] Expediente digital T-8.764.298, Contestación Meta Platforms, Inc., (2) (18) (6.3.14), p. 27.
[244] Una postura doctrinaria entiende los daños derivados de la conducta de los intermediarios de redes sociales como expresión de la desigualdad negocial previa a la suscripción de los contratos que permiten el acceso a esas plataformas. En este marco, la doctrina distingue dos formas de vinculación: (i) usuarios simples, cuyo contrato tiene por objeto la publicidad y la conexión con otros para crear comunidades en línea que intercambian productos y relaciones y (ii) operadores comerciales, que utilizan la red con fines económicos como vender productos, promover marcas, desarrollar aplicaciones o gestionar actividades empresariales. Meta Platforms, Inc. recoge esta distinción en sus Condiciones de Uso: por un lado, las que rigen para “consumidores”, es decir, quienes acceden para conectar, crear comunidades o hacer crecer sus negocios; y, por otro, las aplicables a cuentas comerciales, centradas exclusivamente en anuncios, ventas, desarrollo de apps, administración de Páginas o medición empresarial. No obstante, existen usuarios que, aun con cuentas personales, emplean la red tanto para interactuar como para promover negocios propios. Según el Tribunal de Justicia de la Unión Europea en el caso Schrems vs. Facebook Ireland Limited, el hecho de obtener lucro no les hace perder su condición de consumidores ni las protecciones correspondientes, pues la relación de desigualdad con la empresa intermediaria se mantiene. Al respecto véase: Daniela Moreno Martínez (2021). Responsabilidad Contractual de Facebook: contratos de adhesión atípicos y redes sociales. Blog del Semillero de Derecho Contractual de la Universidad de los Andes; Meta Platforms, Inc. Condiciones del servicio. Disponible en: https://www.facebook.com/legal/terms; Meta Platforms, Inc. Condiciones comerciales de Meta. Disponible en: https://www.facebook.com/legal/commercial_terms; Tribunal de Justicia de la Unión Europea. Caso Schrems vs. Facebook Ireland Limited, caso C‑498/16. Sentencia del 25 de enero de 2018.
[245] Corte Constitucional. T-584 de 2023 y T-304 de 2023.
[246] Corte Constitucional, sentencia T-109 de 2021.
[247] Ibid.
[248] Sentencia SU-420 de 2019, fundamento 69.
[249] Expediente digital T-8.764.298, Respuestas de Meta Platforms, Inc. a las preguntas formuladas por la H. Corte Constitucional mediante Oficio N. OPTC-208/23, (2) (55) (28), p. 3.
[250] Expediente digital T-8.764.298, Acción de tutela (01), p. 2.
[251] Ibid., Acción de tutela (01), Anexo I, p. 1 y 2.
[252] Expediente digital T-8.764.298, corte constitucional (2) (04) (4.3.2)
[253] Expediente digital T-8.764.298, contestación requerimiento junio 2023, (2) (55) (28), p. 2.
[254] Expediente digital T-8.764.298, Contestación Meta Platforms, Inc., (2) (18) (6.3.14), p. 18.
[255] Apoderado general asociado de Meta, en castellano (traducción libre del despacho). Esta referencia se encuentra en el escrito de contestación de Meta Platforms, Inc., p. 10.
[256] Ibid.
[257] Textualmente, el señor Solanki indicó lo siguiente: “Discutí los hechos de este caso con los equipos que aplican y hacen cumplir los términos y políticas de Meta, y revisé los registros paralelos realizados por esos equipos en el momento en que Meta eliminó la cuenta de Instagram de la Demandante, del servicio. Tengo entendido que la cuenta de lnstagram de la Demandante (@esperanzaagomez) se inhabilitó el 16 de mayo de 2021, después de no menos de 31 violaciones de los Condiciones de Uso y las Normas Comunitarias de Instagram. Las 31 infracciones consistieron en contenido que infringía las disposiciones de las Normas Comunitarias sobre ofrecimiento de servicios sexuales y desnudos. Vale la pena anotar que la cuenta de la Demandante se removió permanentemente de conformidad con las políticas de retención de datos de Meta, previstas en sus Condiciones de Uso y Política de Privacidad y, por lo tanto, no se puede restablecer. Por lo tanto, tampoco puedo proporcionarle al Tribunal copia de las 31 violaciones”. Ver, Expediente digital T-8.764.298, Contestación Meta Platforms, Inc., (2) (18) (6.3.14), p. 10
[258] Expediente digital T-8.764.298, Respuestas de Meta Platforms, Inc. a las preguntas formuladas por la H. Corte Constitucional mediante Oficio N. OPTC-208/23, (2) (55) (28), p. 5 y 6.
[259] Expediente digital T-8.764.298, contestación requerimiento junio 2023, (2) (55) (28), p. 2.
[260] Corte Constitucional, sentencia C-010 de 2000.
[261] El juez constitucional debe verificar que la acción se interpuso dentro de un plazo razonable y oportuno, lo que permite identificar que, realmente, pretenda conjurar una afectación actual de los derechos fundamentales.
[262] Expediente digital T-8.764.298, Contestación Meta Platforms, Inc., (2) (18) (6.3.14), p. 11-12.
[263] “La cuenta de la Parte Accionante fue eliminada permanentemente, de acuerdo a las prácticas y en los términos de eliminación de datos descriptos en las Condiciones de Uso y Política de Privacidad, ya que después de cierto tiempo en que una cuenta es eliminada, se borra definitivamente de todos los servidores, y por consiguiente no puede ser restablecida”. Ibid., p. 9-10.
[264] Corte Constitucional, sentencia SU-522 de 2019.
[265] El hecho superado implica que la amenaza a un derecho ha desaparecido en virtud de una acción de la parte accionada sin necesidad de intervención del juez constitucional. El hecho sobreviniente se produce cuando la amenaza o violación del derecho fundamental ha cesado; o la acción reclamada en la tutela ya se ha cumplido, por razones ajenas a la voluntad de la parte accionada. Finalmente, el daño consumado se refiere a circunstancias en las que la amenaza sobre los derechos fundamentales en riesgo logró concretarse de modo que se causó un perjuicio irremediable. Ver sentencias SU-124 de 2018 y SU-522 de 2019.
[266] Corte Constitucional, sentencia SU-522 de 2019.
[267] Expediente digital T-8.764.298, contestación requerimiento junio 2023, (2) (28) (28.4.2), p. 6.
[268] Expediente digital T-8.764.298, Apoderada de Meta Platforms, Inc. - respuesta a las preguntas de la H. Corte, (2) (18) (6.3.14), p. 10.
[269] Expediente digital T-8.764.298, Apoderado de Meta Platforms, Inc. - Respuestas de Meta Platforms, Inc. a las preguntas formuladas por la H. Corte Constitucional mediante Oficio N. OPTC-208/23 (2) (28) (28.4.3), p. 6.
[270] Ibid.
[271] Meta, Condiciones de Uso de Instagram, Servicio de Ayuda de Instagram. Disponible en: https://help.instagram.com/581066165581870/?cms_id=581066165581870
[272] Meta, Política de Privacidad, Meta Privacy Center Disponible en: https://mbasic.facebook.com/privacy/policy/printable/#8
[273] Ibid.
[274] Tanto las normas comunitarias como las condiciones de uso descritas en este apartado son aquellas aportadas por las partes del caso y las que se encontraban disponibles en los servicios digitales de la plataforma. Algunas de ellas tienen notas de vigencia que permiten identificar con precisión la política que estaba vigente al momento de la eliminación del contenido y la cuenta de la señora Esperanza Gómez Silva, pero otras no tienen dichas notas. En este sentido, a partir de la información aportada por las partes y de la información disponible en la página web, la Corte reconstruyó, en la medida de lo posible, las políticas vigentes para el momento de los hechos. En todo caso, dado que la regulación sobre desnudez y servicios sexuales de adultos se encuentra publicada en el Centro de Transparencia de Meta con sus respectivas actualizaciones, se hará referencia a las normas aplicadas al caso que sí se encuentran disponibles en la versión vigente cuando se eliminaron los contenidos y cuenta de la accionante.
[275] Meta, Condiciones de Uso de Instagram, Servicio de Ayuda de Instagram.
[276] Ibid.
[277] Meta, Normas comunitarias, Servicio de Ayuda de Instagram.
[278] Ibid.
[279] Ibid.
[280] Meta, Normas comunitarias de Facebook, Centro de Transparencia de Meta.
[281] Meta, Normas comunitarias, Servicio de Ayuda de Instagram.
[282] Estas normas tienen versiones por fechas, así que aquí nos referiremos exclusivamente a aquellas que se encontraban vigentes durante el primer semestre de 2021, es decir, las normas publicadas en noviembre de 2020.
[283] Meta, Desnudos y actividad sexual de adultos, Centro de Transparencia de Meta.
[284] Esta sección de la norma vigente al momento de los hechos objeto de análisis no fue aportada por la parte accionada en sus escritos remitidos al despacho sustanciador. Sin embargo, cuando el despacho sustanciador la revisó, se encontraba disponible exclusivamente en inglés en el Centro de Transparencia de Meta, por lo que el despacho se apoyó de la herramienta Deepl para la traducción del apartado. En: Meta, Desnudos y actividad sexual de adultos, Centro de Transparencia de Meta, normas vigentes a noviembre de 2020.
[285] Meta, Servicios sexuales, Centro de Transparencia de Meta.
[286] Ibid.
[287] Ibid.
[288] Esta sección de la norma vigente no fue aportada por la parte accionada en sus escritos remitidos al despacho sustanciador, sino la versión de la política que se encontraba vigente al momento de enviar la información a la Corte Constitucional. Sin embargo, cuando el despacho sustanciador la revisó, se encontraba disponible exclusivamente en inglés en el Centro de Transparencia de Meta, por lo que el despacho se apoyó de la herramienta Deepl para la traducción del apartado. En: Meta, Servicios sexuales, Centro de Transparencia de Meta. Normas vigentes a febrero de 2021.
[289] Expediente digital T-8.764.298, Apoderada de Meta Platforms, Inc. - respuesta a las preguntas de la H. Corte, (2) (18) (6.3.14)
[290] Ibid., p. 7.
[291] Meta, How technology detects violations?
[292] Meta, How enforcement technology works?
[293] Ibid.
[294] Ibid.
[295] Ibid.
[296] Ibid.
[297] Expediente digital T-8.764.298, Apoderado de Meta Platforms, Inc. - Respuestas de Meta Platforms, Inc. a las preguntas formuladas por la H. Corte Constitucional mediante Oficio N. OPTC-208/23 (2) (28) (28.4.3), p. 4.
[298] Expediente digital T-8.764.298, Apoderada de Meta Platforms, Inc. - respuesta a las preguntas de la H. Corte, (2) (18) (6.3.14)
[299] Ibid.
[300] Meta, How Meta prioritizes content for review? Centro de Transparencia de Meta.
[301] Ibid.
[302] Por ejemplo, en un estudio pionero al respecto en Reino Unido, varios investigadores concluyeron que si bien no es acertado llamar ‘sexistas’ ciertos modelos automatizados de moderación de contenidos, sí demostraron que “ciertas formas de entrenamiento están sesgadas de formas que vale la pena estudiar antes de implementar dichos sistemas” En: Binns, R., Veale, M., Van Kleek, M., Shadbolt, N. Like Trainer, Like Bot? Inheritance of Bias in Algorithmic Content Moderation. In: Ciampaglia, G., Mashhadi, A., Yasseri, T. (eds) Social Informatics. SocInfo 2017. Lecture Notes in Computer Science, vol 10540. Springer, Cham. https://doi.org/10.1007/978-3-319-67256-4_32
[303] Expediente digital T-8.764.298, Apoderado de Meta Platforms, Inc. - Respuestas de Meta Platforms, Inc. a las preguntas formuladas por la H. Corte Constitucional mediante Oficio N. OPTC-208/23 (2) (28) (28.4.3), p. 5.
[304] Thomas Stackpole, “Content Moderation Is Terrible by Design”. En: Harvard Business Review, The Big Idea Series / Incivility on the Front Lines of Business, 9 de noviembre de 2022.
[305] Meta, Helping reviewers make the right calls. Centro de Transparencia de Meta.
[306] Ibid.
[307] Meta, Taking down violating content, Centro de Transparencia de Meta.
[308] Expediente digital T-8.764.298, Apoderada de Meta Platforms, Inc. - respuesta a las preguntas de la H. Corte, (2) (18) (6.3.14), p. 3.
[309] Meta, Counting strikes, Centro de Transparencia de Meta.
[310] Meta, Restricting accounts, Centro de Transparencia de Meta.
[311] Meta, Disabling accounts, Centro de Transparencia de Meta.
[312] Expediente digital T-8.764.298, Apoderada de Meta Platforms, Inc. - respuesta a las preguntas de la H. Corte, (2) (18) (6.3.14), p. 9.
[313] Meta’s Oversight Board, “Appeals Process”.
[314] Expediente digital T-8.764.298, Presentación de Esperanza Gómez Silva, min. 21 y ss. Sesión Técnica de 15 de noviembre de 2022, disponible en: https://www.youtube.com/watch?v=SCPr0_pdjNw
[315] Ibid.
[316] Ibid.
[317] Dijo la accionante: “Quiero que me dejen de discriminar…Estoy cansada de sentir el acoso, la persecución, porque no es la primera vez que me cierran mis perfiles. Simplemente me siento vulnerada en mis derechos al trabajo, a la igualdad, a todo lo que siento yo que tiene derecho un ser humano…me exalto porque me parece injusto que me sigan atacando de esa manera. Decido instaurar una acción de tutela contra Instagram porque siento que efectivamente he sido discriminada, que me están vulnerando mis derechos.” Expediente digital T-8.764.298, PREGUNTAS SESIÓN TÉCNICA CORTE CONSTITUCIONAL. Eje libertad de expresión, género y curación de contenidos, p. 18-19.
[318] Expediente digital T-8.764.298, Contestación Meta Platforms, Inc., (2) (18) (6.3.14), p. 12.
[319] “Hump day”: https://dictionary.cambridge.org/dictionary/english/hump-day. “Humping”: https://dictionary.cambridge.org/dictionary/english/humping.
[321] Ibid., p. 13.
[322] Ibid., p. 14.
[323] Corte Constitucional, sentencia T-391 de 2007.
[324] Ibid.
[325] Sobre este tema, resulta de especial relevancia el reciente informe sobre moderación de contenidos de la Relatoría para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos, Inclusión digital y gobernanza de contenidos en Internet. Allí se reconoce de manera amplia el desafío del estudio de legalidad, cuando la moderación la ejerce un particular y, en especial, una plataforma. Disponible en https://www.oas.org/es/cidh/expresion/informes/Inclusion_digital_esp.pdf, párrafos 261 a 266.
[326] Esta sección de la norma vigente no fue aportada por la parte accionada en sus escritos remitidos al despacho sustanciador, sino la versión de la política que se encuentra vigente en la actualidad. Sin embargo, se encuentra disponible exclusivamente en inglés en el Centro de Transparencia de Meta, por lo que el despacho se apoyó de la herramienta Deepl para la traducción del apartado. En: Meta, Servicios sexuales, Centro de Transparencia de Meta. Normas vigentes a febrero de 2021.
[327] Expediente digital T-8.764.298, Apoderado de Meta Platforms, Inc. - Respuestas de Meta Platforms, Inc. a las preguntas formuladas por la H. Corte Constitucional mediante Oficio N. OPTC-208/23 (2) (28) (28.4.3), p. 5-6.
[328] Expediente digital T-8.764.298. Respuesta Meta a preguntas de la CC del Oficio OPTC-426-23 – Esperanza Gómez, p. 3 y 4.
[329] Expediente digital T-8.764.298, Acción de tutela (01), p. 2; Anexo I, p. 1 y 2; Expediente digital T-8.764.298, corte constitucional (2) (04) (4.3.2); Expediente digital T-8.764.298, Contestación de Facebook Colombia S.A.S. (02), p. 7. Ver: capítulo sobre subsidiariedad.
[330] Clarín. Los impactantes números del reguetón, un fenómeno que sigue creciendo en Latinoamérica y expande sus fronteras. 08 de julio de 2021. Disponible en: https://www.clarin.com/espectaculos/musica/impactantes-numeros-regueton-fenomeno-sigue-creciendo-latinoamerica-expande-fronteras_0_birOWhgrG.html
[331] El debate sobre la música, el cuerpo, el erotismo y el machismo es apasionante y la presencia del reguetón, su importancia e impacto global no pueden desconocerse. Sin embargo, no corresponde a la Corte juzgar el contenido de una canción específica, sino destacar la manera en que el control de contenidos resulta en una restricción desproporcionada de la expresión cuando utiliza reglas vagas y cuando los mecanismos de detección de contenidos no evidencian sensibilidad al contexto.
[332] Expediente digital T-8.764.298, Presentación de Esperanza Gómez Silva, min. 21 y ss. Sesión Técnica de 15 de noviembre de 2022, disponible en: https://www.youtube.com/watch?v=SCPr0_pdjNw
[333] Corte Constitucional, sentencia C-862 de 2008.
[334] Sobre la intensidad del examen de igualdad y del juicio integrado de proporcionalidad, la Corte Constitucional unificó su jurisprudencia en la Sentencia C-345 de 2019.
[335] Ibid.
[336] Meta, Corporate Human Rights Policy, 2021.
[337] Corte Constitucional, sentencia C-107 de 2002.
[338] OIT. “Trabajo”. https://www.oitcinterfor.org/taxonomy/term/3315?page=1.
[339] Corte Constitucional, sentencia T-624 de 1995.
[340] Expediente digital T-8.764.298, Acción de tutela (01), Anexo II.
[341] Ibid.