La desaparición del INAI: riesgo a la privacidad en tiempos de vigilancia masiva

El 27 de enero se conmemoró el Día Internacional de Protección de Datos Personales. Esto nos recuerda que en un contexto mundial de explotación masiva de datos personales a través del big data y la inteligencia artificial (IA), es necesario contar con instrumentos y organismos autónomos que protejan la privacidad de los usuarios de las tecnologías. La primera ocasión que se volvió parte de la discusión pública mundial saber quién tiene y para qué utilizan nuestros datos personales fue fruto del escándalo respecto la compañía Cambridge Analytica.1 Este fue un precedente que marcó a la comunidad global al conocer cómo sus datos eran sustraídos y vendidos a diversas empresas no sólo para ofrecer mejores servicios sino para beneficiarse económicamente de éstos.

Ahora bien, la privacidad es indispensable para el ejercicio de otros derechos humanos, como la libertad de expresión, de reunión y asociación, así como el ejercicio pleno de la autonomía para decidir sobre lo que deseamos como personas. En este sentido, es indispensable analizar el nexo entre el derecho a la privacidad y las tecnologías como la IA desde los impactos diferenciados que pueden causar a otros derechos humanos. Por ejemplo, no es lo mismo que se recaben datos de personas que radican en ciudades grandes a los que residen en zonas rurales, pues el objetivo de comercializar y consumir productos es distinto.

Además, podemos encontrar esta relación en la explotación de datos que provienen de la conexión de los diferentes dispositivos y el constante rastreos e identificación por medio de tecnologías como el reconocimiento facial2 y, ahora, el reconocimiento emocional.3 Estos instrumentos tecnológicos analizan e identifican a los individuos para clasificarlos sin su consentimiento ni conocimiento. Y son los gobiernos quienes están adquiriendo dicha tecnología sin la debida diligencia, transparencia y rendición de cuentas sobre su uso y fines.4 Lo anterior ha creado un aumento en la vigilancia, monitoreo y seguimiento de individuos bajo la justificación de ser medidas de prevención de propagación de la pandemia, por seguridad nacional o incluso para reducir los altos índices de criminalidad. Pero, ¿es cierto que el uso de estas tecnologías ha sido eficiente y eficaz para cumplir con el objetivo principal? O, ¿para qué otros fines son utilizados?

Ilustración: Víctor Solís

La incorporación gradual de la IA en la sociedad, entendida como “la simulación de procesos o actividades humanas llevadas a cabo por máquinas dotadas con la capacidad de razones, planificar y aprender”,5 ha tomado mayor relevancia en una coyuntura como la pandemia del Covid-19.  De hecho durante la pandemia han abundado las iniciativas gubernamentales que buscan monitorear contagios mediante la recopilación de datos o meta datos, generando serios cuestionamientos sobre el tratamiento de datos personales.

En este tipo de tecnologías, la IA se fusiona con el trabajo que realiza el big data el cual es considerado como “un agregado de avances tecnológicos que ha permitido recolectar, almacenar y analizar grandes cantidades de datos”6 con la ayuda de las tecnologías de rastreo que permiten adquirir de manera rápida información relacionada con búsquedas en Internet, páginas que visitamos, interacciones en redes sociales, ubicación de las personas, entre otras. El vinculo entre el IA y el big data es que el primero requiere de una programación para realizar el análisis de los datos que se le proporciona y aprenden de ésta con la intención de perfeccionar la nueva base de datos de acuerdo a los intereses que se requiere.7

Sin embargo, la adopción de herramientas tecnológicas para recolectar información, monitorear a la población, tomar decisiones y anteponer justificaciones de seguridad o de salud representa un riesgo inminente para los derechos humanos. Lo anterior se demuestra cuando el uso de tecnologías de vigilancia puede ser usadas con fines de persecución a disidentes que estén participando en alguna manifestación dentro del espacio cívico. El caso del uso ilegal del spyware Pegasus en contra de periodistas, activistas y personas defensoras de derechos humanos es muestra de cómo se vulnera la integralidad de los derechos fundamentales: la invasión grave a la privacidad mediante el espionaje tiene como objetivo inhibir la investigación periodística y la libre manifestación de ideas.

Por lo tanto, es relevante considerar que el uso de las diferentes aplicaciones y servicios tecnológicos que pueden afectar el derecho a privacidad deberán desarrollarse desde una óptica integral considerando que: i) el uso de lA no debe utilizarse para identificar a personas que desean estar en el anonimato; ii) el uso e instrumentalización de la IA no debe utilizarse para interferir y adquirir información sensible sobre las personas y; finalmente, iii) el uso de métodos de IA basado en datos no deben crear consecuencias de impacto en la vida de las personas.

Por ejemplo, el uso de tecnologías de reconocimiento facial en protestas como las desplegadas en Estados Unidos (Black Lives Matter) o Hong Kong, además de vulnerar directamente el derecho a la privacidad de las personas, pretende inhibir la libre manifestación mediante la apropiación del espacio público. Una persona que se siente identificada o “perfilada” por la policía, puede sentir temor ante posibles represalias por parte de las autoridades.

En este contexto, el derecho fundamental a la protección de datos personales se enfrenta a retos que ponen en riesgo a su vez el ejercicio de otros derechos como la libertad de expresión o la participación en el espacio cívico. Y, por ello, es fundamental contar con una institución que garantice su protección de manera autónoma.

Los recientes señalamientos del presidente Andrés Manuel López Obrador8 —respecto a una posible iniciativa de una “reforma administrativa” para que el INAI y el Instituto Federal de Telecomunicaciones (IFT) pasen a ser parte de secretarías y dependencias del gobierno federal— ponen en riesgo precisamente la garantía de este derecho.

Los estándares internacionales en materia de derechos humanos, en especial del derecho a la información, han establecido como un deber de los Estados la creación de un organismo especial9 mediante el cual se pueda hacer exigible el derecho de acceso a la información y de protección de datos personales.

La ley modelo interamericana sobre el derecho de acceso a la información establece que el organismo garante del derecho a la información —que pondera también el ejercicio del derecho a la protección de datos personales— debe ser una institución autónoma. En un contexto en el que el Estado también ha sido partícipe en el tratamiento de datos personales o, incluso, ha incurrido en la vigilancia y espionaje ilegales, su autonomía adquiere mayor relevancia. Muestra de ello es que en el caso Pegasus, el INAI determinó en febrero de 2019 la vulneración de la protección de datos personales, dando cuenta además de actos de manipulación de evidencia, obstaculización de investigaciones penales y falsedad de declaraciones al interior de la PGR. También confirmó la opacidad de la PGR en la adquisición y compra de estos programas sofisticados y costosos, que de hecho indican posibles actos de corrupción previamente documentados en esta trama.

Es necesaria la protección de datos personales y la privacidad para el ejercicio de la libertad de expresión y la participación ciudadana -derechos clave para la vida democrática-.  Así, un real compromiso con la defensa de los valores democráticos implica enfocarse en el fortalecimiento institucional del INAI y los organismos garantes locales, en su autonomía y no en su completa desaparición. Tal como esbozamos al inicio de este texto, se vislumbran grandes retos con el uso de big data y la AI, perfilando batallas ciudadanas por los derechos a la privacidad y la información. En esta batalla un órgano independiente y autónomo es garantía mínima indispensable para proteger los derechos en juego.

Priscila Ruiz. Coordinadora Legal del Programa de Derechos Digitales de ARTICLE 19 Oficina para México y Centroamérica.


1Cambridge Analytica: la multa récord que deberá de pagar Facebook por la forma en que manejó los datos de 87 millones de usuarios”, BBC News Mundo, publicado el 24 de julio de 2019, consultado el 25 de enero de 2021.

2Privacy and Freedom of Expression in the Age of Artificial Intelligence”, Article 19 & Privacy International, April 2018, p. 20.

3Emotional entanglement: China´s emotion recognition market and its implications for human rights”, Article 19, January 2021, p. 14.

4 Ibidem, p. 36.

5 Op. Cit. nota 4.

6 González Guerrero, L. D. (2019). “Control de nuestros datos personales en la era del big data: el caso del rastreo web de terceros”, Estudios Socio-Jurídicos, 21(1), 209-244. Doi: http://dx.doi.org/10.12804/revistas.
urosario.edu.co/sociojuridicos/a.6941

7 Disponible aquí.

8 Versión estenográfica de conferencia matutina del 7 de enero de 2021. Consulta: 14 de enero de 2021.

9 RELE, “El derecho de acceso a la información en el marco jurídico interamericano”, OEA, 30 de diciembre de 2009. Consulta: 14 de enero de 2021.