Este blog forma parte de una serie sobre derechos de datos colectivos en América Latina. Lee las perspectivas de Mariana Valente y Francisco Brito Cruz de InternetLab y Javier Pallero de Access Now y únete a nuestra sesión en RightsCon el jueves 10 de junio, donde los autores se reunirán para seguir debatiendo.
Por Carlos Cortés, Linterna Verde
Durante los primeros días de la pandemia de Covid-19, los gobiernos de Latinoamérica ofrecieron un intercambio básico a sus ciudadanos: dennos sus datos y los protegeremos. Dentro del marco oficial, nuestros comandantes en jefe estaban librando una guerra contra un enemigo externo; las voces críticas eran vistas como obstáculos y las preocupaciones individuales consideradas insignificantes o superfluas.
Más de un año después del comienzo de esta crisis, está claro que el hecho de entregar nuestros datos no previno el brote. Las aplicaciones de rastreo de contactos no son más que un fracaso costoso que refleja el determinismo inapropiado de la narrativa tecnológica. Sin embargo, nuestros gobiernos efectivamente nos extrajeron innumerables puntos de datos, y ciertas prácticas extraordinarias -tales como requerir información básica para visitar tiendas o viajar entre ciudades dentro de un país - podrían convertirse en prácticas normales.
Se puede decir que la pérdida individual de esta extracción de datos está en los ojos de quien la mira. Para muchas personas, los defensores de la privacidad exageran los riesgos que surgen de entregar nuestra información a los gobiernos y a los intermediarios privados. “Si no tienes nada que ocultar, no tienes nada que temer”, dicen. Pero ¿qué hay de los riesgos colectivos?
Tomemos en consideración, por ejemplo, a las personas con condiciones preexistentes como la obesidad. Como el Covid-19 representa una amenaza especial para este grupo, los sistemas de datos y las aplicaciones de salud oficiales han recopilado mucha información sobre ellos: edad, ubicación, riesgos relacionados. ¿Estarán los aseguradores interesados en esta información? ¿Usarán los sistemas de salud públicos dicha información con nuevos propósitos luego de la pandemia? ¿Qué problemas surgirán de la recolección de estos datos?
“En la era del Big Data y la Inteligencia Artificial, la gente sufre a causa de la manera en que la suma de datos individuales es analizada y clasificada en grupos por algoritmos”, escribe Martin Tisné en “La Delusión de los Datos”. La Inteligencia Artificial en Latinoamérica está en pañales, y las iniciativas oficiales -en el poder judicial, por ejemplo- son asumidas sin responsabilidad alguna. Pero el big data presenta un riesgo actual, que es colectivo y ha sido en gran parte ignorado.
Tisné sugiere que este debate se traslade más allá de los derechos individuales y encuentre algún tipo de materialización: “Cuanto más colectivo el daño, menos gente está protegida y menos visible es el daño.”. El procesamiento de datos y la toma de decisiones basada en datos son invisibles pero sus efectos son reales. Sin embargo, la sociedad civil lucha contra las metáforas y narrativas apropiadas que pueden fomentar una teoría de cambio.
Si bien la región tiene marcos de protección de datos legales y constitucionales sólidos, los enfoques colectivos a la protección de datos carecen de sofisticación y matices. En este ámbito, las autoridades y los jueces están acostumbrados a individualizar los problemas y las responsabilidades, o como mucho a comprender los riesgos colectivos como una suma de los riesgos individuales. La evaluación de los daños inferidos y optimizados -siguiendo con la caracterización de Tisné- parece estar fuera de su alcance.
Con respecto al elemento de visibilidad, Tisné sugiere buscar metáforas colectivas para que la gente asuma el reto que enfrentamos. “Al igual que con el CO2, la privacidad de datos va mucho más allá de la persona. Somos prisioneros del consentimiento de los otros”, afirmó. ¿Funcionará dicha idea en Latinoamérica?
En primer lugar, el valor individual de la privacidad necesita ser revisado y fomentado. La pandemia mostró, aunque de ninguna manera fue el primer ejemplo, la importancia secundaria que los ciudadanos le dan a este derecho. Reformular este tema de maneras colectivas y visibles requiere de un reconocimiento individual adecuado.
Por otro lado, las metáforas colectivas deberían definirse en un nivel local y contextual. ¿Dónde están los puntos de tensión comunes en nuestro debate público? ¿Qué temas colectivos están impulsando la indignación y podrían usarse para activar nuevos marcos relacionados con los riesgos de datos en el nivel sociedad? Capaz serían el fracking, los intereses urbanos tales como la seguridad pública, la movilidad y las zonas verdes, o los temas técnicos como la evasión impositiva. Incluso los riesgos colectivos relacionados con el Covid-19 (distanciamiento social, uso de mascarilla) pueden aportar ideas nuevas.
El trabajo de Tisné es ciertamente una provocación necesaria para nuestra región, y de la misma manera en que la pandemia desencadenó riesgos de privacidad nuevos, la sociedad civil debería encontrar caminos no sólo contra dichos cambios sino también para redefinir la narrativa de la conversación.