Menu
Para Carissa Véliz (México, 1986), doctora en Filosofía y profesora de Ética en la Universidad de Oxford, la privacidad es poder. Por eso –advierte– las decisiones que tomemos sobre nuestra privacidad en un mundo globalizado y digital moldearán el futuro de la humanidad durante décadas. Hablamos a través de notas de voz de la red social Signal en esta entrevista «en diferido» sobre «economía de datos», democracia y ética digital.

Mariana Toro Nader
Ethic - 2 de septiembre de 2024

En Privacidad es poder adviertes de que las empresas y los gobiernos nos están rastreando a cada minuto, utilizan nuestros dispositivos para saber quiénes somos, predecir nuestro comportamiento e influir en él. El desarrollo de nuevas tecnologías ha sido exponencial. ¿Crees que la situación en la que se encuentra nuestra privacidad está siendo cada vez peor?

No es fácil determinar exactamente si nuestra privacidad está mejor o peor que hace tres años. Por una parte, efectivamente sí hay más tecnologías que son muy invasivas y, en particular, la inteligencia artificial generativa ha consumido todo tipo de datos personales y preocupa mucho que no parece que estas empresas puedan cumplir con el Reglamento General de Protección de Datos. Por ejemplo, una empresa como OpenIA no está segura de qué datos tiene sobre ti y tampoco puede corregir los que sean incorrectos, ni mucho menos borrarlos. Pero, al mismo tiempo, cada vez hay más conciencia entre las personas de la importancia de la privacidad y también tenemos más herramientas para protegerla, como Signal, Protonmail, DuckDuckGo. Estos servicios están creciendo a un ritmo muy sano, lo cual sugiere que los ciudadanos están cansados de que se viole su privacidad por doquier y están buscando alternativas que, por otra parte, son cada vez mejores. También, alrededor del mundo vemos que hay más intentos por regular estas tecnologías y ahora mismo se está debatiendo en Estados Unidos una ley federal de la privacidad. No está claro que vaya a salir adelante, pero que esté en el debate público ya es un avance con respecto a hace unos años.

¿Crees que la Ley de Servicios y Mercados Digitales o la Ley de IA que acaba de aprobar la Unión Europea tienen la capacidad de hacer del ciberespacio un lugar más seguro? ¿Más ético?

En general creo que esta regulación es un paso en la dirección correcta; sin embargo, nos falta camino que andar. Creo que hasta que no prohibamos el comercio de datos personales va a ser muy difícil minimizar las amenazas a la privacidad. Mientras uno pueda vender datos personales siempre va a haber la tentación de recolectar más de los necesarios y de venderlos al mejor postor. Otra cuestión que siento que la ley no reconoce suficientemente es la responsabilidad moral que supone convertir algo en datos. Se habla mucho de recolección de datos, como si fueran algo que está allá afuera, como setas en el bosque. Pero cuando se recolectan es que se transforma algo que no era un dato y esa decisión es moralmente significativa, porque los datos personales son muy sensibles, muy difíciles de proteger, y hay mucha gente que los quiere para abusar de ellos; por ejemplo, criminales, gobiernos adversarios, y por supuesto agencias de marketing, campañas políticas.

Además, existen diferentes tipos de datos personales, que van desde los identificativos como el DNI, el teléfono o la dirección postal, hasta los financieros, familiares, las preferencias o aficiones y también están los biométricos. Hace unos meses vimos las filas de cientos de jóvenes vendiendo la foto de su iris a Worldcoin –cofundada por el creador de ChatGPT, Sam Altman–. La Agencia Española de Protección de Datos prohibió que la empresa continuara con el escaneo ocular. ¿Qué consecuencias podría acarrear la venta de datos biométricos?

Uno no da simplemente los datos que quiere dar, sino que da datos a través de los cuales se pueden hacer inferencias. Por ejemplo, cuando tú das datos de tus gustos musicales puede que no te importe que otro los sepa, pero estos se utilizan para, por ejemplo, inferir tu orientación sexual o tu estado de ánimo. Igual no querías darlos, pero no te estabas dando cuenta. Los datos biométricos son particularmente sensibles porque no los puedes cambiar. Cuando tú tienes una contraseña, si la pierdes, hay maneras de cambiarla. Pero si tú pierdes los datos de tu genética, de tu iris o de tus huellas dactilares, pues no se pueden cambiar. Por eso a los expertos en privacidad les gusta tan poco que se usen datos biométricos para cuestiones innecesarias, porque genera un riesgo innecesario. Si estos datos se pierden puede haber robos masivos de identidad y generar problemas no solamente graves para los individuos sino también problemas sistémicos.

Lee aquí la nota completa

Go Back

Comments for this post have been disabled.