Saltar al contenido

«Estamos financiando Internet con la violación del derecho a la privacidad»

9 de abril de 2023

Nacida mexicana pero con la triple nacionalidad, mexicana, británica y española, con tan solo 37 años, Carissa Veliz es una autoridad mundial en el terreno de la privacidad en el mundo digital

y la ética aplicada a la inteligencia artificial.

Profesora del Instituto de Ética de la Inteligencia Artificial de la Universidad de Oxford, ha sido miembro del Grupo de Expertos que ofreció asesoramiento para la Carta de Derechos Digitales del Ministerio de Economía y Transformación Digital de España. Testigo sobre libertad de expresión y políticas públicas para la Cámara de los Lores en Inglaterra, así como miembro del Grupo Asesor de Alto Nivel sobre Tecnología y Orden Global del Ministerio de Asuntos Exteriores de España.

Trabaja en privacidad y tecnología, filosofía moral y política y políticas públicas. Véliz ha publicado artículos en medios como El País, El guardián, The New York Times, New Statesman y The Independent. También ha publicado trabajos académicos en la Harvard Business Review, Nature Electronics, Nature Energy y Bioética, entre otras revistas. Es editora del próximo manual de ética digital de la Universidad de Oxford y autora del libro Privacidad es poder (Debate), seleccionado por The Economist como uno de los libros del año, y el primer libro que hace una llamada a poner fin al comercio de datos personales.

Hace dos semanas recalaba en Granada para impartir una conferencia sobre Inteligencia Emocional, con ese motivo concedía una entrevista a granada hoy, en la que alerta de los riesgos que se comporta para los derechos de la ciudadanía, e incluso para la democracia, el desarrollo sin filtros de la IA y la digitalización sin ningún tipo de supervisión ni legislación que las controle.

¿En la Inteligencia Artificial es oro todo lo que reluce?

Hay muchas sombras sobre la Inteligencia Artificial. Los seres humanos tenemos la tendencia a ser muy optimistas y eso tiene sus ventajas, pero también sus desventajas. En el mundo de la tecnología tendemos a pensar que la tecnología va a funcionar de una manera perfecta en el mejor de los mundos posibles, pero rara vez es así y para evitar las peores consecuencias y los riesgos más graves, hay que tener a gente que se ponga a pensar qué puede salir mal, porque en la mayoría de los casos, algo a salir mal y eso es algo que ahora mismo no estamos haciendo. Cualquiera puede diseñar un algoritmo para hacer lo que sea y no se encuentra con ningún tipo de supervisión ni legislación que lo controle un día de hoy.

¿Qué puede salir mal?

Pues ni más, ni menos que nos cargamos la democracia y eso es algo que ya estamos viendo. En el caso de Cambridge Analytical, vimos como los datos personales se pueden utilizar para perfilar a los votantes y tratar de influir en el sentido de su voto, algo fundamental en elecciones que se ganan o se pierden por márgenes muy estrechos, lo que demuestra que es más que posible influir en los resultados electorales a través de la inteligencia artificial. Ahora estamos viendo con el chat GPT un auténtico desafío a muchas instituciones como las educativas, que se basan en el ensayo como medio fundamental para educar y calificar a los estudiantes. No sabemos muy bien como adaptar esas herramientas y no se nos ha dado tiempo de tener un debate público al respecto, ni poner reglas o pensar en alternativas, porque este tipo de avances se pueden utilizar en contra de la democracia de muchas maneras, pero sobre todo de dos, una la desinformación, que ya es un gravísimo problema que no estamos sabiendo controlar, con una herramienta como el chatGPT que puede desinformar a una escala planetaria con muy poco coste, es algo muy peligroso y en segundo lugar el enorme riesgo que posee para hacer lobby contra los políticos, remitiéndoles miles y miles de mensajes como si determinados de personas para que tomen una determinada postura, sin que esos políticos tendrán medio de saber si esos mensajes son de votantes reales que les están escribiendo, o de un chat GPT que está intentando influir en la democracia.

Recomendado:  TechScape: siete acrónimos principales de IA explicados | Tecnología

¿Somos conscientes de la ciudadanía del valor que tienen nuestros datos y del peligro que tiene que no cuidemos nuestra privacidad digital?

Absolutamente no. Y en parte eso ocurre por la naturaleza de lo digital. En el mundo analógico, cuando en una entrevista de trabajo tu entrevistador te preguntaba si esperabas tener hijos, estaba muy claro lo que podías perder en función de tu respuesta; hoy corres el mismo riesgo pero no te das cuenta; no sabes cuando esa empresa accedió a tus datos, no sabes como se están utilizando para saber cosas sobre ti y no te das cuenta que esos datos tuyos se han vendido a la empresa a la que pediste un empleo y que no te dio precisamente por esos datos tuyos que ya obran en su poder. Es muy fácil pensar que tus datos no leen nada, o valen muy poco y que por lo tanto no pasa nada si los pierdes, pero no es así porque existe la conexión entre las cosas malas que te pasan y los datos que perdiste o «regalaste «. También creo que hemos perdido una conciencia política del lado más colectivo de la privacidad, porque la privacidad es tan colectiva como personal. Los datos se han utilizado en el pasado para perseguir a las personas, se utilizan para los mismos fines hoy y se pueden seguir utilizando en el futuro, con lo cual, si queremos defender nuestros estilos de vida liberales y democráticos, hay que tener mucho más conciencia sobre nuestra privacidad. Le preocupa la financiación de investigaciones sobre Inteligencia Artificial por parte de regímenes dictatoriales, donde no se respetan los más elementales estándares democráticos

Recomendado:  Comparación de los niños con los agentes de RL en entornos unificados - El blog de investigación de inteligencia artificial de Berkeley

Eso me preocupa bastante. Lo que puede ocurrir en Granada con el ADIA Lab de Emiratos Árabes Unidos, es algo muy parecido a lo que está haciendo China con la exportación de muchas tecnologías. Supone que pongamos en sus manos datos muy sensibles, en lo personal y en lo político, además de otorgarle el poder de apagar sistemas en un momento dado en ciudades inteligentes. Si las dictaduras están exportando ese tipo de sistemas es porque les viene muy bien a esos sistemas, ya que las herramientas de vigilancia son herramientas de control, el deber de las democracias liberales es exportar privacidad, tanto en la tecnología que diseñamos como en la cultura y en estándares internacionales.

¿Es Europa subsidiaria en este material de EEUU o de China con todo lo que ello supone?

Por supuesto. Consumimos muchísima tecnología que no hemos diseñado nosotros y eso es un riesgo. Europa es un caso muy interesante porque es la sede las instituciones que garantizan la protección de datos, lo que ha tenido un efecto brutal que ya conocemos como el «efecto Bruselas» y que no solo afecta al continente, sino que también ha mejorado esos estándares un nivelmundial. Eso es algo que nos protege frente a esa subsidiariedad tecnológica que otros diseñan y nos facilita un cierto poder de injerencia sobre como se diseñan esas tecnologías.

¿Somos conscientes de lo que puede haber detrás de un smartphone de última generación, o de otros avances tecnológicos?

Asumimos con mucha naturalidad que la tecnología es buena per se y que siempre es progreso y eso depende. Hay veces que sí, que la tecnología está progresando, pero también hay que puede ser un retroceso político y social. Si diseñamos un algoritmo que es racista y sexista, ya puede ser el algoritmo más puntero tecnológicamente del mundo, que eso seguirá siendo un retroceso social. Creo que hay que desafiar un poco la ideología «tecnooptimnista», porque está muy bien ser optimista y diseñar tecnología que mejore nuestra vida, pero siempre hay que pararse a pensar qué puede salir mal y sobre todo, diseñar con la ética en mente. La ética no puede ser algo en lo que pensar cuando ya tienes el producto, porque entonces ya es muy tarde y esa tarea pendiente, ya que todavía no se diseña la tecnología desde la ética.

¿Nuestros jóvenes viven en un mundo virtual porque hemos descuidado el analógico?

La narrativa que nos venden las tecnológicas es que los jóvenes están en el mundo virtual porque es un mundo fantástico y maravilloso y hay veces que sí, que el mundo virtual puede ser un complemento importante para el mundo real, pero muchas otras veces si los jóvenes están en ese mundo virtual, es porque hemos descuidado el analógico también, nuestros ambientes naturales y algunas instituciones culturales y sociales, como las cafeterías, los bares y los lugares de encuentro, que cuando cierran son muy difíciles de recuperar. Durante la pandemia hubo muchos factores que jugaron en nuestra contra y este fue uno de ellos.

Recomendado:  La mayoría de las personas no están ansiosas por la inteligencia artificial

¿Nuestro teléfono inteligente, nuestra casa domotizada o nuestro coche inteligente son espías de nuestra privacidad?

Es una relación curiosa. Antes éramos dueños de nuestros objetos y ahora parece que nuestros objetos son un poco dueños de nosotros, porque si tú los pagas se supone que hacen las cosas que tú les dices, pero también hacen muchas que tú no les dices. Tú no le has dicho a tu teléfono que recopile todos los datos que recopila y desde luego no le dices que los envía a quien los envía, ni como se usan y son datos muy sensibles, como tu edad, tu dirección, quién es tu familia , quienes tus amigos, cual es tu orientacion sexual, cuales tus tendencias politicas, que es lo que te preocupa, si tienes problemas de salud, que has comprado, que has buscado. Podemos pensar que esos datos nuestros no son importantes, pero si no lo casual, las empresas no se gastarían tanto dinero en acceder a ellos. Tienes poder a través de lo que dices, de lo que piensas, de lo que votas, de lo que compras y también a través de como te conectas en el mundo. Eres el vecino, el hermano, el padre, el hijo, el amigo de alguien y por eso la privacidad es colectiva, porque nos conecta y si no protegemos nuestra propia privacidad, no estamos protegiendo a nuestra comunidad ya nuestra sociedad.

¿Nuestros datos son nuestros, pero no solo nuestros?

Exactamente. Cuando tú compartes tus datos genéticos, estás compartiendo datos de tus padres, de tus hermanos, incluso de primos lejanos, que pueden tener consecuencias graves para ellos, como por ejemplo ser deportados, sin que nunca hayan dado su consentimiento para que tu hayas compartido unos datos, aparentemente solo tuyos, pero que a ellos les pueden afectar directamente. Hoy internet es un espacio en el que un conglomerado de grandes tecnológicas, (Google, Amazon, Facebook, Apple, Netflix, Spotify), se disputan los datos personales de sus usuarios, en una dinámica que se ha bautizado como la economía de la atención .

Es importante asegurarnos que las generaciones presentes y futuras, tengan tanto derechos como las generaciones pasadas y hoy eso está en riesgo. Hoy por hoy la gente no tiene el derecho a la privacidad. Estamos financiando internet con un modelo de negocio que depende de la violación sistemática y masiva del derecho a la privacidad y eso no es normal ni aceptable y hay que cambiarlo cuanto antes.