Estás siendo observado en más formas de las que crees.
Ya sea que esté en el supermercado o haciendo sus impuestos, cada vez es más difícil cuantificar todas las formas en que la persona promedio es monitoreada por los servicios con los que interactúa diariamente. Si bien esto está sucediendo en todo el mundo, varios desarrollos nuevos muestran lo difícil que es evitar que se recopilen sus datos o se analicen imágenes de usted mismo en los EE. UU. Esto se debe en parte a que no existe una ley federal única y amplia que regule cómo las empresas comparten, almacenan o usan sus datos personales, biométricos o de otro tipo. Y los nuevos informes muestran que las empresas están capitalizando cada vez más esta relativa privacidad y datos gratuitos para todos.
“Hay tantas cosas negativas que provienen de las empresas que dicen: ‘Tenemos datos, entonces, ¿qué debemos hacer con ellos?’”, dice Chris Gilliard, investigador invitado del Centro Shorenstein de la Escuela Kennedy de Harvard y profesor en Macomb Community College en Michigan. “No podemos esperar que las empresas actúen de manera moral y ética; se les debería obligar a hacerlo. No creo que poner esa decisión en sus manos sea lo correcto. Recolectar datos cuando las personas no son realmente capaces de decir sí o no de manera significativa es realmente un problema”.
En algunos de estos casos recientes, la presión pública ha obligado a cierto grado de escrutinio regulatorio sobre estas empresas y sus prácticas de vigilancia. Pero en lugar de las limitaciones legales, existe una cantidad aparentemente infinita de formas en que los consumidores son monitoreados diariamente. Expertos como Gilliard dicen que estos casos casuales de vigilancia son tan preocupantes, si no parte del mismo espectro, como los sistemas de vigilancia más explícitos.
“De hecho, no creo que exista tal cosa como la vigilancia mundana porque todo lo normaliza”, dice. “Habitúa a la gente a pensar que [surveillance is] normal o inofensivo o que hay una forma en que se puede usar que no presenta retroceso”.
Estas son solo algunas de las formas en que la vigilancia se está normalizando como parte de nuestra vida diaria en los EE. UU.:
Cuando estás haciendo tus impuestos
En noviembre pasado, el Servicio de Impuestos Internos (IRS, por sus siglas en inglés) anunció que pronto todos los usuarios deberán usar una compañía de verificación de identidad llamada ID.me para hacer sus impuestos o acceder a otros servicios esenciales. Para registrarse en ID.me, los usuarios debían cargar un video selfie y una imagen de su identificación, y la única forma de cancelar la suscripción era hacerlo manualmente en lugar de hacerlo en línea.
En cuestión de días, el IRS se vio obligado a reconsiderar trabajar con ID.me debido a preguntas sobre su sistema de reconocimiento facial. Y, después de la reacción violenta pública y regulatoria de los legisladores del Congreso, anunció el lunes que dejaría de implementar un sistema de verificación que incorporara tecnología de reconocimiento facial y del uso de ID.me. Los lunes, varios congresistas enviaron una carta al IRS exigiendo que la agencia consulte con las partes interesadas antes de decidirse por una alternativa a ID.me.
El último cambio en la política se produjo después de días de ida y vuelta sobre los riesgos potenciales del uso de esta tecnología, así como sobre cómo funciona realmente la tecnología de ID.me. El director ejecutivo de ID.me, Blake Hall, dijo inicialmente que la tecnología de la compañía usaba un sistema de comparación de caras uno a uno que compara una imagen con otra imagen para ver si es la misma persona. Sin embargo, luego se retractó y dijo que usó el sistema de reconocimiento facial de Amazon, Rekognition, que usa un algoritmo para verificar una base de datos completa de imágenes. Además de las preocupaciones sobre la privacidad de que una corporación privada almacene su imagen, los estudios también han encontrado que el sistema Rekognition de Amazon no puede detectar correctamente las caras negras y marrones.
La compañía dijo que solo usa Rekognition una vez durante la inscripción para detectar ladrones de identidad y evitar que «los miembros del crimen organizado roben en masa las identidades de víctimas inocentes».
“ID.me usa Amazon Rekognition únicamente para la protección contra el robo de identidad y no para la verificación”, dice el portavoz de ID.me, Patrick Dorton. “Este paso no bloquea a nadie y simplemente mueve al usuario a verificar con un agente humano experto a través de un chat de video. Hemos configurado este control cuidadosamente, por lo que tiene un impacto mínimo en los usuarios legítimos mientras detiene el crimen organizado”.
Los expertos dicen que todavía hay una gran cantidad de preocupaciones de privacidad sobre un sistema de coincidencia facial uno a uno. Ya sea que se comparen con una o docenas de imágenes, las imágenes se cargan junto con una gran cantidad de otra información personal, como su número de seguro social, y se agregan a una base de datos almacenada por una empresa privada, dice Caitlin George, directora de campaña de derechos digitales. grupo Lucha por el Futuro.
“La gente podría decir que ya tenemos bases de datos de las licencias de conducir de las personas, ¿por qué es esto un problema?”, dice George. “Pero agregar la selfie actual y actualizada es una expansión masiva de esa base de datos y agrega más información y más fotos que se pueden usar de varias maneras diferentes”.
La compañía también almacena la «ciudadanía inferida» basada en los datos del pasaporte, según Insider, lo que podría abrir esa información a las solicitudes de aplicación de la ley de las agencias gubernamentales, incluida la agencia de Inmigración y Control de Aduanas de EE. UU.
ID.me dice que solo comparte datos biométricos con agencias gubernamentales «como parte de una investigación sobre un caso de robo de identidad o fraude solo en la agencia específica donde estuvo involucrada la cuenta de ID.me» o en respuesta a una citación. El hielo y otras agencias de aplicación de la ley se han basado cada vez más en solicitudes legales opacas y amplias, como citaciones para obtener información del usuario de empresas tecnológicas y otras empresas privadas.
cuando estas buscando salud mental ayuda
La línea directa sin fines de lucro Crisis Text Line, con décadas de antigüedad, no solo recopila sus datos, sino que, hasta el lunes pasado, también los compartía con una empresa externa llamada Loris.ai. Como informó Politico por primera vez, Loris, de la cual Crisis Text Line es accionista, usó información de la línea de texto para diseñar software de servicio al cliente. Aunque la compañía dijo que los datos de los usuarios eran completamente anónimos (la compañía dice que elimina nombres, direcciones, nombres de ciudades, códigos postales, direcciones de correo electrónico, URL, números de teléfono y identificadores de redes sociales), la gente estaba indignada porque la organización sin fines de lucro capitalizaba el datos de personas en algunos de sus momentos más vulnerables. Brendan Carr, comisionado sénior de la Comisión Federal de Comunicaciones (FCC), escribió una carta a Crisis Text Line, que inicialmente se aferró a la práctica diciendo que las personas permanecían protegidas porque los datos eran anónimos, y le pidió a la organización que «preservara la integridad». de líneas directas de salud mental”.
Las personas que recurren a Crisis Text Line tienen que aceptar una política de privacidad para usar el servicio pero, dice Gilliard, “en el momento en que alguien se comunica de esa manera, no está en posición de aceptar algunos términos largos de Servicio. Necesitan ayuda y la necesitan de inmediato”.
En respuesta a una solicitud de comentarios, el vicepresidente y consejero general de Crisis Text Line, Shawn Rodríguez, señaló una declaración pública que decía que la organización está tomando medidas para hacer que sus términos de servicio sean más transparentes, incluida la adición de un resumen con viñetas en la parte superior. “Escuchamos sus comentarios de que debería ser claro y fácil para cualquier persona en crisis entender a qué están dando su consentimiento cuando buscan ayuda”, se lee en el comunicado.
Pero la falta de regulación impone pocas restricciones sobre cómo se podrían usar estos datos, dice Gilliard. “A menudo hay muy pocos límites sobre quién lo obtiene y cómo lo obtienen y qué hacen con él después. Que actualmente se esté utilizando para capacitar al servicio al cliente es en sí mismo un problema”.
Demostrar que está vacunado
En muchos estados donde se requiere prueba de vacunación contra Covid-19 para ir a restaurantes, eventos deportivos o cines, las personas han optado por usar pases de salud digitales en lugar de llevar consigo su tarjeta de vacunación física. Pero asegurarse de que su información médica confidencial o de otro tipo no se recopile ni comparta puede ser un desafío.
CLEAR, que la mayoría de la gente conoce por sus escáneres biométricos en la seguridad del aeropuerto, se ha convertido en la plataforma elegida por muchos, y algunos lugares incluso han requerido que las personas descarguen la aplicación. Pero para registrarse, las personas deben cargar su identificación y tomarse una foto para verificar su identidad. La política de privacidad de la empresa también establece que CLEAR puede recopilar su información de contacto, el nombre y la dirección del empleador, el sexo y la altura, cualquier información de identificación emitida por el gobierno, fotografías digitales “como imágenes de la cámara de su dispositivo móvil” e información financiera y de ubicación.
Los términos de servicio de la compañía también hacen que parezca que los consumidores tienen poco control sobre sus datos una vez que los entregan. Los términos de servicio dicen que CLEAR tiene «derecho y licencia irrestrictos, no exclusivos, libres de regalías, totalmente pagados, perpetuos, irrevocables y totalmente sublicenciables y transferibles para usar, reproducir, modificar, adaptar, publicar, traducir, crear trabajos derivados de, distribuir y mostrar su contenido”. Los términos de servicio también establecen que CLEAR puede usar estos datos para sus fines comerciales internos o divulgarlos de forma agregada o anónima.
El vicepresidente de asuntos públicos y comunicaciones de la compañía, Ken Lisaius, dice que CLEAR nunca vende información de los miembros, pero de acuerdo con la política de privacidad, pueden compartirla con otras entidades. La política establece que CLEAR puede compartir información de su pase de salud con agencias gubernamentales en respuesta a solicitudes con o sin una orden judicial. La política también dice que CLEAR puede «compartir información no identificada con organizaciones de interés público, organizaciones de atención médica e investigadores», pero «prohibirá» que esas organizaciones intenten volver a identificar la información que comparten.
“Health Pass de CLEAR es un servicio completamente optativo que le da a una persona el control de su información de salud relacionada con COVID”, dijo Lisaius en un comunicado. «Toda la información es proporcionada por el individuo, utilizada solo para fines relacionados con Health Pass y solo con el permiso del individuo».
Ya sea que una empresa comparta, venda o recopile sus datos actualmente, Gilliard señala que existen tan pocas limitaciones legales sobre lo que pueden hacer con los datos personales que todo es posible en el futuro.
“Mientras hacemos estos [services] las barreras a la participación en la sociedad, eso es realmente peligroso. Literalmente, no hay restricciones para esquemas interminables con fines de lucro”.
Si desea leer la versión completa del boletín, suscríbase para recibir TechScape en su bandeja de entrada todos los miércoles.