Saltar al contenido

Australia necesita enfrentarse a los peligros de la tecnología de reconocimiento facial.

14 de agosto de 2020

En los 20 años de la «guerra contra el terrorismo», Australia ha liderado desde el frente la ampliación de las facultades de las fuerzas del orden y la intensificación de la vigilancia a expensas de los derechos y libertades públicas.

Entre el aparentemente interminable aluvión de legislación de seguridad nacional y vigilancia que se desliza en cada aspecto de nuestras vidas personales, más y más de nuestros espacios públicos han sido sofocados por las cámaras de vigilancia y la tecnología de reconocimiento facial. Corporaciones grandes y pequeñas, pueblos y ciudades, departamentos y agencias del gobierno federal y estatal han desplegado estos sistemas, fisgoneando en todos nosotros dondequiera que vayamos sin que ninguno de nosotros tenga voz ni voto. Los agentes de la ley estatales y federales están accediendo a estas tecnologías sin ninguna supervisión.

A medida que las protestas contra la policía se extienden por todo el mundo, los instrumentos y procesos que exacerban los prejuicios racistas -y el derroche de gastos y los abusos de poder que los acompañan- dentro de los sistemas de aplicación de la ley y judiciales han sido objeto de un renovado escrutinio. Una vez más, Australia se está quedando atrás en el debate.

Numerosas investigaciones han demostrado que la tecnología de vigilancia por reconocimiento facial simplemente no hace lo que se supone que debe hacer y con frecuencia es mal utilizada por los numerosos organismos que acceden a ella. Nos dicen que es para la seguridad de la comunidad, sin embargo, con frecuencia informa de falsos positivos sobre personas vulnerables en nuestra comunidad, sobre todo personas de color.

En dos casos recientes, la vigilancia del reconocimiento facial dio lugar a acusaciones falsas y al encarcelamiento en los Estados Unidos. Un mecanismo de vigilancia que considera a los negros como indistinguibles, lo que inevitablemente conduce a falsos arrestos, presenta un riesgo fundamentalmente diferente para estas comunidades que para los blancos. Este no es sólo un problema americano. Un aborigen que responda comprensiblemente con sorpresa y rabia a un arresto erróneo estará rápidamente en peligro real.

Recomendado:  ¿Este robot recolector de frutas transformará la agricultura? | Inteligencia artificial (IA)

Algunas de las empresas tecnológicas más poderosas del mundo han reconocido el daño que la vigilancia por reconocimiento facial está haciendo. Google, Microsoft e IBM han retirado sus sistemas de la venta o han dejado de trabajar en la tecnología por completo. Incluso Amazon ha puesto una moratoria en la venta de su herramienta de «rekognition» a las fuerzas policiales. Estas compañías conocen los riesgos y limitaciones mejor que nadie y se han convertido en detractores vocales.

Los gigantes de la tecnología se han unido – en gran parte como respuesta al cambio sísmico en el sentimiento público y las cuestiones de relaciones públicas que lo acompañan – a un coro de grupos de justicia social y derechos humanos que piden a los gobiernos que prohíban el uso de la tecnología de vigilancia por reconocimiento facial. Además, hay acuerdo en la necesidad de establecer reglamentos y salvaguardias para proteger la privacidad de las personas, evitar el uso indebido de la tecnología y garantizar que cualquier tecnología futura no afiance aún más la injusticia sistémica.

Los miembros del Congreso de los Estados Unidos y algunos estados han apoyado las iniciativas, pero son los gobiernos municipales los que han abierto el camino; varios han bloqueado el uso de la tecnología en sus jurisdicciones. Incluso la industria tecnológica de San Francisco ha prohibido la vigilancia por reconocimiento facial. La ciudad de Sydney se convirtió en la primera de Australia en comprometerse con la iniciativa Ciudades por los Derechos Digitales de las Naciones Unidas, y los concejales de otras ciudades están abogando para que sus gobiernos locales la sigan.

Recomendado:  Combustible para aviones y alimento para animales entre los productos potenciales de las algas

A nivel federal, prácticamente no hay salvaguardias ni límites a esta tecnología, y no hay responsabilidad. Por ello, los altos funcionarios de la policía federal australiana pueden declarar que no han accedido a Clearview AI, y luego tienen que corregir el registro más tarde para reflejar el hecho de que varios agentes lo han utilizado de hecho. El hecho de que no existiera un protocolo para evitar que los agentes individuales utilizaran tecnología no probada fue una revelación espeluznante. Es necesario prohibir el uso de la tecnología, y los mecanismos de salvaguardias y responsabilidad dentro de los organismos y entre los gobiernos deben ponerse al día.

La investigación conjunta sobre el uso de la Inteligencia Artificial Clearview es bienvenida, pero debe ser vigilada cuidadosamente porque podría ser un intento de generar una licencia social para el uso de la herramienta por parte de las fuerzas del orden. El escrutinio de la plataforma notoriamente opaca es un paso útil pero hay mucho más por hacer.

El alarmismo de los organismos de vigilancia y de aplicación de la ley está aumentando en respuesta a la crisis de Covid-19. Los documentos de Blueleaks en los EE.UU. revelaron que la Seguridad Nacional está alarmada de que el uso generalizado de máscaras frustrará los sistemas de reconocimiento facial, aparentemente ajenos a las deficiencias existentes de los sistemas. Hay cada vez más llamadas dentro de esas agencias para legislar para prohibir las cubiertas faciales en las protestas. Los vendedores menos escrupulosos están aprovechando la oportunidad para afirmar que los sistemas de reconocimiento facial «nuevos y mejorados» pueden identificar a las personas que llevan máscaras.

Recomendado:  5 tecnologías de inteligencia artificial están mejorando el futuro de la IA

En Australia, un impulso para ampliar el papel de la Dirección de Señales de Australia para espiar a los australianos de Peter Dutton se hizo bajo el disfraz de un llamamiento al «debate público» sobre la vigilancia nacional. En junio, Asuntos Internos lanzó el sistema de Servicios de Identificación Biométrica de la Empresa sin ningún tipo de debate. Esta es una nueva herramienta que permite hacer coincidir las imágenes faciales y las huellas dactilares de cualquiera que quiera entrar en el país. Otro intento de implementar el sistema nacional de cotejo biométrico, «La Capacidad», no puede estar muy lejos.

La legislación de ese sistema fue examinada por el comité parlamentario mixto bipartidista (y normalmente obediente) de inteligencia y seguridad. En su informe se decía que el proyecto de ley era críticamente escaso en detalles y que se requería «una cantidad significativa de reelaboración y no simplemente una enmienda» para rediseñar la legislación a fin de garantizar la privacidad, la transparencia y unas salvaguardias sólidas. En el informe del comité también se afirmaba que el sistema debía estar sujeto a la supervisión parlamentaria.

Eso es cierto para todo el aparato. Es imperativo que nuestros gobiernos sigan el ejemplo de las ciudades aquí y en el extranjero para suspender el uso de la vigilancia por reconocimiento facial, y se comprometan a desarrollar un marco regulador y legal que proteja a las personas y la privacidad, y prevenga los abusos. Los gobiernos federales y estatales deben comprometerse con la sociedad civil, la industria, otros expertos y el público en un proceso transparente para poner en marcha estas limitaciones antes de que esta tecnología supere nuestra capacidad de controlarla.