Saltar al contenido

La inteligencia artificial puede monitorear los lugares de trabajo en busca de infracciones de seguridad. Los expertos dicen que las leyes de privacidad están rezagadas

25 de julio de 2022

El surgimiento de la inteligencia artificial que utiliza cámaras para verificar las infracciones de salud y seguridad en el lugar de trabajo ha generado preocupaciones sobre una cultura creciente de vigilancia en el lugar de trabajo y la falta de protección para los trabajadores.

La tecnología de inteligencia artificial que utiliza cámaras de circuito cerrado de televisión se puede entrenar para identificar infracciones, como cuando un trabajador no usa guantes o casco, o para identificar peligros como derrames.

Una empresa, Intenseye, informa que tiene varios clientes australianos para la nueva tecnología, incluida una importante empresa minera.

Pero Nicholas Davis, profesor de tecnología emergente en la Universidad de Tecnología de Sydney, dijo que este último uso de la IA planteó dudas sobre el aumento progresivo de una industria de vigilancia que dependía de que los trabajadores fueran vigilados constantemente.


Recomendado: ¿Qué es el Big data?.


«Aunque este es solo un pequeño ejemplo que puede justificarse bajo ciertos motivos de salud y seguridad, potencialmente puede justificarse, probablemente hay un millón de otros casos de uso en los que también se puede justificar una tecnología similar», dijo el profesor Davis.

La Oficina del Comisionado de Información de Australia (OAIC) ​​dijo que estaba al tanto de un uso cada vez mayor de la tecnología, incluida la tecnología de inteligencia artificial, para monitorear el comportamiento en el lugar de trabajo.

«Nuestra oficina ha recibido algunas consultas y quejas en relación con la vigilancia en el lugar de trabajo en general», dijo la OAIC en un comunicado.

La empresa dice que los trabajadores están protegidos

Aunque la inteligencia artificial ya se está utilizando en los lugares de trabajo australianos de muchas maneras, la combinación de IA con CCTV es una tecnología emergente.

Intenseye usa cámaras para monitorear las instalaciones y proporcionar «notificaciones de infracciones en tiempo real».

La compañía dijo que su sistema borraba los rostros de las personas para evitar represalias por violaciones y para proteger la privacidad de los trabajadores.

Cargando

El gerente de éxito del cliente de Intenseye, David Lemon, dijo que ha habido casos en los que los clientes han pedido que las caras no estén borrosas u otra información que, según él, sería una invasión de la privacidad.

Pero dijo que la compañía no proporcionaría esa información.

Dijo que había una demanda creciente de la tecnología, que podría capacitarse para identificar comportamientos o infracciones en función de las preocupaciones específicas del empleador.

Las alertas sobre infracciones aparecieron en una plataforma digital basada en la nube, y Lemon dijo que la compañía había desarrollado un nuevo sistema que ocultaba la imagen «humana» de las imágenes de video para proporcionar solo una imagen de «figura de palo» al empleador.

Lemon dijo que la compañía estaba al tanto de sus obligaciones de proteger la privacidad de los empleados y buscó asesoramiento legal para asegurarse de que estaba cumpliendo con las leyes de privacidad y datos en varios países.

Dijo que la compañía cumplió con las regulaciones de la industria y fue auditada por el Laboratorio de Ética de IA.

«Esta es tecnología de punta, es la frontera, es muy nueva», dijo.

«Incluso los clientes que tienen un gran apetito por la visión por computadora tienen algunos temores solo porque es un cambio. Es nuevo. A menudo puede ser aterrador».

Las leyes van a la zaga de la tecnología

El profesor Davis, que estudia la regulación de la tecnología en relación con los derechos humanos, dijo que el surgimiento de este tipo de tecnología generó dudas sobre el consentimiento, la cultura de seguridad y la responsabilidad del empleador en el caso de errores de IA.

Aunque las empresas podrían tomar medidas para garantizar el uso ético de la IA, dijo que las leyes de vigilancia de Australia no estaban equipadas para regular de manera efectiva el uso o definir cuáles deberían ser sus limitaciones.