Saltar al contenido

Esta startup está usando IA para cambiar la seguridad de video en su cabeza

19 de septiembre de 2022

Shikhar Shrestha ha estado construyendo sistemas de seguridad desde que era un adolescente. Comenzó como una obsesión en parte, un mecanismo de afrontamiento en parte. Había quedado traumatizado cuando él y su madre fueron asaltados a punta de pistola cuando tenía 12 años. El área de su ciudad natal en el este de la India parecía tener muchas cámaras de seguridad, pero ¿de qué servía? La ayuda no llegó mientras lo amenazaban y mientras le robaban las joyas a la madre. Pensó mucho en eso.

Cuando era niña, Shrestha jugaba con la tecnología, incluida la construcción de sistemas de seguridad caseros para los vecinos. Años más tarde se matriculó en Stanford, realizando estudios de posgrado en ingeniería eléctrica y mecánica. Allí conoció a un estudiante de posgrado en ciencias de la computación Vikesh Khanna, y la pareja tuvo un momento de iluminación al conceptualizar el futuro de la innovación en video.

«Teníamos la idea de que la inteligencia artificial y la tecnología de video se estaban volviendo tan buenas que en cinco años la tecnología de video y la IA podrían ver un video con más precisión que los humanos», dice Shrestha, que ahora tiene 30 años. «Si alguna cámara por ahí puede decirte de inmediato cuando ve algo sospechoso, sería un gran sistema de seguridad».

Ambos obtuvieron maestrías y en 2017 fundaron Ambient.ai, reiterando su idea con financiamiento y apoyo de la incubadora de empresas emergentes de Silicon Valley, Y Combinator. Tenían un objetivo claro: prevenir todos los incidentes de seguridad física posibles. Desarrollaron una tecnología que combina IA y un avance de la visión por computadora, llamada inteligencia de visión por computadora, para comprender el contexto situacional. Podría, en tiempo real, identificar elementos en un video, desde un humano caminando, un automóvil siguiendo a otro automóvil, hasta un arma que se está blandiendo, hasta una brecha en el perímetro.

Recomendado:  Un estudio encuentra que los pacientes son receptivos a la interacción con robots diseñados para evaluar los síntomas sin contacto

Los fundadores pensaron que tenían un problema sencillo de solucionar. Con los sistemas de seguridad empresariales convencionales, las cámaras de video capturan un flujo interminable de video, que rara vez, si es que alguna vez, se ve en tiempo real para detener, prevenir o responder rápidamente a un incidente. Durante su tiempo en Y Combinator, Shrestha enviaba 100 correos electrónicos a la semana a los jefes de seguridad de grandes empresas, hospitales, hoteles y gobiernos para obtener más información sobre su mercado y sus necesidades. Rápidamente aprendió que nadie quería un nuevo sistema de seguridad, ya tenían cámaras. Pero las reuniones confirmaron lo que él sabía: «Todos hacen seguridad de la misma manera: gastan millones de dólares en sus programas. La expectativa es que si pasa algo malo, rebobinas el video». En otras palabras, no tenía el tipo de utilidad para detener el crimen que Shrestha imaginó.

Al mismo tiempo, estaba ganando confianza en su enseñable herramienta de escaneo de video. Podría identificar cuándo un humano cayó y se lastimó, o cuándo apareció un arma. El software también podía medir la certeza de que se produjo un incidente de seguridad. La confianza baja significaba que haría ping a un miembro del pequeño equipo de humanos de Ambient.ai para verificar lo que estaba sucediendo en el video. En casos de alta confianza, alerta a una autoridad designada, como un jefe de seguridad de turno o la policía local.

El hecho de que Shrestha confiara en su tecnología no significaba que los inversores entendieran el punto. «En ese momento, la comunidad empresarial no creía que la seguridad física fuera un espacio interesante en el que se pudiera construir un negocio a escala empresarial», dice. Ya había jugadores dominantes. Se asignaron los presupuestos de las empresas. Pero la solución de Ambient.ai era complementaria con la seguridad existente: podía integrarse en casi cualquier sistema de alimentación de cámara y personalizarse en función de las necesidades de seguridad de casi cualquier empresa para detectar amenazas en tiempo real. Aún así, Shrestha dice que recaudar los primeros $ 2 millones para Ambient.ai requirió aproximadamente 50 reuniones en el transcurso de dos meses.

Recomendado:  Perspectiva técnica: hXDP: descarga de procesamiento de paquetes ligera y eficiente | agosto 2022

La compañía lanzó su producto donde vio una necesidad inmediata. Cuando una escuela privada en San José, California, The Harker School, experimentó una brecha en el perímetro durante la noche (captada en un video que nadie estaba viendo) seguida de un asalto a la mañana siguiente, Shrestha propuso que su sistema podría haberlo evitado alertando a las autoridades de inmediato. . Conseguir un cliente que paga parecía poner en marcha más acuerdos. Mientras aún estaba en versión beta, la compañía acumuló lentamente una lista de clientes. La confianza de los inversores también se disparó. Cuando Ambient.ai planteó una ronda de financiación de la Serie A, tomó 13 días de reuniones; la Serie B se llevó solo tres.

Después de cinco años de registrar clientes y desarrollar su inteligencia de inteligencia artificial en modo sigiloso, Ambient.ai se lanzó formalmente al público en enero de 2022. También anunció que había recaudado $52 millones en una ronda dirigida por Andreessen Horowitz. La startup trabaja con siete de las 10 principales empresas de tecnología de EE. UU. por capitalización de mercado, y su lista de clientes incluye Adobe, VMWare e Impossible Foods. La mayoría de los 100 empleados de la compañía están ubicados alrededor de su sede en el área de la Bahía de San Francisco.

Shrestha espera que su empresa cambie el modelo de seguridad de vigilancia para que sea proactivo, en lugar de reactivo. También está abordando las preocupaciones sobre el uso del aprendizaje automático en la seguridad, lo que genera preocupación sobre los prejuicios y la creación de perfiles incorporados o aprendidos. El sistema Ambient.ai identifica formas de objetos y personas, no sus colores o rasgos. A diferencia de otros sistemas de videovigilancia, no utiliza reconocimiento facial. Su sistema tampoco tiene la capacidad de reconocer rasgos que inducen prejuicios, como el género, la edad o el color de la piel.

Recomendado:  Los médicos temen que la aplicación de Google Skin Check provoque un 'tsunami de sobrediagnóstico' | Salud

«No está buscando clases que puedan incluir prejuicios», dice Shrestha. «Hay una gran responsabilidad de las personas que construyen estos sistemas para construir sistemas desde cero para maximizar la privacidad y eliminar el sesgo».