Privid, ayuda a proteger la privacidad en los vídeos de vigilancia mientras se extraen datos
Las cámaras de vigilancia han proliferado en todo el mundo, lo que ha generado preocupaciones sobre la privacidad que no han hecho más que profundizarse a medida que las herramientas de aprendizaje automático han permitido el análisis de vídeo automatizado a escala masiva. Ahora, un nuevo sistema de seguridad tiene como objetivo defender la privacidad de una manera que respalde el análisis honesto de las secuencias de vídeo y al mismo tiempo confunda el espionaje malicioso.
Actualmente existen “cientos de millones de cámaras de vigilancia en todo el mundo”, señala Frank Cangialosi, científico informático del MIT y autor principal de un estudio del sistema. En el pasado, estas cámaras se monitoreaban ocasionalmente manualmente, en todo caso, y se usaban principalmente con fines de seguridad. Pero los constantes avances en inteligencia artificial han hecho posible que las computadoras analicen estos datos de vídeo en masa.
Existen muchas aplicaciones para el análisis de vídeo automatizado de imágenes de vigilancia, como por ejemplo: ayudar a los funcionarios de salud a medir la proporción de personas que usan máscaras; permitir que los departamentos de transporte controlen la densidad y el flujo de vehículos, peatones y bicicletas para determinar dónde agregar aceras y carriles para bicicletas; y brindar a las empresas una mejor visión del comportamiento de compra para una mejor planificación de las promociones. Sin embargo, dicha vigilancia masiva plantea el riesgo de intrusiones en la privacidad a escalas sin precedentes.
«El análisis de vídeo es un área potencial apasionante, pero creo que nuestra comunidad también tiene la enorme responsabilidad de pensar detenidamente cómo podría utilizarse indebidamente y poner el mismo esfuerzo para abordarlo«, afirma Cangialosi.
Los intentos de defender la privacidad contra dicha tecnología a menudo implican difuminar los rostros o cubrirlos con cajas negras. Esos métodos pueden impedir un análisis útil de este vídeo, sin tener el efecto deseado de preservar el anonimato.
«Por lo tanto, los ciudadanos no se sentirán protegidos y los analistas no sentirán que sea lo suficientemente útil para ellos«, dice Cangialosi. “No satisface a nadie, razón por la cual estos enfoques no se utilizan ampliamente en la práctica. Y después de pensarlo un poco, nos dimos cuenta de que se trata de cuestiones fundamentales, por lo que es necesario un enfoque totalmente diferente”.
Ahora, Cangialosi y sus colegas han desarrollado un sistema llamado Privid que permite a los analistas examinar vídeos en busca de datos estadísticos sin revelar información de identificación personal.
«Privid podría permitirnos [hacer un uso más productivo de] toneladas de metraje de todas las cámaras que ya tenemos en todo el mundo [y hacerlo] de forma segura«, afirma Cangialosi. «Tienen mucha cobertura y son muy versátiles, por lo que creo que realmente tienen mucho potencial«.
Privid funciona aceptando primero un código de un analista que contiene una consulta que activa un conteo automático de, digamos, la cantidad de personas que usan máscaras en un vídeo y la densidad de la multitud. Luego, el sistema divide el metraje de vídeo en segmentos y ejecuta el código en cada fragmento. En lugar de informar los resultados de cada segmento al analista, Privid agrega los datos y les agrega algo de ruido antes de devolver los resultados. El objetivo de Privid es permitir que los analistas con consultas honestas obtengan los detalles que desean, al tiempo que restringe el acceso a datos de vigilancia sin procesar que permitirían a actores maliciosos obtener demasiada información.
Por ejemplo, cuando se trata de un vídeo que observa varias intersecciones de una ciudad, tanto una consulta honesta como una maliciosa podrían pretender contar la cantidad de personas que pasan cada hora. Mientras que una consulta bien intencionada de un departamento de planificación urbana podría querer contar el número de peatones para planificar mejor los cruces peatonales, el objetivo de una consulta de alguien con intenciones maliciosas podría ser rastrear a algunas personas específicas mirando sus caras.
Suponiendo que Privid ejecuta consultas tanto anodinas como maliciosas, la adición de un poco de ruido hace poco para descarrilar al analista detrás de la consulta honesta de obtener el recuento de transeúntes como se afirmó. Ese mismo ruido, dado que la consulta maliciosa en realidad buscaba identificar a algunas personas específicas, tendría un gran efecto de confusión en el intento de hacer un mal uso de los datos. Privid también puede decirles a los analistas cuánto error añade a los resultados, lo que los analistas honestos pueden tener en cuenta en sus investigaciones para que aún puedan detectar patrones y tendencias valiosos.
Cangialosi subraya que “no estamos fomentando la vigilancia”. Con la idea de vigilancia, admite, “comprensiblemente, inmediatamente vienen a la mente muchas cosas negativas: la idea de ser vigilado, el Gran Hermano, etc. Pero esto es exactamente lo que queremos evitar, y punto. Nuestra idea fundamental de privacidad es la idea de que sólo deberíamos poder usar cámaras para cosas que no identifiquen a las personas. Y hay muchos ejemplos de esto que pueden beneficiar a la sociedad, como la seguridad urbana, la salud pública, etc.”.
Una pregunta técnica común que recibe Cangialosi es: «¿La garantía de privacidad que brindamos solo se aplica a una sola cámara?» «La respuesta corta es no. Las implicaciones exactas son un poco detalladas, pero el punto de alto nivel es que no importa cuántas imágenes de cámaras haya en el sistema, y no importa cuántas cámaras agregue un analista, un individuo seguirá estando protegido y no podrá ser rastreado a través de la ubicación y el tiempo”.
Los investigadores señalan que agregar ruido a los resultados puede defender la privacidad, pero también hace que los análisis sean imperfectos. Aún así, observaron que a través de una variedad de vídeos y consultas, Privid arrojó la respuesta correcta a las consultas entre el 70 y el 99 por ciento de las veces cuando su atención se centró en sistemas no privados.
“Privid no es una panacea”, señala Cangialosi. “Creo que hay muchos casos de uso en los que la privacidad y la utilidad no están realmente reñidas, por lo que podemos lograr un buen equilibrio para garantizar la privacidad sin dañar demasiado la precisión o la utilidad. Privid es excelente para estos casos de uso”.
Por otro lado, advierte, “hay algunos casos en los que la privacidad y la utilidad realmente están fundamentalmente en desacuerdo. En aplicaciones críticas para la seguridad, como localizar a una persona desaparecida o un automóvil robado, el objetivo es identificar a un individuo”, afirma Cangialosi. En tales casos, la solución puede no ser técnica, “sino más bien buenas políticas”.
Cangialosi señala que, si bien los científicos se centraron en el compromiso entre utilidad y privacidad con Privid, no se preocuparon por la eficiencia computacional. «Un siguiente paso importante es incorporar muchas de las optimizaciones en las que ha trabajado el resto de la comunidad para hacer que el análisis de vídeo sea más eficiente«, afirma. «El desafío, por supuesto, es hacerlo con cuidado, de tal manera que podamos seguir manteniendo las mismas garantías formales de privacidad«.
Las investigaciones futuras también pueden explorar diferentes tipos de transmisiones de vídeo, como cámaras de tablero y llamadas de videoconferencia, así como audio y otros datos. «Estas fuentes de datos representan aún más potencial sin explotar para el análisis, pero obviamente se encuentran en algunos escenarios muy sensibles a la privacidad«, dice Cangialosi. «Creo que será realmente emocionante ampliar el conjunto de dominios donde podemos hacer que las computadoras aprendan información importante que puede ayudar a la sociedad, al mismo tiempo que nos aseguramos de que [los datos no se puedan usar para] dañar a nadie«.
Fuente: IEEE Spectrum