Avances en edge computing facilitan el reconocimiento facial
Los recientes avances en edge computing relativamente baratos diseñados para la IA y la computación de borde están transformando la forma en que se utiliza esta tecnología. Esto se aplica a la biometría, especialmente a la tecnología de reconocimiento facial, que ha mejorado notablemente en los últimos años. El principal avance se produjo cuando las redes neuronales y el aprendizaje automático empezaron a utilizarse en este campo. Ambas áreas se han beneficiado enormemente de la abundante potencia de cálculo, especialmente en forma de GPU optimizadas para matemáticas rápidas en coma flotante.
La forma tradicional de implantar el reconocimiento facial en un circuito cerrado de televisión consistía en transferir secuencias de vídeo sin procesar al servidor, que soportaba la mayor parte de la carga de trabajo de procesamiento. Se detectaban los rostros en cada secuencia, se extraían sus rasgos a las llamadas plantillas y luego se comparaban las plantillas con la base de datos para hacerlas coincidir. Cuantos más flujos (y caras), mayor era la carga computacional. Los cuellos de botella de este método son obvios: los procesadores, incluso con la ayuda de GPU de gama alta, estaban limitados por la RAM disponible, la velocidad del disco y el ancho de banda necesario para transferir los flujos de las cámaras al servidor.
Esto dificultaba el escalado: cada nueva cámara consumía más RAM y ancho de banda, lo que obligaba a actualizar el hardware. La transferencia a la nube -un enfoque típico cuando el problema era la escalabilidad- no era una opción debido a la elevada demanda constante de ancho de banda. Sin embargo, todas estas limitaciones desaparecen cuando se puede transferir la mayor parte del procesamiento a la periferia, es decir, a las propias cámaras.
Recientemente, Nvidia y otras empresas han empezado a producir dispositivos y chips destinados específicamente a la computación de borde. Dispositivos como Nvidia Jetson son capaces de convertir en «inteligentes» cámaras de vídeovigilancia estándar y otros dispositivos con sólo conectarlos. Esto hace que la actualización de una instalación de CCTV existente sea una opción mucho más asequible, ya que no es necesario sustituir todas las cámaras, sino que basta con conectarlas a un dispositivo Edge especializado.
Incluso los dispositivos de borde de primera generación ayudaron considerablemente con la carga computacional; eran capaces de detectar rostros y extraer sus plantillas en el dispositivo, transfiriendo sólo las plantillas al servidor para su cotejo. La detección y la extracción suponen el 80% de la carga de trabajo, al tiempo que eliminan la necesidad de enviar todo el flujo al servidor para su procesamiento. Esto por sí solo supuso una reducción de las necesidades de ancho de banda de más del 90%.
Ambos efectos juntos han hecho posible el reconocimiento facial en tiempo real en la nube y que los sistemas de CCTV, en caso de que fuera necesario el reconocimiento facial, sean escalables prácticamente sin límites.
Los dispositivos edge actuales son perfectamente capaces de ejecutar el reconocimiento facial en tiempo real directamente en la cámara, incluido el emparejamiento. Para hacernos una idea de las velocidades disponibles, una cámara equipada con un chip Ambarella CV22 es capaz de procesar completamente un rostro en el flujo de vídeo en unos 70 ms. La mayor parte de ese tiempo se dedica a la detección (unos 22 ms) y, a continuación, a la extracción de plantillas (menos de 20 ms). Por supuesto, estos pasos deben realizarse para cada cara del flujo. Estos tiempos son comparables a las operaciones que se realizan en un servidor.
Con algoritmos bien optimizados, el cotejo en sí en la cámara es casi insignificante: se tarda 2 ms en identificar un rostro en una galería de cinco mil y menos de 10 ms en una base de datos de más de 30 mil rostros. Otros chips como Blaize Pathfinder o Nvidia Jetson Xavier NX muestran resultados similares.
Estos resultados permiten nuevos casos de uso para el reconocimiento facial, como soluciones sencillas de control de acceso en edificios inteligentes o soluciones de seguridad eficientes para espacios de alta seguridad como aeropuertos o pasos fronterizos. Además, hace que los posibles enfoques sean mucho más modulares. Dependiendo del caso de uso, se puede descartar todo el flujo de vídeo, extrayendo y comparando localmente sólo las caras y enviando al servidor únicamente un mensaje relevante (por ejemplo, «Persona autorizada encontrada y permitida la entrada»). Esto puede resolver una de las mayores preocupaciones cuando se utilizan sistemas biométricos: la protección de datos sensibles, su almacenamiento y la vulnerabilidad a sus filtraciones.
Esto también hace que el despliegue en la nube del reconocimiento facial por vídeo en tiempo real sea una propuesta viable, aprovechando las capacidades de la nube de no mantenimiento y alta escalabilidad. Además, hace que el aspecto de seguridad de la autenticación biométrica sea más accesible para las pequeñas y medianas empresas o las startups de rápido crecimiento. La autenticación biométrica evita muchos problemas de seguridad, desde las contraseñas o PIN fáciles de adivinar hasta los pinchazos con tarjetas de acceso. De hecho, la autenticación sin contraseña se está convirtiendo también en el método preferido para acceder a los ordenadores y está siendo liderada por empresas como Google o Microsoft. La autenticación biométrica de acceso a edificios -entre otros casos de uso- encaja perfectamente en este ecosistema, que está a punto de convertirse en un estándar aceptado.
Fuente: EdgeIR