Saltar al contenido

El punto de inflexión de la analítica en el extremo

Aunque la integración de la analítica en las cámaras de vigilancia no es algo nuevo, la reducción de las barreras de acceso para los desarrolladores, la alta resistencia de las cámaras y su gran potencia de procesamiento, y la aparición del aprendizaje profundo han abierto la puerta a una nueva generación de analítica en el extremo, en la que el único límite es la imaginación de los desarrolladores. Charlamos con Mats Thulin, director de tecnologías principales de Axis Communications, para conocer su visión de las ventajas tanto actuales como en clave de futuro.

 

La llegada del ARTPEC-8, la nueva generación del sistema en chip (SoC) de Axis, marca el inicio de una nueva era en la analítica con aprendizaje profundo en el extremo de la red. Capaz de realizar operaciones de analítica como la detección y clasificación de objetos en tiempo real dentro de la propia cámara, el ARTPEC-8 es fruto de más de 20 años de evolución.

Aunque la analítica integrada en la cámara no es un concepto nuevo, ya que la detección de movimiento por vídeo ya formaba parte de las cámaras Axis hace más de diez años, la combinación de una calidad de imagen superior y el aprendizaje profundo ha transformado las posibilidades de la analítica.

Una carga de analítica más ligera para el servidor

Mats Thulin, director de Tecnologías Principales de Axis Communications, recuerda: ‘Hace una década, las cámaras de vigilancia no tenían la potencia de procesamiento necesaria para proporcionar analítica avanzada en el extremo de la red, lo que obligaba en cierto modo a confiar en la analítica basada en servidor. Sin embargo, aunque el servidor cuenta con abundante potencia de procesamiento, hay otros factores que pueden plantear desafíos. La compresión de las imágenes de video antes de transferirlas de la cámara al servidor puede reducir la calidad de las imágenes analizadas y adaptar las soluciones para que toda la analítica tenga lugar en un servidor puede resultar prohibitivo’.

Un ejemplo de esta problemática es el uso del aprendizaje profundo en la analítica. Thulin añade: ‘La analítica con aprendizaje profundo es una tarea que consume mucha potencia de cálculo. Si se ejecuta únicamente en servidores, hace falta codificar y descodificar el video, lo que supone un tiempo extra antes de poder procesar la secuencia. Procesar diferentes secuencias de video, incluso en un sistema relativamente pequeño con 20-30 cámaras a 20 o 30 fotogramas por segundo y en alta resolución, requiere muchos recursos’.

Luego agrega: ‘La potencia de procesamiento y las capacidades de nuestros dispositivos en el extremo son ya tan elevadas que permiten volver a integrar las funciones de analítica. Y con más capacidades de analítica en la cámara, no hacen falta soluciones de analítica en la nube ni en servidores de gran consumo. Además, la analítica se aplica a las imágenes en el punto de captura, lo que garantiza la máxima calidad de imagen posible’.

Imágenes optimizadas para máquinas y humanos

Los avances en la calidad de imagen tienen en cuenta el hecho de que cada vez hay más máquinas en lugar de operadores humanos que ven las imágenes, una distinción muy pertinente, ya que las máquinas no ven las imágenes de la misma forma que los humanos.

Explica Thulin: ‘Ahora podemos ajustar las imágenes de vídeo para su análisis mediante IA y también optimizarlas para el ojo humano. Por ejemplo, al ajustar una imagen para un operador, normalmente la idea es reducir el ruido. Sin embargo, en el caso de la analítica con IA, la reducción del ruido no es tan imprescindible. A la hora de ajustar la imagen, los objetivos dependen de si es para analítica por IA o para el ojo humano, por lo que si se utilizan los dos sistemas en paralelo se obtendrá un resultado de mayor calidad’.

Escalabilidad del sistema mejorada

La analítica en el extremo puede reducir la cantidad de datos enviados a través de la red, para mejorar la eficiencia en cuanto al ancho de banda, el almacenamiento y los servidores. Sin embargo, esto no significa que la analítica basada en servidores ya no tenga nada que decir, ni mucho menos. Al final, los modelos híbridos que sepan aprovechar las ventajas de la analítica en el extremo y la analítica basada en servidor y en la nube serán sin duda la mejor solución.

El ejecutivo señala que, compartiendo la carga de procesamiento entre el dispositivo local y el servidor, ‘los sistemas serán mucho más escalables, ya que será posible añadir una nueva cámara con funciones de analítica en el extremo sin tener que ampliar la potencia de procesamiento del servidor’.

Aunque los sistemas en el extremo autónomos continuarán empleándose en aplicaciones de analítica de escenas, para crear alertas en tiempo real basadas en reconocimiento y clasificación de objetos, Thulin cree que las soluciones híbridas de analítica en el servidor y en el extremo irán ganando protagonismo en los entornos que requieran más capacidad de procesamiento.

El motivo son los metadatos generados por la analítica en el extremo junto a las imágenes de vídeo. Los metadatos, en el contexto del vídeo, básicamente etiquetan elementos de una escena. En otras palabras, añaden descriptores o información sobre la escena, en lugar de únicamente imágenes de vídeo en bruto de la escena. El software de gestión de vídeo (VMS) puede usar los metadatos para actuar en respuesta a la escena y activar acciones en tiempo real o con posterioridad a un evento, así como buscar elementos de interés o realizar nuevos análisis.

Protección de la privacidad

Otro de los puntos a favor de la analítica en el extremo es que puede contribuir a proteger la privacidad, además de aportar ventajas en el terreno de la seguridad o en el aspecto operativo. Por ejemplo, la analítica en el extremo de recuento de personas, muy útil en entornos comerciales, solo tendrá que transferir datos de la cámara en lugar de imágenes de vídeo.

Sin embargo, la analítica en el extremo puede proteger la privacidad incluso durante la transferencia de las imágenes de vídeo.

Sobre Axis Communications

Axis Communications contribuye a crear un mundo más inteligente y seguro a través de soluciones en red que mejoran la seguridad y suponen una nueva manera de hacer negocios. Como líder de la industria del vídeo en red, Axis pone a su disposición productos y servicios de videovigilancia y analítica, control de accesos y sistemas de audio. Axis cuenta con más de 3.500 empleados especializados en más de 50 países, y proporciona soluciones a sus clientes en colaboración con empresas asociadas de todo el mundo. Fue fundada en 1984 y su sede central se encuentra en Lund, Suecia.

Web: www.axis.com

Comenta Mats que la aplicación inteligente de máscaras, que oculta los rostros de las personas de una escena, garantiza la privacidad. Continua: ‘Y como la secuencia original se envía por separado, y solo se reproduce cuando es necesario, en caso de incidente los operadores tienen la opción de acceder al vídeo sin las máscaras’.

Un nuevo mundo de aplicaciones de visión artificial

Además de las nuevas posibilidades del hardware controlado por el chip ARTPEC-8, las mejoras en la Plataforma de aplicaciones de cámaras AXIS (ACAP) ponen al alcance de más desarrolladores que nunca la oportunidad de crear aplicaciones de visión artificial en los entornos que ya dominan. La ACAP, actualmente en su cuarta generación, incluye API y arquitecturas estándar del sector, y es compatible con lenguajes de programación de alto nivel.

Thulin confirma que: ‘Gracias a los cambios introducidos en la versión 4 de la ACAP, cada vez tenemos más socios desarrolladores procedentes de sectores no vinculados a la vigilancia tradicional. La ACAP está construida con componentes de tipo abierto muy populares entre los desarrolladores acostumbrados a trabajar con entornos en la nube o de servidor. Hemos adaptado las especificaciones de los metadatos ONVIF a un entorno abierto, en el que los desarrolladores puedan crear arquitecturas híbridas con diferentes productos conformes con ONVIF. Esta es una de las claves para que los sistemas y arquitecturas híbridos realmente funcionen’.

La mejora de las capacidades analíticas de detección también ha abierto más puertas a desarrolladores de soluciones de seguridad y pioneros de otros sectores.

Finaliza Mats resaltando: ‘Los avances en la detección de objetos, con unas cámaras que cada vez entienden mejor el contexto de una escena, permiten diferenciar entre una calle, un jardín o un aparcamiento, por ejemplo, y así podemos aplicar una analítica más precisa en cada escena y a los objetos que contiene. Esta información permitirá subir el listón de la innovación. El nuevo potencial de la analítica en el extremo es enorme, para nuestros socios actuales, para los desarrolladores sin experiencia previa con aplicaciones de visión artificial y, naturalmente, para nuestros clientes’.

Un nuevo mundo de aplicaciones de visión artificial

Además de las nuevas posibilidades del hardware controlado por el chip ARTPEC-8, las mejoras en la Plataforma de aplicaciones de cámaras AXIS (ACAP) ponen al alcance de más desarrolladores que nunca la oportunidad de crear aplicaciones de visión artificial en los entornos que ya dominan. La ACAP, actualmente en su cuarta generación, incluye API y arquitecturas estándar del sector, y es compatible con lenguajes de programación de alto nivel.

Thulin confirma que: ‘Gracias a los cambios introducidos en la versión 4 de la ACAP, cada vez tenemos más socios desarrolladores procedentes de sectores no vinculados a la vigilancia tradicional. La ACAP está construida con componentes de tipo abierto muy populares entre los desarrolladores acostumbrados a trabajar con entornos en la nube o de servidor. Hemos adaptado las especificaciones de los metadatos ONVIF a un entorno abierto, en el que los desarrolladores puedan crear arquitecturas híbridas con diferentes productos conformes con ONVIF. Esta es una de las claves para que los sistemas y arquitecturas híbridos realmente funcionen’.

La mejora de las capacidades analíticas de detección también ha abierto más puertas a desarrolladores de soluciones de seguridad y pioneros de otros sectores.

Finaliza Mats resaltando: ‘Los avances en la detección de objetos, con unas cámaras que cada vez entienden mejor el contexto de una escena, permiten diferenciar entre una calle, un jardín o un aparcamiento, por ejemplo, y así podemos aplicar una analítica más precisa en cada escena y a los objetos que contiene. Esta información permitirá subir el listón de la innovación. El nuevo potencial de la analítica en el extremo es enorme, para nuestros socios actuales, para los desarrolladores sin experiencia previa con aplicaciones de visión artificial y, naturalmente, para nuestros clientes’.