Spain AI sigue con sus webinars y esta vez han tratado un tema del que llevábamos tiempo siendo curiosos y queremos saber más, concretamente, cuál es el papel de la inteligencia artificial en el reconocimiento facial en el contexto de la seguridad.
En esta ocasión, ha sido la sede de Valencia AI la que se ha encargado de organizar esta charla en la que el experto Manuel Pastor, actual Director Técnico de Herta Security, ha sido el responsable de dar respuesta a este tema. Como representante de esta compañía líder en tecnología de reconocimiento facial basada en Inteligencia Artificial, Pastor ha profundizado sobre el uso de la IA en los procesos de reconocimiento facial y su evolución, centrándose en la operativa y las aplicaciones que tiene.
Bajo el título «Reconocimiento facial: buscando a los malos«, la charla ha comenzado hablando de la Historia de esta tecnología. Así pues, Pastor ha hablado del primer sistema de reconocimiento desarrollado por Woodrow Biedsoe, un matemático que en la década de los sesenta ideó su primer prototipo basado en el uso de las tabletas RAND, que permitía recrear los rasgos faciales a través de coordenadas con la ayuda de un lápiz óptico.
Más tarde, en los años 70, Goldstein, Harmon y Les desarrollaron un sistema que usaba 21 marcadores faciales para identificar rostros. En los años 80, Kirby y Sirovich introdujeron el concepto de Eigenfaces, que consiste en representar los rostros como una combinación lineal de vectores propios. En los años 90, Turk y Pentiland mejoraron el método de Eigenfaces con un algoritmo de correlación que podría reconocer rostros en tiempo real. Y ya en los 2000, se empezaron a usar técnicas de machine learning y visión por computador para mejorar la presión y robustez del reconocimiento facial.
Sin embargo, no fue hasta 2010, cuando los verdaderos cambios aparecieron y se popularizaron los sistemas de reconocimiento facial basados en redes neuronales profundas, las cuales pueden aprender características complejas y abstractas de los rostros a partir de grandes cantidades de datos. Gracias a estos cambios, se comenzó a entrenar la identificación de los rostros, y se dejó de hacerlo manualmente.
Tabla de contenidos
Pero, ¿cómo funciona la identificación facial?
La primera fase comienza cuando se detecta una cara en una foto. Para ello, a través del aprendizaje se le muestran ejemplos de lo que es y lo que no es una cara, para que cuando se le muestre una imagen, pueda reconocerlo.
Detectado el rostro, se obtiene el patrón biométrico de la cara que se quiere registrar. Este patrón tiene dos características básicas. Por un lado, la redondez de la cara y, por otro, la distancia entre los ojos. Pero estas no son las únicas características, ya que en un patrón biométrico de N dimensiones, el número de características podría llegar a 256, 512, 1024 o incluso más.
Tras la realización de estos dos pasos, es el momento de juntarlos y conocer cómo funciona el reconocimiento facial. El algoritmo detecta una cara en la imagen, y a continuación pasa a alinear el rostro que ha obtenido al segundo paso. Para poder llevarlo a cabo, es necesario el alineamiento, es decir, que la cara esté en vertical y para conseguirlo primero se extrae el «paisaje facial» que son los puntos geométricos más relevantes. A continuación con más alineamiento y usando trigonometría, se calcula el ángulo de los ojos respecto a la horizontal y se corrige. Luego se hace un zoom, y se hace un recorte del rostro. Una vez se tiene el patrón biométrico, hay que buscarlo en la base de datos para encontrar a la persona que se está buscando.
En estas bases de datos, suelen ocurrir varios problemas a la hora de realizar las búsquedas ya que el patrón biométrico de una cara varía ligeramente en cada fotograma, de modo que cada persona se obtiene una peque nube de puntos, en vez de un único punto exacto. Para buscar una cara, se averigua a qué grupo de puntos pertenece, calculando su distancia. El grupo que queda más cerca, es la persona con la que mayor coincidencia hay. Pero si esos puntos no coinciden, hay que seguir buscando en la base de datos, y por cada cara que se busque, hay que recorrer toda la base de datos y calcular su distancia con el patrón biométrico. Al final de esta búsqueda hay que quedarse con los patrones más cercanos y que muestren un alto nivel de coincidencia.
¿Qué otros usos tiene esta tecnología?
La tecnología facial ha dado pie a tener muchos usos. Por ejemplo, en marketing se utilizan las coordenadas de los puntos relevantes de la cara para calcular su posición respecto a la cámara y así averiguar las zonas de interés de los clientes. Con estos datos, también se pueden entrenar redes neuronales con ejemplos de emociones que permiten entender si un producto está gustando al cliente o no.
También se puede utilizar para ofrecer métricas relevantes a los escaparatistas, por ejemplo, que zonas del escaparate captan más la atención, obteniendo la posición de la cabeza y los ojos de los clientes.
Por último, esta tecnología también permite anonimizar vídeos. De este modo, el video que, por ejemplo, se envía a un juzgado solo muestra la cara de la persona denunciada, ya que el del resto, lo pixela.
¿Cuál es el futuro del reconocimiento facial?
Según Pastor, el futuro (o más bien presente) de esta tecnología pasa por la creación de caras sintéticas y deepfakes, la detección de caras falsificadas y, como no, la creación de avatares realistas que den pie a la evolución del metaverso y su combinación con otras tecnologías punteras.
Estos son algunos de los puntos que Manuel Pastor puso sobre la mesa en el pasado webinar de Spain AI, así que, si quieres ver el vídeo completo para conocer las preguntas y respuestas que hubo tras la explicación de Pastor, te recomendamos que veas este vídeo al completo.