Repositorio Académico UOH

Bibliotecas Universidad de O'Higgins



Mostrar el registro sencillo del ítem

dc.contributor.advisor Rodrigo Verschae Tannenbaum en_US
dc.contributor.author Moreno Bustamante, Hernán
dc.date.accessioned 2025-06-24T01:44:44Z
dc.date.available 2025-06-24T01:44:44Z
dc.date.issued 2024
dc.identifier.uri https://repositorio.uoh.cl/handle/611/1021
dc.description Palabras clave: Cámara de eventos, Deep Learning, Red Convolucional, Red Generativa Adversativa en_US
dc.description.abstract En el presente trabajo, se busca diseñar una base de datos de face liveness detection con datos recopilados de cámaras de eventos. El face liveness detection (o detección de vida facial, en español) es una técnica de autenticación biométrica y sistemas de seguridad que se utiliza para determinar la presencia física de un usuario frente al sensor mediante la identificación y análisis de un rostro y los movimientos del mismo. Las cámaras de eventos son sensores de visión neuromórficos, lo que quiere decir, que su funcionamiento se inspira en cómo lo realiza el cerebro humano difiriendo así de los sensores de visión tradicionales, ya que capturan y procesan la información espacio-temporal de forma diferente. El diseño de la base de datos se basa en la base de dato NEFER, la que se presenta en el artículo Neuromorphic Event-based Facial Expression Recognition (NEFER) (Berlincioni et al., 2023), la que cuenta con datos de rostros y posee datos de eventos y frames en rgb. Además con la base de datos se planea abordar replay attack (ataque de reproducción, en español) este tipo de ataque consiste en la utilización de vídeos pregrabados, los cuales se reproducen frente a una cámara o sensor, para engañarlo y que este detecte que lo que tiene enfrente no es un video sino una persona. Para lograr esta detección, se exploran modelos de aprendizaje profundo para utilizar los datos de la base de datos propuesta, decantándose por la implementación de redes convolucionales (CNN) y con una arquitectura ResNet34, con la que se entrenan y validan los datos, con diferentes configuraciones; se entrenan diferentes modelos basados en la configuración de los datos de entrada. Los datos de entrada corresponden visualizaciones de time surface de los eventos de los rostros que fueron recortados de las capturas de datos, estas visualizaciones se realizan con diferentes ventanas de tiempo (Δt), específicamente para ventanas de 5, 10, 33 y 50 ms (milisegundos), por último se aplica un filtro por peso a las imágenes, esto para disminuir la cantidad de imágenes que no aportan información a la red a la hora de ser entrenada ni validada. Los modelos entrenados muestran un alto desempeño, en muchos casos con una precisión del 100%. en_US
dc.description.tableofcontents Resumen – Introducción – Motivación – Problemática – Hipótesis -- Propuesta de solución -- Objetivo general -- Objetivos específicos -- Descripción del documento -- Marco teórico y revisión de literatura -- Machine learning (ML) -- Deep Learning (DL) -- Redes Neuronales Artificiales -- Convolutional Neural Networks -- Visión computacional -- ¿Qué es la visión computacional? -- Sensor de visión tradicional: cámara RGB -- Evolución de los métodos de procesamiento de imágenes en visión computacional -- Revisión análisis facial en cámaras basadas en frames (RGB) -- Revisión y estado del arte de face liveness en cámaras basadas en frames (RGB) -- Tipos de ataques de face liveness -- Limitaciones y desafíos a la fecha en liveness en cámaras basadas en frames -- ¿Qué es una cámara de eventos? -- Principio de funcionamiento -- Representaciones de los eventos -- Métodos/arquitecturas y aplicaciones -- Revisión de métodos en análisis facial -- Metodos destacados de liveness 26 -- Bases de datos para análisis facial con eventos -- Faces -- Neuromorphic Event-based Facial Expression Recognition (NEFER) -- Faces in Event Streams (FES) -- Marco metodológico -- Elaboración base de datos -- Replay attack -- Pre-procesamiento de datos -- Post-procesamiento de Datos -- Aplicación de modelos -- Evaluación del Modelo -- Resultados y análisis -- Captura experimental -- Captura de datos -- Clasificador binario -- Modelos entrenados con todos los datos -- Modelos entrenados con los datos filtrados según peso (tamaño) -- Discusión -- Conclusión – Referencias. en_US
dc.format PDF en_US
dc.format.extent 52 páginas. en_US
dc.language.iso es en_US
dc.publisher Universidad de O'Higgins en_US
dc.title Detección de face liveness falsos mediante cámaras de eventos en_US
dc.type Tesis en_US
uoh.carrera Ingeniería Civil en Computación en_US
uoh.escuela Ingeniería en_US
uoh.titulo.opta Ingeniero Civil en Computación en_US

 

Exportar datos



Compartir



Código QR

 

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem


Colecciones


Archivos

Artículos

Tesis

Videos


Cuartiles