Por favor, use este identificador para citar o enlazar este ítem:
http://inaoe.repositorioinstitucional.mx/jspui/handle/1009/440
Fusión multicámarapara seguimiento de objetos basada en teoría evidencial | |
ESTEBAN OMAR GARCIA RODRIGUEZ | |
LEOPOLDO ALTAMIRANO ROBLES | |
Acceso Abierto | |
Atribución-NoComercial-SinDerivadas | |
Cameras Tracking Fusion | |
Using multiple cameras has proven to increase vision systems capabilities, mainly by extending visual field or complementing information from cameras to reduce uncertainty. While there are emerging approaches which take in consideration information such as where an object is standing or how long it has been on a particular zone, it is still no common to find work related to the use of multiple cameras to improve information useful for such surveillance systems. In this work a decision fusion level model is proposed to take advantage of several geographically distributed cameras, in order to reduce uncertainty derived from cameras’perspective. Previously defined zones are considered to track objects position, so the stage of the processing at which data integration takes place is useful for high level surveillance systems, such those focused on behavior recognition. In our model, individual decisions are taken by means of an axisprojection- based generalized basic belief assignment (gbba) function and finallyfused using Dezert-Smarandache (DSm) hybrid rule. It is also proposed a way to reduce and manage dynamically the frame of discernment to optimize computer resources. Results of model are presented, obtained from tests on animated simulations and real sequences, and compared to a bayesian fusion model. Experiments proved that the proposed model yields a good improvement in tracking accuracy at high level processing. El uso de más de una cámara ha demostrado mejorar las capacidades de los sistemas de visión, ya sea incrementando el campo de vista o reduciendo la incertidumbre. Aun cuando en recientes trabajos se considera información como la posición donde se detiene un objeto o cuánto tiempo pasa sobre una región en particular, todavía no es común encontrar trabajo donde se utilicen múltiples cámaras para mejorar la información en los sistemas de visión. En este trabajo se propone un modelo de fusión a nivel decisión para aprovechar cámaras distribuidas geográficamente con la finalidad de reducir la incertidumbre derivada de la perspectiva de las cámaras. Se consideran regiones previamente definidas para describir la posición de los objetos, y el proceso de integración de datos ocurre a un nivel en el que es útil para sistemas de vigilancia de alto nivel, tales como los que se usan en reconocimiento de comportamiento. En el modelo presentado, las decisiones individuales se toman usando una función de asignación de creencia básica generalizada (gbba) basada en la proyección de ejes, y se fusionan usando la regla de fusión hibrida Dezert-Smarandache (DSm). En este trabajo también se propone una forma de reducir y manejar dinámicamente el marco de discernimiento para optimizar recursos computacionales. Se realizaron pruebas sobre simulaciones animadas y secuencias reales, y los resultados son comparados contra un modelo bayesiano. Los experimentos muestran que el modelo propuesto consigue una mejora en la precisión del seguimiento a alto nivel. | |
Instituto Nacional de Astrofísica, Óptica y Electrónica | |
2008-02 | |
Tesis de maestría | |
Español | |
Estudiantes Investigadores Público en general | |
García-Rodríguez EO | |
CIENCIA DE LOS ORDENADORES | |
Versión aceptada | |
acceptedVersion - Versión aceptada | |
Aparece en las colecciones: | Maestría en Ciencias Computacionales |
Cargar archivos:
Fichero | Tamaño | Formato | |
---|---|---|---|
GarciaREO.pdf | 2.18 MB | Adobe PDF | Visualizar/Abrir |