MULTIVISION

Esta web ha sido optimizada para exploradores compatibles con estándares - Firefox, Chrome, Safari...

  • Aumentar fuente
  • Fuente predeterminada
  • Disminuir fuente
Introducción

Proyecto de Excelencia de la Junta de Andalucía: Sistema de visión en tiempo real multi-cámara para interpretación de escenas (MULTIVISION) (TIC-3873)

En este proyecto se abordará el desarrollo de un sistema de visión híbrido hardware/software en tiempo real basado en múltiples cámaras. En todo sistema de visión el objetivo es traducir imágenes a información concreta (datos extraídos de la “interpretación de la escena”). En este proyecto se estudiarán esquemas de visión que permitan el procesamiento eficiente de las imágenes extraídas de múltiples cámaras y el tratamiento de forma complementaria de las estimaciones de las diversas cámaras para realizar la tarea de “interpretación de la escena” de forma fiable y robusta. Este sistema tiene aplicación directa en plataformas de vigilancia y monitorización de espacios.

Los objetivos del proyecto se basan en resultados previos del grupo de investigación (y colaboraciones internacionales en el marco de proyectos Europeos y Nacionales).

El término de multivisión se refiere a la utilización de varias cámaras en diferentes configuraciones que permitirán estudiar conceptos distintos. La utilización de múltiples cámaras centradas en el mismo escenario (con solapamiento de campos de visión o sin solapamiento) permite la exploración de esquemas que permitan seguir objetos de un campo de visión a otro, estudiar trazas de movimientos entre distintos campos (cubiertos por distintas cámaras), etc. Además el proyecto estudiará también la configuración de varias cámaras con campo de visión solapados para cubrir el mismo escenario. En este caso estudiaremos esquemas de visión que permitan utilizar de forma complementaria la información extraída de cada una de las cámaras para realizar de forma fiable la “interpretación de la escena”. Finalmente estudiaremos la configuración de varias cámaras con solapamiento parcial para estudiar esquemas de “campo visual global” compuesto por los campos visuales de cada una de las cámaras (esquemas de fusión de imágenes en tiempo real para la composición de un mosaico de imágenes captadas con diferentes cámaras).

Un escenario cubierto por varias múltiples cámaras genera una cantidad de datos difícil de procesar en tiempo real de forma centralizada. Por ello estudiaremos el diseño de esquemas de atención que permitan que sólo se procesen todas las imágenes a bajo nivel (movimiento, color, etc) de forma distribuida (en diversos dispositivos FPGA como núcleos de procesamiento), mientras que tareas de más alto nivel se realicen sólo de forma global (es decir, desde uno de los puntos de vista) y de forma centralizada. Para ello estudiaremos esquemas en los que cada una de las secuencias (tomada por cada una de las cámaras) se procesa de forma completa y lo compararemos con esquemas en los que un “modelo atencional” selecciona una cámara y extrae la información de más alto nivel de esta fuente. Compararemos los resultados de interpretación de la escena a los que se llega con estas dos configuraciones diferentes (análisis exhaustivo frente análisis selectivo). El objetivo último de esta línea de investigación (que se extenderá más allá de este proyecto) es diseñar “agentes virtuales” que puedan seleccionar una fuente de datos u otra en base a primitivas de bajo nivel y llegar a una interpretación parcial de la escena correcta.

El proyecto además incluye el estudio de esquemas de “aprendizaje”. Debido a que la estructura y configuración de cámaras de monitorización de un espacio serán muy diversas en cada escenario, en el proyecto estudiaremos esquemas de aprendizaje que permitan que el sistema correlacione eventos visuales con acciones concretas de forma autónoma.