Uploaded by Ricardo Cervantes

Desarrollo de un Sistema de Detección V8

advertisement
PONTIFICIA UNIVERSIDAD JAVERIANA
Fecha de Presentación:
________________________
FACULTAD DE INGENIERÍA
Maestría de Ingeniería Electrónica
Trabajo de Investigación de Maestría
No.________
Anteproyecto del Trabajo de Investigación de
Maestría
Fecha de Registro:____________
1. SOLICITANTES
CÉDULA
Ricardo Alfonso Cervantes Hernández
CRÉDITOS
APROBADOS
79762887
TELÉFONOS – EMAILS
DIRECCIÓN
7043743 – 3002100458
ricardo_cervantes@readixtechnologies.com
2. TITULO
Desarrollo de un Sistema de Detección y Seguimiento, de Manos y Cabeza, basado en FPGA.
3. OBJETIVO GENERAL
Desarrollar un sistema para la detección y seguimiento, de manos y cabeza de un sujeto, en un medio
controlado de luminancia y fondo, basando la implementación sobre FPGA.
4. DIRECTOR
NOMBRE: Alejandro Forero Guzmán MSc.
DIRECCIÓN:
CARGO ENTIDAD: Profesor Asistente del alejandro.forero@javeriana.edu.co
Departamento de Electrónica- Pontificia Universidad TELÉFONO: 320 8320 Ext. 5365
Javeriana
5. ASESORES
NOMBRE
DIRECCIÓN
TELÉFONO
DURACIÓN DEL TRABAJO (SEMANAS):
FUENTE DE FINANCIACIÓN:
14 semanas
Privada
TIEMPO PARA ENTREGAR EL PROYECTO FECHA DE ENTREGA DEL PROYECTO:
(SEMANAS): 14 semanas
___________________________________
FIRMA DEL DIRECTOR DEL PROGRAMA DE MAESTRÍA:
6. ANTECEDENTES Y JUSTIFICACIÓN
6.1
EL ESTUDIO DEL MOVIMIENTO HUMANO
El estudio del movimiento humano por medio de la visión artificial para la interacción entre
hombres y máquinas ha tenido una gran importancia en los últimos años. Por esta razón, se
han venido desarrollando diferentes métodos para detectar, percibir e interpretar de manera
automática los movimientos de los seres humanos, con el fin de que las máquinas puedan
ser controladas de maneras más fácil e intuitiva y hasta tomar decisiones [1]. Además, el
estudio del comportamiento y movimiento humano abre un gran espectro de aplicaciones,
como son en: sistemas de seguridad [3], robótica [20], video juegos [6][27], o análisis
biomecánicos [8][ 4], como análisis del rendimiento atlético [9], donde es posible la
reconstrucción del modelo articulado del cuerpo humano en 2D o 3D para su estudio e
interacción en espacios virtuales[5][6].
Dentro del estudio de los movimientos humanos, uno de los más importantes es la
comunicación corporal por medio de las manos, con las cuales se puede realizar una gran
cantidad de diferentes movimientos que tienen significado y que pueden llegar a ser
utilizados para una compleja comunicación, permitiendo la interacción entre hombres, y
entre hombres y máquinas. Este tipo de comunicación es utilizada en contextos como por
ejemplo: el manejo de tráfico (de aviones, y de carros), control de grandes grupos, señales a
distancia, entre otros [21] [22].
El presente trabajo está basado en la detección de manos y cabeza de un sujeto, donde se
tenga como entrada al sistema la señal de video del sujeto y como salida las coordenadas de
de estas partes del cuerpo en un marco de referencia.
Durante los últimos años se han desarrollado diferentes algoritmos para la detección
automática de la cara y manos, utilizando métodos de reconocimiento de patrones para
visión artificial, los cuales siguen tres etapas básicas: adquisición de datos, extracción de
características, clasificación y toma de decisiones.
Los procesos de adquisición de datos, extracción de características y de toma de decisiones
están relacionados entre sí, ya que la información que se extrae de las imágenes depende de
las características a utilizar, y la forma de utilizarlos para ser analizados o clasificados, y
los resultados que se deseen obtener.
La primera es la adquisición de datos, que está basada en la toma de imágenes digitales
sean éstas en video o estáticas. Los requerimientos de tiempo son determinados por las
aplicaciones, donde varía la cantidad de imágenes por segundo; también varían los espacios
de color utilizados que puede ser RGB , Y Cb Cr, entre otros, según la información que se
desea analizar.
En la extracción de las características, se busca la información relevante de la imagen que
va ha ser analizada. En este proceso una de las características más utilizada el color de la
piel (skin-color) [11][12] basado en rangos de cada una de las variables del espacio de color
utilizado; y otras características, como: los bordes y sus formas [10][15], la extracción de
2
imágenes consecutivas para detectar movimiento [22][26][32], la extracción del fondo por
estimación [27] o conocimiento a-priori [12], la forma de los objetos o geometría de la
imagen [22], y la posición o ubicación dentro de la imagen [5].
Luego de realizar la extracción de características, se realizan cuantificaciones, y en
ocasiones transformaciones de la información, para resaltar características y hacerlas
apropiadas para los análisis, como por ejemplo: la distancia de Mahalanobis, que sirve para
medir la distancia entre diferentes colores [29][32], y comparación en formas de objetos, o
transformaciones como wavelet [14] [17] o Fourier [35].
En el proceso de clasificación y toma de decisiones, para el sistema de detección y
seguimiento, busca como resultado la ubicación espacial de las manos y cabeza, o un
símbolo que interprete el movimiento de manos y cabeza.
En el proceso de clasificación y toma de decisiones para el sistema de detección, se utilizan
métodos como: estudios estadísticos de las variables, principalmente del color usando en
algunos casos modelos Gaussianos [18], teoría de Bayes[15][33] o histogramas empíricos
[28], de todos modos en la mayoría de los trabajos presentados, se realizan estudios
paramétricos para el entrenamiento de los clasificadores o para determinar los rangos del
clasificador; también son usados otros métodos no perimétricos como: la lógica difusa [25],
las redes neuronales [34], los sistemas bioinspirados en la corteza visual (visual cortex)
[16], la Mean-Shift con SVM (Suport vector machine) [23], el boosted cascade de
Haarlike complementado con el algoritmo Adaboost [24] , el algoritmo de Viola and Jones
implementado en OpenCV [12] [31], y el algoritmo de k-means para diferenciar entra la
mano derecha e izquierda[19].
En el proceso de clasificación y toma de decisiones para el seguimiento, se puede utilizar
los mismo métodos de detección referenciados anteriormente, que normalmente se utilizan
en imágenes estáticas, y se realiza el proceso continuamente para realizar el seguimiento;
o también es posible utilizar métodos que utilizan la secuencia de imágenes, como: el filtro
de partículas con filtros de Kalman [9][19][24], el flujo óptico [13], la Mean-Shift [23]
[30], la extracción de imágenes consecutivas para detectar movimiento [22][26], entre
otros.
Los diferentes métodos presentados pueden variar y tener diferentes resultados según los
requerimientos, sin embargo pueden ser evaluados por los recursos que se necesitan como:
requerimientos de memoria, costo computacional, complejo computacional, el tiempo de
respuesta, frecuencia de trabajo, el costo de implementación, la eficiencia, el consumo de
energía, el tiempo de desarrollo y la posibilidad de implementación en diferentes
plataformas.
6.2
DEL CONCEPTO A LA REALIDAD
Cuando se pasa de una idea o concepto, a un producto, con posibilidades de ser utilizado a
nivel comercial, o experimental, los requerimientos de implementación toman gran fuerza,
haciendo imperativo mantener un costo equilibrado , y tener en cuenta algunas restricciones
como: los recursos disponibles, el tiempo de diseño, la disponibilidad de insumos, el costo
de materias primas, el mantenimiento a largo plazo, la adaptabilidad para interactuar con
otros sistemas, el tamaño, requerimientos para fabricación, entre otros [2]. Basado en las
3
restricciones, una alternativa de implementación para prototipos es la FPGA, que tiene
algunas ventajas como: rendimiento1, bajo precio en prototipos, fiabilidad y mantenimiento
a largo plazo [37], el paralelismo intrínseco, implementación de hardware especializado,
utilización de cores o subsistemas genéricos como Microcontroladores y controladores de
periféricos y memoria distribuida; pero al igual se presentan algunas limitaciones como: el
tamaño de la memoria interna, los retardos en la propagación interna y altos costo en
producción en masa.
Se han presentado trabajos previos con implementaciones de algoritmos en FPGA, donde
ha recomendado estructuras para la implementación de algoritmos para el análisis de video
en el área de detección de objetos, de forma general como se presenta en [35][36], e
implementaciones de módulos relacionados con el presente trabajo pero limitadas a un solo
objeto, como por ejemplo una sola mano [34] o realizando la detección sobre otras partes
del cuerpo como la presentada en [35] que reconoce la cara y los labios.
La estructura que se presenta en el actual trabajo está basada en la integración de dos tipos
de diseño, que pueden ser implementados dentro de la FPGA; que son: el diseño de
algoritmos directamente en hardware que realizan tareas específicas y el diseño de sistema
de control dentro de un microprocesador embebido.
Este tipo de plataformas donde se une la funcionalidad de un microprocesador embebido y
bloques de hardware experto es actualmente muy usada, porque es un plataforma genérica
que permite implementar gran cantidad de aplicaciones, y aprovecha las utilidades del
microcontrolador y estructuras funcionales implementadas directamente en hardware, como
son presentadas en [38], distribuyendo tareas para cada tipo de diseño según sus ventajas.
Estas plataformas se han vuelto muy populares entre los diferentes fabricantes de circuitos
electrónicos. Como por ejemplo: AT600 de Atmel, ColdFire de Motorola, Davinchi y el
OMAP de Texas Instruments, ARM Cortex M1 y NIOS de ALTERA entre otros, Power Pc
y MicroBlaze de XILINX.
Los microcontroladores son primordialmente usados en aplicaciones orientadas al control,
manejo de interrupciones, senseo y control de eventos externos.
Los módulos funcionales diseñados directamente sobre hardware ejecutan tareas
especificas, son tradicionalmente encontrados en sistemas que requieren: manejo de tareas
intensivas, eficiencia en el procesamiento en cuanto a velocidad, tiempo de procesamiento,
precisión en el análisis, y son muy usados en aplicaciones como el procesamiento Digital
de señales y networking.
1
Rendimiento – Los FPGAs, tomando ventaja del paralelismo del hardware, exceden la potencia de cómputo
de los procesadores digitales de señales (DSPs) rompiendo el paradigma de ejecución secuencial y logrando
más en cada ciclo de reloj. BDTI, una destacada firma analista que realiza evaluaciones de referencia, lanzó
evaluaciones mostrando cómo los FPGAs pueden entregar significativamente más potencia de procesamiento
por dólar que una solución de DSP, en algunas aplicaciones.[37]
4
En este trabajo se propone, el diseño de un sistema para la detección y seguimiento de la
cabeza y manos, implementado dentro de una FPGA, en un espacio bidimensional, bajo
condiciones controladas de iluminación y fondo.
7 DESCRIPCIÓN
En esta parte se realizará una descripción del sistema a implementar, luego se presentarán
los objetivos generales y específicos, seguidos de una descripción de los bloques del
sistema.
El presente trabajo propone el diseño de un sistema basado en FPGA de detección y
seguimiento de manos y cabezas de un sujeto bajo condiciones de luz y fondo controladas.
El sistema será desarrollado por módulos o subsistemas que tendrán tareas especificas, y
donde su metodología de implementación, está basada en el desarrollo de sistemas expertos
diseñados directamente en hardware para las tareas de procesamiento de video, y el uso de
cores genéricos para las tareas de manejo de periféricos, control y el sincronismo. El
diseño está dividido en cuatro módulos: detección, seguimiento, pre-procesamiento y por
último uno de control.
7.1
DESCRIPCIÓN DE SISTEMA
Para estimar la posición actual de las manos y la cabeza, se realizan dos procesos, uno de
detección que genere en primera instancia la ubicación preliminar de las manos y la cabeza,
y otro de seguimiento que mantenga enganchada la ubicación de estas.
El primer proceso realiza la detección, el cual identifica en la imagen, la cabeza y cada una
de las manos, aprovechando las características de color, forma y ubicación; este algoritmo
es pesado en el sentido que debe analizar la imagen completa, la selección del algoritmo a
utilizar tendrá en cuenta los requerimientos de memoria, el costo computacional, el tiempo
de proceso, y su eficiencia y su eficacia en lo relacionado a la probabilidad de éxito en la
estimación de las posiciones de las partes del cuerpo en cuestión.
El segundo proceso realizará el seguimiento, este puede requerir menor carga de memoria
que el de detección y por ende mejorar la velocidad de respuesta, ya que este estará basado
en una ventana o recuadro ubicado directamente en el sector donde se encuentren las
manos, y las posibles ubicaciones donde se puede encontrar en el siguiente cuadro o frame.
Este proceso, analizará la ubicación del centroide cada una de las manos para que a medida
que la mano se mueva, pueda volver a centrar la ventana en dicho centroide. El sistema
contará con dos estados generales, que son: enganche, que significa que la mano
efectivamente esta dentro de la ventana y que la imagen que sigue es la correcta; y
desenfoque, que significa que es necesario volver a generar un estado inicial ya que no se
tiene la mano dentro de la ventana. Cada mano tendrá su propio bloque de seguimiento y el
algoritmo será elegido dependiendo las características de su complejidad computacional,
costo computacional, velocidad de respuesta, y eficiencia. La cabeza no tendrá un modulo
de seguimiento propiamente dicho, ya que se basará únicamente en la información
5
generada por el bloque de detección ya que se espera que esta no se mueva tan rápido como
las manos y sea suficiente con el proceso de detección.
Un sistema de control será también diseñado, en el cual se mantendrá la información
generada por los procesos de detección y seguimiento, y realizara el análisis para generar la
proyección de la ubicación de las ventanas para el bloque de seguimiento, controlará los
estados de enganche o desenfoque y tomará la decisión final de la ubicación estimada de las
manos y la cabeza.
Los procesos de detección y seguimiento se ejecutarán constantemente y en paralelo. El
bloque de control analizará el resultado de ambos procesos y revisará constantemente que
la ubicación sea coherente, y así disminuir la probabilidad de error.
La arquitectura planteada, integra las funcionalidades de un microprocesador con módulos
expertos, implementados directamente en hardware; donde el microcontrolador realizará el
control y administración de periféricos, y los módulos expertos realizaran las tareas de
procesamiento de video; lo que se busca es sacar la ventaja de ambos tipos de
implementación, el microcontrolador permite implementar el sistema de control sacando
ventaja del desarrollo en software, disminuye el tiempo de diseño de la implementación y
adaptación de interfaces genéricas, como en este caso la generación y captura de video, y se
aprovechan librerías creadas por los soportes del fabricante o plataforma de desarrollo; y
con los módulos de detección y seguimiento, implementados directamente en hardware, se
puede aprovechar las ventajas de la FPGA, como son el paralelismo en los procesos, y
funciones corriendo directamente en hardware, que mejoran en el tiempo del proceso.
7.2
OBJETIVOS DEL TRABAJO
Objetivo general
•
Desarrollar un sistema para la detección y seguimiento de manos y cabeza de un
sujeto, en un medio controlado de luminancia y fondo, basado en una FPGA.
Objetivos específicos
•
Desarrollar un algoritmo de detección de cabeza y manos de un sujeto bajo
condiciones controladas de iluminación y fondo, usando las características de color,
forma y ubicación, para ser implementado en VHDL.
•
Desarrollar un algoritmo de seguimiento de manos, usando submuestreo sobre la
imagen y la secuencia entre imágenes, pasa ser implementado en VHDL.
•
Desarrollar un sistema de control para la integración y funcionamiento coherente
entre los módulos de detección y seguimiento.
•
Implementación e integración de los módulos de seguimiento, detección y control
basado en una FPGA.
6
7.3
DESCRIPCION DE LOS BLOQUES DEL SISTEMA
Figure 1. Estructura en hardware del sistema de estimación de estimación.
El sistema planteado esta divido en seis módulos generales. Así:
Captura, el cual recibe la información de video compuesto y la almacena en memoria
directamente, según los parámetros de configuración manejadas desde el Core de
Microcontrolador.
Características:
Entradas:
•
Video compuesto PAL-B/G a 30fps.
Salidas:
•
Bus de de datos y dirección para el modulo de pre-procesamiento.
•
Características de la información entregada según parámetros de configuración.
o Esquema de colores
o Zoom
7
o Velocidad de muestreo
Pre procesamiento de la imagen, el cual realiza un pre-acondicionamiento de la señal de
video, este modulo filtra la información solicitada por el modulo de control, y organiza la
información en las memorias de los módulos de detección y seguimiento.
Detección, está compuesto por dos bloques: uno de memoria y uno de detección. Este
modulo debe reconocer la cabeza, la mano derecha y la mano izquierda aprovechando las
características de color, forma y ubicación.
Características:
Entradas:
•
Información de video.
Salidas:
•
Coordenadas de la cabeza
•
Coordenadas de la mano derecha
•
Coordenadas de la mano izquierda
Seguimiento, contará con dos bloques: uno de memoria y uno de seguimiento. Este modulo
se encargara de seguir la posición de las manos derecha e izquierda, independientemente;
analizando el movimiento de patrones en una ventana que está centrada en la posición
actual de mano; y que cubre la posición actual de la mano y los posibles lugares donde se
encontrará en el siguiente cuadro de video.
Características:
Entradas:
•
Dos segmentos de la información de video, centrados en los últimos valores de las
coordenadas de las manos, generadas por el modulo de control.
Salidas:
•
Coordenadas de la mano derecha
•
Coordenadas de la mano izquierda
Control, este recoge la información de coordenadas generadas por los módulos de detección
y seguimiento, analiza la información recogida, mantiene el sincronismo en los procesos,
controlar los estados de desenfoque y enganche, y entrega la el resultado de posición
estimada.
Características:
Entradas:
8
•
Coordenadas de la cabeza, la mano derecha y mano izquierda, entregadas por el
modulo de detección.
•
Coordenadas de la cabeza, la mano derecha y mano izquierda, entregadas por el
modulo de seguimiento.
Salidas:
•
Coordenadas de la cabeza
•
Coordenadas de la mano derecha
•
Coordenadas de la mano izquierda
•
Señales de control (Sincronismo, estados de la FSM)
Presentación, escribe la información en la memoria de video de los resultados obtenidos
entregados por el modulo de Control, y presenta imágenes de procesos intermedios del
proceso, para revisar los resultados de los módulos de detección y de seguimiento.
La interface de video está basado en un controlador y un Core experto embebido dentro de
la FPGA propio del sistema de desarrollo utilizado.
Características:
Entradas:
•
Coordenadas del centroide de la mano derecha e izquierda y cabeza.
Salidas:
•
Bus de de datos para las memorias de los sistemas de detección y seguimiento.
•
Salida de video VGA
o Resolución de salida 640 x 480.
o Presentación de salida
ƒ
Boceto de Cabeza
ƒ
Boceto de derecha
ƒ
Boceto de ano izquierda
ƒ
Boceto del tronco, brazo y antebrazo.
9
Figure 2. Boceto de la presentación de salida del sistema.
7.4
FLUJO DEL PROCESO
Figure 3. Flujo del proceso del sistema de detección y seguimiento.
7.5
LIMITACIONES
El sistema trabaja con tomas de personas de frente, cubriendo desde la rodilla hasta un
poco más arriba de la cabeza, donde se logre tomar el movimiento extendido de los brazos.
Las tomas estarán entre los 3 y 7 metros de distancia; utilizando videos de interiores donde
la iluminación y el fondo es controlado, la imagen utilizada es de 640x480 pixeles.
10
Figure 4. Ejemplo del escenario a utilizar en el presente trabajo.
El sistema realizara detección de la cabeza y la mano derecha e izquierda, y seguimiento
de las manos, ya que se asume que la cabeza no se mueve tan rápido como las manos.
El sistema de detección y seguimiento trabajará a una frecuencia de por los menos 15
cuadros por segundo, y será comparada con la bibliografía presentada; donde se han
desarrollado trabajos similares, y es posible encontrar similitudes, en los procesos
realizados, la implementación y los resultados obtenidos.
8 METODOLOGÍA
8.1
DIAGRAMA DE FRUJO DEL PROCESO DE DISEÑO
11
Figure 5. Diagrama de flujo del proceso de diseño.
8.2
METODOLOGIA DE IMPLEMENTACION
Este es un trabajo de profundización, donde se desea plantear una posible solución a la
detección y seguimiento de manos y cabeza en un sistema basado en FPGA. La forma de
validación de los resultados está basado en cumplir con los requerimientos mínimos y
presentar un sistema con una tasa de error aceptable comparada con los trabajos actuales
presentados en la bibliografía.
El sistema será implementado en una FPGA SPRATAN 3 de XILINX de 1500 sistemas de
compuertas, sobre una plataforma de ALTIUM DESIGNER NB2: utilizando un sistema de
2M bytes de memoria, un entrada de video PAL-B/G de 32 bits, y una salida de video
VGA de 24bis, con una resolución de 320x240 que está centrada en la pantalla de
resolución de 800x600.
Los algoritmos estarán desarrollados en VHDL y en C según el modulo implementado.
12
El sistema se evalúa por medio de los recursos utilizados en cuanto a tiempo de los
procesos, costo computacional, memoria, velocidad de respuesta, frecuencia de trabajo, y
los resultados de la posición de las manos y la cabeza entregados, tomados directamente de
la implementación. Los resultados de la posición de las manos y la cabeza entregada por el
sistema, se evaluarán por medio de videos pregrabados guardados en una base de datos,
donde previamente se estimo manualmente la posición correcta y se compare con la
posición entregada por el sistema implementado.
13
9 ACTIVIDADES
9.1
LISTADO DE TAREAS
Descripción de la tarea
Duración
Revisión y análisis de Bibliografía actual
60d
Implementación de la interface de captura
5d
Implementación de la interface de Presentación
5d
Generación de la base de datos de video de personas
15d
Análisis de tiempos y recursos disponibles
2d
Selección y Análisis del algoritmo de detección
20d
Selección y Análisis del algoritmo de seguimiento
20d
Presentación del Proyecto (Documento)
3d
Implementación del algoritmo de detección
15d
Pruebas del modulo de detección
2d
"Análisis de recursos utilizados (tiempo, costo comp) y resultados obtenidos"
1d
Reajuste del modelo de detección
3d
implementación del algoritmo de Seguimiento
10d
Avance del Trabajo de Profundización (Documento)
1d
Pruebas del modulo de detección y seguimiento
2d
"Análisis de recursos utilizados (tiempo, costo comp) y resultados obtenidos"
1d
Desarrollo e implementación del algoritmo de control
5d
Pruebas de los modulo de detección y seguimiento con control
2d
"Análisis de recursos utilizados (tiempo, costo comp) y resultados obtenidos"
3d
14
Reajuste del modelo
10d
Análisis de resultados obtenidos
4d
Entrega del Trabajo de Profundización (Documento)
5d
VER: ANEXO 1 (Diagrama PERT).
10 CRONOGRAMA:
VER: ANEXO 2 (Diagrama GANTT).
11 USUARIOS DIRECTOS Y FORMAS DE UTILIZACIÓN
DE LOS RESULTADOS ESPERADOS
En los sistemas actuales de interacción entre el hombre y la maquina, donde se busca que
las maquina tomen decisiones o acciones, y sean lo más autónomas posibles, sin que el
hombre ejerza una directa manipulación de la maquina; se hace casi indispensable que un
sistema de detección y de seguimiento, de partes del cuerpo humano, se tenga en cuenta en
su implementación [7].
El sistema de detección y seguimiento integrado con un sistema de decodificación de
lenguaje, puede interpretar comandos, por lo cual abre un gran campo de aplicaciones en
control de tráfico y sistemas de seguridad donde se usa el lenguaje corporal.
En los sistemas actuales se considera que los sistemas de análisis de video, requieren gran
costo computacional y capacidad de memoria, para ser implementados en dispositivos
embebidos [15], por lo tanto si se logra desarrollar, deja una ventana abierta para que los
nuevos productos que requieren procesamiento de video, como cámaras fotográficas, los
cuales constantemente esta adicionando nuevas características a sus productos, puedan
implementar este tipo de módulos.
12 POSIBLES EFECTOS
Las contribuciones y posibles efectos se pueden revisar desde dos perspectivas distintas, ya
que presenta una alternativa en la arquitectura y otra en la forma de realizar el proceso de
detección y seguimiento. La arquitectura planteada, integra las funcionalidades de un
microprocesador, con módulos implementados en directamente en hardware, sacando la
15
ventaja de los dos tipos de implementación. El
planteado, es de forma tal que los sistemas de
continuamente y en paralelo; y por medio de un
información entre ambos procesos es coherente;
disminuir la probabilidad de error.
proceso de detección y seguimiento
detección y seguimiento se ejecutan
modulo de control, que analiza si la
por lo tanto, esto puede ayudar a
De igual manera se contribuye con la evolución normal de la tecnología en los sistemas de
procesamiento de video, aportando nuevas alternativas, buscando procesos y sistemas más
eficientes, y que consuman menos recursos.
13 DIFICULTADES PREVISIBLES
RECURSOS DE LA FPGA
Se podría presentar limitaciones con los recursos de hardware, como el numero de sistemas
de compuerta, capacidad de memoria, o de velocidad respuesta del sistema; esto se podría
superar incrementado o mejorando las características de la FPGA utilizada; sin embrago, se
quiere mantener que el sistema sea implementado en un FPGA estándar, de bajo costo; y
buscar superar las posibles limitaciones, por medio de mejorar la eficiencia en los
algoritmos implementados dentro del sistema.
TIEMPO DE DESARROLLO
El trabajo propuesto está proyectado para llevarse a cabo en 4 meses, teniendo en cuenta
todos los parámetros sugeridos en un manejo de proyectos de diseño de sistemas embebidos
y de implementación en VHDL. Sin embargo, el recurso del personal de ingeniería, con
horas dedicadas al proyecto, puede verse afectado por compromisos laborales y proyectos
ya asumidos; dejando claro que la prioridad del presente trabajo es muy alta, y se tienen
puntos de seguimiento y verificación donde se lleva los controles del proyecto.
14COSTO Y FUENTE DE FINANCIACIÓN
14.1
RECURSOS TECNICOS
Hardware
Computador
Nanoboard 2 - ALTIUM DESIGNER
Cámara de video
Software
Altium Designer Winter 09
14.2
GASTOS DE INGENIERÍA
16
Ingeniero electrónico (Tiempo x precio)
14.3
ENTIDAD QUE LO FINANCIA
READIX COLOMBIA LTDA
15BIBLIOGRAFÍA Y FUENTES DE INFORMACIÓN
[1] Human Motion Analysis: A Review, J. K. Aggarwal and Q. Cai, Computer and Vision
Research Center, Department of Electrical and Computer Engineering, The University of Texas
at Austin Austin, TX 78712, Tel: (5 12) 471- 1369, Fax: (512)471-5532
[2] Smart Cameras as Embedded Systems September 200, Volume 35, Issue 9, Sept. 2002
Page(s):48 - 53 , Digital Object Identifier 10.1109/MC.2002.1033027
[3] Tracking Human Motions for Security System Junzo Watada 1 & Zalili Binti Musaand
[4] Análisis biomecánico del movimiento humano mediante técnica de visión artificial. Juan
José Pantrigo Fernández ESCET-URJC.
[5] Reconstruction of Articulated Objects from Point Correspondences, in a Single
Uncalibrated Image Camillo J. T aylor GRASP Laboratory, CIS Department University of
Pennsylvania Philadelphia, PA, 19104-6228.
[6] Human Figure Control Software for Real-Virtual Application. 14-16 July 2004 Page(s):858
- 862 Digital Object Identifier 10.1109/IV.2004.1320241
[7] Real-time Human Mot ion Analysis and IK-based Human Figure Control, Yonemoto, S.;
Arita, D.; Taniguchi, R.;7-8 Dec. 2000 Page(s):149 – 154, Digital Object Identifier
10.1109/HUMO.2000.897385
[8] Meyers, Michael. Mejora del Rendimiento Atlético: La Unión de la Ciencias del Deporte y
del Entrenamiento . PubliCE Standard. 23/05/2005. Pid: 467.
[9] Articulated body motion capture by annealed particle filtering, Deutscher, J.; Blake, A.;
Reid, I.; Computer Vision and Pattern Recognition, 2000. Proceedings. IEEE Conference on,
Volume 2,
13-15 June 2000 Page(s):126 - 133 vol.2 Digital Object Identifier
10.1109/CVPR.2000.854758.
[10] Robust Face Detection and Hand Posture Recognition in Color Images for HumanMachine Interaction, Quebec City, QC, Canada, August 11-August 1, ISBN: 0-7695-1695-X
[11] Skin Detection Using Color Pixel Classification with Application to Face Detection: A
Comparative Study, Nallaperumal, K.; Ravi, S.; Babu, C.N.K.; Selvakumar, R.K.; Fred, A.L.;
Seldev, C.; Vinsley, S.S.; Conference on Computational Intelligence and Multimedia
Applications, 2007. International Conference on Volume 3, 13-15 Dec. 2007 Page(s):436 – 441
Digital Object Identifier 10.1109/ICCIMA.2007.208
[12] Real-Time Face Detection and Tracking for High Resolution Smart Camera System,
Mustafah, Y. M.; Shan, T.; Azman, A. W.; Bigdeli, A.; Lovell, B. C.; Digital Image Computing
Techniques and Applications, 9th Biennial Conference of the Australian Pattern Recognition
Society on 3-5 Dec. 2007 Page(s):387 - 393
Digital Object Identifier
10.1109/DICTA.2007.4426823
[13] Real-time object tracking based on optical flow and active rays, Kalafatic, Z.; Ribaric, S.;
Stanisavljevic, V.; Electrotechnical Conference, 2000. MELECON 2000. 10th Mediterranean
17
Volume 2,
2000 Page(s):542
10.1109/MELCON.2000.879990
-
545
vol.2
Digital
Object
Identifier
[14] A face/object recognition system using FPGA implementation of coarse region
segmentation, Nakano, T.; Morie, T.; Iwata, A.; SICE 2003 Annual Conference Volume 2, 4-6
Aug. 2003 Page(s):1552 - 1557 Vol.2
[15] Real-time face detection and lip feature extraction using field-programmable gate arrays,
Nguyen, D.; Halupka, D.; Aarabi, P.; Sheikholeslami, A.; Systems, Man, and Cybernetics, Part
B, IEEE Transactions on Volume 36, Issue 4, Aug. 2006 Page(s):902 - 912 Digital Object
Identifier 10.1109/TSMCB.2005.862728
[16] Robust Object Recognition with Cortex-Like Mechanisms, Serre, T.; Wolf, L.; Bileschi, S.;
Riesenhuber, M.; Poggio, T.; Pattern Analysis and Machine Intelligence, IEEE Transactions on
Volume 29,
Issue 3,
March 2007 Page(s):411 - 426
Digital Object Identifier
10.1109/TPAMI.2007.56
[17] Low Cost Fpga-Based Highly Accurate Face Recognition System using Combined
Wavelets with Subspace Methods, Shams, N.; Hosseini, I.; Sadri, M.S.; Azarnasab, E.; Image
Processing, 2006 IEEE International Conference on 8-11 Oct. 2006 Page(s):2077 – 2080 Digital
Object Identifier 10.1109/ICIP.2006.312922
[18] An FPGA implementation of a flexible, parallel image processing architecture suitable for
embedded vision systems, McBader, S.; Lee, P.; Parallel and Distributed Processing
Symposium, 2003. Proceedings. International 22-26 April 2003 Page(s):5 pp. Digital Object
Identifier 10.1109/IPDPS.2003.1213415
[19] Two Hand Tracking Using Colour Statistical Model with the K-means Embedded Particle
Filter for Hand Gesture Recognition, Ongkittikul, S.; Worrall, S.; Kondoz, A.;Computer
Information Systems and Industrial Management Applications, 2008. CISIM '08. 7th 26-28 June
2008 Page(s):201 - 206 Digital Object Identifier 10.1109/CISIM.2008.19
[20] A humanoid robot that listens, speaks, sees and manipulates in human environments, Ee
Sian Neo; Sakaguchi, T.; Yokoi, K.; Multisensor Fusion and Integration for Intelligent Systems,
2008. MFI 2008. IEEE International Conference on 20-22 Aug. 2008 Page(s):419 – 425 Digital
Object Identifier 10.1109/MFI.2008.4648031
[21] REGULACIONES
ARGENTINAS
DE
AVIACIÓN
CIVIL
(RAAC),
http://www.cra.gov.ar/dta/ais/documentos/docs/58.pdf - Véase N° 36 - CAPITULO IV - Sección
2ª SEÑALES DE SOCORRO, URGENCIA Y SEGURIDAD
[22] Comparison of hand segmentation methodologies for Hand gesture recognition, Lim Wei
Howe,; Wong, Farrah; Chekima, Ali; Information Technology, 2008. ITSim 2008. International
Symposium on Volume 2, 26-28 Aug. 2008 Page(s):1 – 7 Digital Object Identifier
10.1109/ITSIM.2008.4631669
[23] DRUIDE: a real-time system for robust multiple face detection, tracking and hand posture
recognition in color video sequences, Terrillon, J.-C.; Pilpre, A.; Niwa, Y.; Yamamoto, K.;
Pattern Recognition, 2004. ICPR 2004. Proceedings of the 17th International Conference on
Volume 3,
23-26 Aug. 2004 Page(s):302 – 305 Vol.3
Digital Object Identifier
10.1109/ICPR.2004.1334527
[24] Face tracking and hand gesture recognition for human-robot interaction, Brethes, L.;
Menezes, P.; Lerasle, F.; Hayet, J.; Robotics and Automation, 2004. Proceedings. ICRA ‘04.
2004 IEEE International Conference on Volume 2, Apr 26-May 1, 2004 Page(s):1901 – 1906
Vol.2 Digital Object Identifier 10.1109/ROBOT.2004.1308101
[25] Interval Fuzzy Rule-Based Hand Gesture Recognition, Callejas Bedregal, B.R.; Dimuro,
G.P.; Rocha Costa, A.C.; Scientific Computing, Computer Arithmetic and Validated Numerics,
2006. SCAN 2006. 12th GAMM - IMACS International Symposium on 26-29 Sept. 2006
Page(s):12 – 12, Digital Object Identifier 10.1109/SCAN.2006.25
18
[26] Hand tracking and motion detection from the sequence of stereo color image frames, HeeSung Kim; Kurillo, G.; Bajcsy, R.; Industrial Technology, 2008. ICIT 2008. IEEE International
Conference on 21-24 April 2008 Page(s):1 – 6 Digital Object Identifier
10.1109/ICIT.2008.4608702
[27] Homogeneity Based Background Subtraction for Robust Hand Pose Recognition :
Focusing On the Digital Game Interface, YoungJoon Chai; DongHeon Jang; TaeYong Kim;
Computer Graphics, Imaging and Visualisation, 2007. CGIV '07 14-17 Aug. 2007 Page(s):292 –
297 Digital Object Identifier 10.1109/CGIV.2007.47
[28] Locating hands in complex images using color analysis, Jung Soh; Ho-Sub Yoon; Min Wang;
Byung-Woo Min; Systems, Man, and Cybernetics, 1997. 'Computational Cybernetics and
Simulation'., 1997 IEEE International Conference on Volume 3, 12-15 Oct. 1997 Page(s):2142 2146 vol.3 Digital Object Identifier 10.1109/ICSMC.1997.635182
[29] On-premise skin color modeing method for vision-based hand tracking, Eunjin Koh; Jongho
Won; Changseok Bae; Consumer Electronics, 2009. ISCE '09. IEEE 13th International
Symposium on 25-28 May 2009 Page(s):908 – 909 Digital Object Identifier
10.1109/ISCE.2009.5156946
[30] Research of a Real-time Hand Tracking Algorithm, Haiting Zhai; Xiaojuan Wu; Hui Han;
Neural Networks and Brain, 2005. ICNN&B '05. International Conference on Volume 2, 13-15
Oct. 2005 Page(s):1233 - 1235 Digital Object Identifier 10.1109/ICNNB.2005.1614835
[31] Robust hand tracking using a skin tone and depth joint probability model, Manders, C.;
Farbiz, F.; Chong, J.H.; Tang, K.Y.; Chua, G.G.; Loke, M.H.; Yuan, M.L.; Automatic Face &
Gesture Recognition, 2008. FG '08. 8th IEEE International Conference on 17-19 Sept. 2008
Page(s):1 - 6 Digital Object Identifier 10.1109/AFGR.2008.4813459
[32] Segmentation of the face and hands in sign language video sequences using color and
motion cues, Habili, N.; Cheng Chew Lim; Moini, A.; Circuits and Systems for Video
Technology, IEEE Transactions on Volume 14, Issue 8, Aug. 2004 Page(s):1086 - 1097
Digital Object Identifier 10.1109/TCSVT.2004.831970
[33] Segmenting hands of arbitrary color, Xiaojin Zhu; Jie Yang; Waibel, A.; Automatic Face and
Gesture Recognition, 2000. Proceedings. Fourth IEEE International Conference on 28-30 March
2000 Page(s):446 - 453 Digital Object Identifier 10.1109/AFGR.2000.840673
[34] FPGA implementation of a neural network for a real-time hand tracking system, Krips, M.;
Lammert, T.; Kummert, A.; Electronic Design, Test and Applications, 2002. Proceedings. The
First IEEE International Workshop on 29-31 Jan. 2002 Page(s):313 – 317, Digital Object
Identifier 10.1109/DELTA.2002.994637
[35] An FPGA implementation of a flexible, parallel image processing architecture suitable for
embedded vision systems, McBader, S.; Lee, P.; Parallel and Distributed Processing
Symposium, 2003. Proceedings. International 22-26 April 2003 Page(s):5 pp. Digital Object
Identifier 10.1109/IPDPS.2003.1213415
[36] Hardware design of image recognition system based ARM and FPGA, Daode Zhang;
Guangyou Yang; Jiangtao Zhang; Heng Gao; Industrial Electronics and Applications, 2008.
ICIEA 2008. 3rd IEEE Conference on 3-5 June 2008 Page(s):635 - 638 Digital Object Identifier
10.1109/ICIEA.2008.4582592.
[37] Una Introducción a la Tecnología FPGA: Los Cinco Beneficios Principales, National
Instruments Tutorial, Publish Date: December 15, 2008. nota: 8259.
http://zone.ni.com/devzone/cda/tut/p/id/8259.
[38] DSP Acceleration Using a Reconfigurable Coprocessor FPGA. Aplication Note: DOC0724
http://www.atmel.com/dyn/resources/prod_documents/DOC0724.PDF
19
16OBSERVACIONES
No hay observaciones pendientes.
20
Download