PONTIFICIA UNIVERSIDAD JAVERIANA Fecha de Presentación: ________________________ FACULTAD DE INGENIERÍA Maestría de Ingeniería Electrónica Trabajo de Investigación de Maestría No.________ Anteproyecto del Trabajo de Investigación de Maestría Fecha de Registro:____________ 1. SOLICITANTES CÉDULA Ricardo Alfonso Cervantes Hernández CRÉDITOS APROBADOS 79762887 TELÉFONOS – EMAILS DIRECCIÓN 7043743 – 3002100458 ricardo_cervantes@readixtechnologies.com 2. TITULO Desarrollo de un Sistema de Detección y Seguimiento, de Manos y Cabeza, basado en FPGA. 3. OBJETIVO GENERAL Desarrollar un sistema para la detección y seguimiento, de manos y cabeza de un sujeto, en un medio controlado de luminancia y fondo, basando la implementación sobre FPGA. 4. DIRECTOR NOMBRE: Alejandro Forero Guzmán MSc. DIRECCIÓN: CARGO ENTIDAD: Profesor Asistente del alejandro.forero@javeriana.edu.co Departamento de Electrónica- Pontificia Universidad TELÉFONO: 320 8320 Ext. 5365 Javeriana 5. ASESORES NOMBRE DIRECCIÓN TELÉFONO DURACIÓN DEL TRABAJO (SEMANAS): FUENTE DE FINANCIACIÓN: 14 semanas Privada TIEMPO PARA ENTREGAR EL PROYECTO FECHA DE ENTREGA DEL PROYECTO: (SEMANAS): 14 semanas ___________________________________ FIRMA DEL DIRECTOR DEL PROGRAMA DE MAESTRÍA: 6. ANTECEDENTES Y JUSTIFICACIÓN 6.1 EL ESTUDIO DEL MOVIMIENTO HUMANO El estudio del movimiento humano por medio de la visión artificial para la interacción entre hombres y máquinas ha tenido una gran importancia en los últimos años. Por esta razón, se han venido desarrollando diferentes métodos para detectar, percibir e interpretar de manera automática los movimientos de los seres humanos, con el fin de que las máquinas puedan ser controladas de maneras más fácil e intuitiva y hasta tomar decisiones [1]. Además, el estudio del comportamiento y movimiento humano abre un gran espectro de aplicaciones, como son en: sistemas de seguridad [3], robótica [20], video juegos [6][27], o análisis biomecánicos [8][ 4], como análisis del rendimiento atlético [9], donde es posible la reconstrucción del modelo articulado del cuerpo humano en 2D o 3D para su estudio e interacción en espacios virtuales[5][6]. Dentro del estudio de los movimientos humanos, uno de los más importantes es la comunicación corporal por medio de las manos, con las cuales se puede realizar una gran cantidad de diferentes movimientos que tienen significado y que pueden llegar a ser utilizados para una compleja comunicación, permitiendo la interacción entre hombres, y entre hombres y máquinas. Este tipo de comunicación es utilizada en contextos como por ejemplo: el manejo de tráfico (de aviones, y de carros), control de grandes grupos, señales a distancia, entre otros [21] [22]. El presente trabajo está basado en la detección de manos y cabeza de un sujeto, donde se tenga como entrada al sistema la señal de video del sujeto y como salida las coordenadas de de estas partes del cuerpo en un marco de referencia. Durante los últimos años se han desarrollado diferentes algoritmos para la detección automática de la cara y manos, utilizando métodos de reconocimiento de patrones para visión artificial, los cuales siguen tres etapas básicas: adquisición de datos, extracción de características, clasificación y toma de decisiones. Los procesos de adquisición de datos, extracción de características y de toma de decisiones están relacionados entre sí, ya que la información que se extrae de las imágenes depende de las características a utilizar, y la forma de utilizarlos para ser analizados o clasificados, y los resultados que se deseen obtener. La primera es la adquisición de datos, que está basada en la toma de imágenes digitales sean éstas en video o estáticas. Los requerimientos de tiempo son determinados por las aplicaciones, donde varía la cantidad de imágenes por segundo; también varían los espacios de color utilizados que puede ser RGB , Y Cb Cr, entre otros, según la información que se desea analizar. En la extracción de las características, se busca la información relevante de la imagen que va ha ser analizada. En este proceso una de las características más utilizada el color de la piel (skin-color) [11][12] basado en rangos de cada una de las variables del espacio de color utilizado; y otras características, como: los bordes y sus formas [10][15], la extracción de 2 imágenes consecutivas para detectar movimiento [22][26][32], la extracción del fondo por estimación [27] o conocimiento a-priori [12], la forma de los objetos o geometría de la imagen [22], y la posición o ubicación dentro de la imagen [5]. Luego de realizar la extracción de características, se realizan cuantificaciones, y en ocasiones transformaciones de la información, para resaltar características y hacerlas apropiadas para los análisis, como por ejemplo: la distancia de Mahalanobis, que sirve para medir la distancia entre diferentes colores [29][32], y comparación en formas de objetos, o transformaciones como wavelet [14] [17] o Fourier [35]. En el proceso de clasificación y toma de decisiones, para el sistema de detección y seguimiento, busca como resultado la ubicación espacial de las manos y cabeza, o un símbolo que interprete el movimiento de manos y cabeza. En el proceso de clasificación y toma de decisiones para el sistema de detección, se utilizan métodos como: estudios estadísticos de las variables, principalmente del color usando en algunos casos modelos Gaussianos [18], teoría de Bayes[15][33] o histogramas empíricos [28], de todos modos en la mayoría de los trabajos presentados, se realizan estudios paramétricos para el entrenamiento de los clasificadores o para determinar los rangos del clasificador; también son usados otros métodos no perimétricos como: la lógica difusa [25], las redes neuronales [34], los sistemas bioinspirados en la corteza visual (visual cortex) [16], la Mean-Shift con SVM (Suport vector machine) [23], el boosted cascade de Haarlike complementado con el algoritmo Adaboost [24] , el algoritmo de Viola and Jones implementado en OpenCV [12] [31], y el algoritmo de k-means para diferenciar entra la mano derecha e izquierda[19]. En el proceso de clasificación y toma de decisiones para el seguimiento, se puede utilizar los mismo métodos de detección referenciados anteriormente, que normalmente se utilizan en imágenes estáticas, y se realiza el proceso continuamente para realizar el seguimiento; o también es posible utilizar métodos que utilizan la secuencia de imágenes, como: el filtro de partículas con filtros de Kalman [9][19][24], el flujo óptico [13], la Mean-Shift [23] [30], la extracción de imágenes consecutivas para detectar movimiento [22][26], entre otros. Los diferentes métodos presentados pueden variar y tener diferentes resultados según los requerimientos, sin embargo pueden ser evaluados por los recursos que se necesitan como: requerimientos de memoria, costo computacional, complejo computacional, el tiempo de respuesta, frecuencia de trabajo, el costo de implementación, la eficiencia, el consumo de energía, el tiempo de desarrollo y la posibilidad de implementación en diferentes plataformas. 6.2 DEL CONCEPTO A LA REALIDAD Cuando se pasa de una idea o concepto, a un producto, con posibilidades de ser utilizado a nivel comercial, o experimental, los requerimientos de implementación toman gran fuerza, haciendo imperativo mantener un costo equilibrado , y tener en cuenta algunas restricciones como: los recursos disponibles, el tiempo de diseño, la disponibilidad de insumos, el costo de materias primas, el mantenimiento a largo plazo, la adaptabilidad para interactuar con otros sistemas, el tamaño, requerimientos para fabricación, entre otros [2]. Basado en las 3 restricciones, una alternativa de implementación para prototipos es la FPGA, que tiene algunas ventajas como: rendimiento1, bajo precio en prototipos, fiabilidad y mantenimiento a largo plazo [37], el paralelismo intrínseco, implementación de hardware especializado, utilización de cores o subsistemas genéricos como Microcontroladores y controladores de periféricos y memoria distribuida; pero al igual se presentan algunas limitaciones como: el tamaño de la memoria interna, los retardos en la propagación interna y altos costo en producción en masa. Se han presentado trabajos previos con implementaciones de algoritmos en FPGA, donde ha recomendado estructuras para la implementación de algoritmos para el análisis de video en el área de detección de objetos, de forma general como se presenta en [35][36], e implementaciones de módulos relacionados con el presente trabajo pero limitadas a un solo objeto, como por ejemplo una sola mano [34] o realizando la detección sobre otras partes del cuerpo como la presentada en [35] que reconoce la cara y los labios. La estructura que se presenta en el actual trabajo está basada en la integración de dos tipos de diseño, que pueden ser implementados dentro de la FPGA; que son: el diseño de algoritmos directamente en hardware que realizan tareas específicas y el diseño de sistema de control dentro de un microprocesador embebido. Este tipo de plataformas donde se une la funcionalidad de un microprocesador embebido y bloques de hardware experto es actualmente muy usada, porque es un plataforma genérica que permite implementar gran cantidad de aplicaciones, y aprovecha las utilidades del microcontrolador y estructuras funcionales implementadas directamente en hardware, como son presentadas en [38], distribuyendo tareas para cada tipo de diseño según sus ventajas. Estas plataformas se han vuelto muy populares entre los diferentes fabricantes de circuitos electrónicos. Como por ejemplo: AT600 de Atmel, ColdFire de Motorola, Davinchi y el OMAP de Texas Instruments, ARM Cortex M1 y NIOS de ALTERA entre otros, Power Pc y MicroBlaze de XILINX. Los microcontroladores son primordialmente usados en aplicaciones orientadas al control, manejo de interrupciones, senseo y control de eventos externos. Los módulos funcionales diseñados directamente sobre hardware ejecutan tareas especificas, son tradicionalmente encontrados en sistemas que requieren: manejo de tareas intensivas, eficiencia en el procesamiento en cuanto a velocidad, tiempo de procesamiento, precisión en el análisis, y son muy usados en aplicaciones como el procesamiento Digital de señales y networking. 1 Rendimiento – Los FPGAs, tomando ventaja del paralelismo del hardware, exceden la potencia de cómputo de los procesadores digitales de señales (DSPs) rompiendo el paradigma de ejecución secuencial y logrando más en cada ciclo de reloj. BDTI, una destacada firma analista que realiza evaluaciones de referencia, lanzó evaluaciones mostrando cómo los FPGAs pueden entregar significativamente más potencia de procesamiento por dólar que una solución de DSP, en algunas aplicaciones.[37] 4 En este trabajo se propone, el diseño de un sistema para la detección y seguimiento de la cabeza y manos, implementado dentro de una FPGA, en un espacio bidimensional, bajo condiciones controladas de iluminación y fondo. 7 DESCRIPCIÓN En esta parte se realizará una descripción del sistema a implementar, luego se presentarán los objetivos generales y específicos, seguidos de una descripción de los bloques del sistema. El presente trabajo propone el diseño de un sistema basado en FPGA de detección y seguimiento de manos y cabezas de un sujeto bajo condiciones de luz y fondo controladas. El sistema será desarrollado por módulos o subsistemas que tendrán tareas especificas, y donde su metodología de implementación, está basada en el desarrollo de sistemas expertos diseñados directamente en hardware para las tareas de procesamiento de video, y el uso de cores genéricos para las tareas de manejo de periféricos, control y el sincronismo. El diseño está dividido en cuatro módulos: detección, seguimiento, pre-procesamiento y por último uno de control. 7.1 DESCRIPCIÓN DE SISTEMA Para estimar la posición actual de las manos y la cabeza, se realizan dos procesos, uno de detección que genere en primera instancia la ubicación preliminar de las manos y la cabeza, y otro de seguimiento que mantenga enganchada la ubicación de estas. El primer proceso realiza la detección, el cual identifica en la imagen, la cabeza y cada una de las manos, aprovechando las características de color, forma y ubicación; este algoritmo es pesado en el sentido que debe analizar la imagen completa, la selección del algoritmo a utilizar tendrá en cuenta los requerimientos de memoria, el costo computacional, el tiempo de proceso, y su eficiencia y su eficacia en lo relacionado a la probabilidad de éxito en la estimación de las posiciones de las partes del cuerpo en cuestión. El segundo proceso realizará el seguimiento, este puede requerir menor carga de memoria que el de detección y por ende mejorar la velocidad de respuesta, ya que este estará basado en una ventana o recuadro ubicado directamente en el sector donde se encuentren las manos, y las posibles ubicaciones donde se puede encontrar en el siguiente cuadro o frame. Este proceso, analizará la ubicación del centroide cada una de las manos para que a medida que la mano se mueva, pueda volver a centrar la ventana en dicho centroide. El sistema contará con dos estados generales, que son: enganche, que significa que la mano efectivamente esta dentro de la ventana y que la imagen que sigue es la correcta; y desenfoque, que significa que es necesario volver a generar un estado inicial ya que no se tiene la mano dentro de la ventana. Cada mano tendrá su propio bloque de seguimiento y el algoritmo será elegido dependiendo las características de su complejidad computacional, costo computacional, velocidad de respuesta, y eficiencia. La cabeza no tendrá un modulo de seguimiento propiamente dicho, ya que se basará únicamente en la información 5 generada por el bloque de detección ya que se espera que esta no se mueva tan rápido como las manos y sea suficiente con el proceso de detección. Un sistema de control será también diseñado, en el cual se mantendrá la información generada por los procesos de detección y seguimiento, y realizara el análisis para generar la proyección de la ubicación de las ventanas para el bloque de seguimiento, controlará los estados de enganche o desenfoque y tomará la decisión final de la ubicación estimada de las manos y la cabeza. Los procesos de detección y seguimiento se ejecutarán constantemente y en paralelo. El bloque de control analizará el resultado de ambos procesos y revisará constantemente que la ubicación sea coherente, y así disminuir la probabilidad de error. La arquitectura planteada, integra las funcionalidades de un microprocesador con módulos expertos, implementados directamente en hardware; donde el microcontrolador realizará el control y administración de periféricos, y los módulos expertos realizaran las tareas de procesamiento de video; lo que se busca es sacar la ventaja de ambos tipos de implementación, el microcontrolador permite implementar el sistema de control sacando ventaja del desarrollo en software, disminuye el tiempo de diseño de la implementación y adaptación de interfaces genéricas, como en este caso la generación y captura de video, y se aprovechan librerías creadas por los soportes del fabricante o plataforma de desarrollo; y con los módulos de detección y seguimiento, implementados directamente en hardware, se puede aprovechar las ventajas de la FPGA, como son el paralelismo en los procesos, y funciones corriendo directamente en hardware, que mejoran en el tiempo del proceso. 7.2 OBJETIVOS DEL TRABAJO Objetivo general • Desarrollar un sistema para la detección y seguimiento de manos y cabeza de un sujeto, en un medio controlado de luminancia y fondo, basado en una FPGA. Objetivos específicos • Desarrollar un algoritmo de detección de cabeza y manos de un sujeto bajo condiciones controladas de iluminación y fondo, usando las características de color, forma y ubicación, para ser implementado en VHDL. • Desarrollar un algoritmo de seguimiento de manos, usando submuestreo sobre la imagen y la secuencia entre imágenes, pasa ser implementado en VHDL. • Desarrollar un sistema de control para la integración y funcionamiento coherente entre los módulos de detección y seguimiento. • Implementación e integración de los módulos de seguimiento, detección y control basado en una FPGA. 6 7.3 DESCRIPCION DE LOS BLOQUES DEL SISTEMA Figure 1. Estructura en hardware del sistema de estimación de estimación. El sistema planteado esta divido en seis módulos generales. Así: Captura, el cual recibe la información de video compuesto y la almacena en memoria directamente, según los parámetros de configuración manejadas desde el Core de Microcontrolador. Características: Entradas: • Video compuesto PAL-B/G a 30fps. Salidas: • Bus de de datos y dirección para el modulo de pre-procesamiento. • Características de la información entregada según parámetros de configuración. o Esquema de colores o Zoom 7 o Velocidad de muestreo Pre procesamiento de la imagen, el cual realiza un pre-acondicionamiento de la señal de video, este modulo filtra la información solicitada por el modulo de control, y organiza la información en las memorias de los módulos de detección y seguimiento. Detección, está compuesto por dos bloques: uno de memoria y uno de detección. Este modulo debe reconocer la cabeza, la mano derecha y la mano izquierda aprovechando las características de color, forma y ubicación. Características: Entradas: • Información de video. Salidas: • Coordenadas de la cabeza • Coordenadas de la mano derecha • Coordenadas de la mano izquierda Seguimiento, contará con dos bloques: uno de memoria y uno de seguimiento. Este modulo se encargara de seguir la posición de las manos derecha e izquierda, independientemente; analizando el movimiento de patrones en una ventana que está centrada en la posición actual de mano; y que cubre la posición actual de la mano y los posibles lugares donde se encontrará en el siguiente cuadro de video. Características: Entradas: • Dos segmentos de la información de video, centrados en los últimos valores de las coordenadas de las manos, generadas por el modulo de control. Salidas: • Coordenadas de la mano derecha • Coordenadas de la mano izquierda Control, este recoge la información de coordenadas generadas por los módulos de detección y seguimiento, analiza la información recogida, mantiene el sincronismo en los procesos, controlar los estados de desenfoque y enganche, y entrega la el resultado de posición estimada. Características: Entradas: 8 • Coordenadas de la cabeza, la mano derecha y mano izquierda, entregadas por el modulo de detección. • Coordenadas de la cabeza, la mano derecha y mano izquierda, entregadas por el modulo de seguimiento. Salidas: • Coordenadas de la cabeza • Coordenadas de la mano derecha • Coordenadas de la mano izquierda • Señales de control (Sincronismo, estados de la FSM) Presentación, escribe la información en la memoria de video de los resultados obtenidos entregados por el modulo de Control, y presenta imágenes de procesos intermedios del proceso, para revisar los resultados de los módulos de detección y de seguimiento. La interface de video está basado en un controlador y un Core experto embebido dentro de la FPGA propio del sistema de desarrollo utilizado. Características: Entradas: • Coordenadas del centroide de la mano derecha e izquierda y cabeza. Salidas: • Bus de de datos para las memorias de los sistemas de detección y seguimiento. • Salida de video VGA o Resolución de salida 640 x 480. o Presentación de salida Boceto de Cabeza Boceto de derecha Boceto de ano izquierda Boceto del tronco, brazo y antebrazo. 9 Figure 2. Boceto de la presentación de salida del sistema. 7.4 FLUJO DEL PROCESO Figure 3. Flujo del proceso del sistema de detección y seguimiento. 7.5 LIMITACIONES El sistema trabaja con tomas de personas de frente, cubriendo desde la rodilla hasta un poco más arriba de la cabeza, donde se logre tomar el movimiento extendido de los brazos. Las tomas estarán entre los 3 y 7 metros de distancia; utilizando videos de interiores donde la iluminación y el fondo es controlado, la imagen utilizada es de 640x480 pixeles. 10 Figure 4. Ejemplo del escenario a utilizar en el presente trabajo. El sistema realizara detección de la cabeza y la mano derecha e izquierda, y seguimiento de las manos, ya que se asume que la cabeza no se mueve tan rápido como las manos. El sistema de detección y seguimiento trabajará a una frecuencia de por los menos 15 cuadros por segundo, y será comparada con la bibliografía presentada; donde se han desarrollado trabajos similares, y es posible encontrar similitudes, en los procesos realizados, la implementación y los resultados obtenidos. 8 METODOLOGÍA 8.1 DIAGRAMA DE FRUJO DEL PROCESO DE DISEÑO 11 Figure 5. Diagrama de flujo del proceso de diseño. 8.2 METODOLOGIA DE IMPLEMENTACION Este es un trabajo de profundización, donde se desea plantear una posible solución a la detección y seguimiento de manos y cabeza en un sistema basado en FPGA. La forma de validación de los resultados está basado en cumplir con los requerimientos mínimos y presentar un sistema con una tasa de error aceptable comparada con los trabajos actuales presentados en la bibliografía. El sistema será implementado en una FPGA SPRATAN 3 de XILINX de 1500 sistemas de compuertas, sobre una plataforma de ALTIUM DESIGNER NB2: utilizando un sistema de 2M bytes de memoria, un entrada de video PAL-B/G de 32 bits, y una salida de video VGA de 24bis, con una resolución de 320x240 que está centrada en la pantalla de resolución de 800x600. Los algoritmos estarán desarrollados en VHDL y en C según el modulo implementado. 12 El sistema se evalúa por medio de los recursos utilizados en cuanto a tiempo de los procesos, costo computacional, memoria, velocidad de respuesta, frecuencia de trabajo, y los resultados de la posición de las manos y la cabeza entregados, tomados directamente de la implementación. Los resultados de la posición de las manos y la cabeza entregada por el sistema, se evaluarán por medio de videos pregrabados guardados en una base de datos, donde previamente se estimo manualmente la posición correcta y se compare con la posición entregada por el sistema implementado. 13 9 ACTIVIDADES 9.1 LISTADO DE TAREAS Descripción de la tarea Duración Revisión y análisis de Bibliografía actual 60d Implementación de la interface de captura 5d Implementación de la interface de Presentación 5d Generación de la base de datos de video de personas 15d Análisis de tiempos y recursos disponibles 2d Selección y Análisis del algoritmo de detección 20d Selección y Análisis del algoritmo de seguimiento 20d Presentación del Proyecto (Documento) 3d Implementación del algoritmo de detección 15d Pruebas del modulo de detección 2d "Análisis de recursos utilizados (tiempo, costo comp) y resultados obtenidos" 1d Reajuste del modelo de detección 3d implementación del algoritmo de Seguimiento 10d Avance del Trabajo de Profundización (Documento) 1d Pruebas del modulo de detección y seguimiento 2d "Análisis de recursos utilizados (tiempo, costo comp) y resultados obtenidos" 1d Desarrollo e implementación del algoritmo de control 5d Pruebas de los modulo de detección y seguimiento con control 2d "Análisis de recursos utilizados (tiempo, costo comp) y resultados obtenidos" 3d 14 Reajuste del modelo 10d Análisis de resultados obtenidos 4d Entrega del Trabajo de Profundización (Documento) 5d VER: ANEXO 1 (Diagrama PERT). 10 CRONOGRAMA: VER: ANEXO 2 (Diagrama GANTT). 11 USUARIOS DIRECTOS Y FORMAS DE UTILIZACIÓN DE LOS RESULTADOS ESPERADOS En los sistemas actuales de interacción entre el hombre y la maquina, donde se busca que las maquina tomen decisiones o acciones, y sean lo más autónomas posibles, sin que el hombre ejerza una directa manipulación de la maquina; se hace casi indispensable que un sistema de detección y de seguimiento, de partes del cuerpo humano, se tenga en cuenta en su implementación [7]. El sistema de detección y seguimiento integrado con un sistema de decodificación de lenguaje, puede interpretar comandos, por lo cual abre un gran campo de aplicaciones en control de tráfico y sistemas de seguridad donde se usa el lenguaje corporal. En los sistemas actuales se considera que los sistemas de análisis de video, requieren gran costo computacional y capacidad de memoria, para ser implementados en dispositivos embebidos [15], por lo tanto si se logra desarrollar, deja una ventana abierta para que los nuevos productos que requieren procesamiento de video, como cámaras fotográficas, los cuales constantemente esta adicionando nuevas características a sus productos, puedan implementar este tipo de módulos. 12 POSIBLES EFECTOS Las contribuciones y posibles efectos se pueden revisar desde dos perspectivas distintas, ya que presenta una alternativa en la arquitectura y otra en la forma de realizar el proceso de detección y seguimiento. La arquitectura planteada, integra las funcionalidades de un microprocesador, con módulos implementados en directamente en hardware, sacando la 15 ventaja de los dos tipos de implementación. El planteado, es de forma tal que los sistemas de continuamente y en paralelo; y por medio de un información entre ambos procesos es coherente; disminuir la probabilidad de error. proceso de detección y seguimiento detección y seguimiento se ejecutan modulo de control, que analiza si la por lo tanto, esto puede ayudar a De igual manera se contribuye con la evolución normal de la tecnología en los sistemas de procesamiento de video, aportando nuevas alternativas, buscando procesos y sistemas más eficientes, y que consuman menos recursos. 13 DIFICULTADES PREVISIBLES RECURSOS DE LA FPGA Se podría presentar limitaciones con los recursos de hardware, como el numero de sistemas de compuerta, capacidad de memoria, o de velocidad respuesta del sistema; esto se podría superar incrementado o mejorando las características de la FPGA utilizada; sin embrago, se quiere mantener que el sistema sea implementado en un FPGA estándar, de bajo costo; y buscar superar las posibles limitaciones, por medio de mejorar la eficiencia en los algoritmos implementados dentro del sistema. TIEMPO DE DESARROLLO El trabajo propuesto está proyectado para llevarse a cabo en 4 meses, teniendo en cuenta todos los parámetros sugeridos en un manejo de proyectos de diseño de sistemas embebidos y de implementación en VHDL. Sin embargo, el recurso del personal de ingeniería, con horas dedicadas al proyecto, puede verse afectado por compromisos laborales y proyectos ya asumidos; dejando claro que la prioridad del presente trabajo es muy alta, y se tienen puntos de seguimiento y verificación donde se lleva los controles del proyecto. 14COSTO Y FUENTE DE FINANCIACIÓN 14.1 RECURSOS TECNICOS Hardware Computador Nanoboard 2 - ALTIUM DESIGNER Cámara de video Software Altium Designer Winter 09 14.2 GASTOS DE INGENIERÍA 16 Ingeniero electrónico (Tiempo x precio) 14.3 ENTIDAD QUE LO FINANCIA READIX COLOMBIA LTDA 15BIBLIOGRAFÍA Y FUENTES DE INFORMACIÓN [1] Human Motion Analysis: A Review, J. K. Aggarwal and Q. Cai, Computer and Vision Research Center, Department of Electrical and Computer Engineering, The University of Texas at Austin Austin, TX 78712, Tel: (5 12) 471- 1369, Fax: (512)471-5532 [2] Smart Cameras as Embedded Systems September 200, Volume 35, Issue 9, Sept. 2002 Page(s):48 - 53 , Digital Object Identifier 10.1109/MC.2002.1033027 [3] Tracking Human Motions for Security System Junzo Watada 1 & Zalili Binti Musaand [4] Análisis biomecánico del movimiento humano mediante técnica de visión artificial. Juan José Pantrigo Fernández ESCET-URJC. [5] Reconstruction of Articulated Objects from Point Correspondences, in a Single Uncalibrated Image Camillo J. T aylor GRASP Laboratory, CIS Department University of Pennsylvania Philadelphia, PA, 19104-6228. [6] Human Figure Control Software for Real-Virtual Application. 14-16 July 2004 Page(s):858 - 862 Digital Object Identifier 10.1109/IV.2004.1320241 [7] Real-time Human Mot ion Analysis and IK-based Human Figure Control, Yonemoto, S.; Arita, D.; Taniguchi, R.;7-8 Dec. 2000 Page(s):149 – 154, Digital Object Identifier 10.1109/HUMO.2000.897385 [8] Meyers, Michael. Mejora del Rendimiento Atlético: La Unión de la Ciencias del Deporte y del Entrenamiento . PubliCE Standard. 23/05/2005. Pid: 467. [9] Articulated body motion capture by annealed particle filtering, Deutscher, J.; Blake, A.; Reid, I.; Computer Vision and Pattern Recognition, 2000. Proceedings. IEEE Conference on, Volume 2, 13-15 June 2000 Page(s):126 - 133 vol.2 Digital Object Identifier 10.1109/CVPR.2000.854758. [10] Robust Face Detection and Hand Posture Recognition in Color Images for HumanMachine Interaction, Quebec City, QC, Canada, August 11-August 1, ISBN: 0-7695-1695-X [11] Skin Detection Using Color Pixel Classification with Application to Face Detection: A Comparative Study, Nallaperumal, K.; Ravi, S.; Babu, C.N.K.; Selvakumar, R.K.; Fred, A.L.; Seldev, C.; Vinsley, S.S.; Conference on Computational Intelligence and Multimedia Applications, 2007. International Conference on Volume 3, 13-15 Dec. 2007 Page(s):436 – 441 Digital Object Identifier 10.1109/ICCIMA.2007.208 [12] Real-Time Face Detection and Tracking for High Resolution Smart Camera System, Mustafah, Y. M.; Shan, T.; Azman, A. W.; Bigdeli, A.; Lovell, B. C.; Digital Image Computing Techniques and Applications, 9th Biennial Conference of the Australian Pattern Recognition Society on 3-5 Dec. 2007 Page(s):387 - 393 Digital Object Identifier 10.1109/DICTA.2007.4426823 [13] Real-time object tracking based on optical flow and active rays, Kalafatic, Z.; Ribaric, S.; Stanisavljevic, V.; Electrotechnical Conference, 2000. MELECON 2000. 10th Mediterranean 17 Volume 2, 2000 Page(s):542 10.1109/MELCON.2000.879990 - 545 vol.2 Digital Object Identifier [14] A face/object recognition system using FPGA implementation of coarse region segmentation, Nakano, T.; Morie, T.; Iwata, A.; SICE 2003 Annual Conference Volume 2, 4-6 Aug. 2003 Page(s):1552 - 1557 Vol.2 [15] Real-time face detection and lip feature extraction using field-programmable gate arrays, Nguyen, D.; Halupka, D.; Aarabi, P.; Sheikholeslami, A.; Systems, Man, and Cybernetics, Part B, IEEE Transactions on Volume 36, Issue 4, Aug. 2006 Page(s):902 - 912 Digital Object Identifier 10.1109/TSMCB.2005.862728 [16] Robust Object Recognition with Cortex-Like Mechanisms, Serre, T.; Wolf, L.; Bileschi, S.; Riesenhuber, M.; Poggio, T.; Pattern Analysis and Machine Intelligence, IEEE Transactions on Volume 29, Issue 3, March 2007 Page(s):411 - 426 Digital Object Identifier 10.1109/TPAMI.2007.56 [17] Low Cost Fpga-Based Highly Accurate Face Recognition System using Combined Wavelets with Subspace Methods, Shams, N.; Hosseini, I.; Sadri, M.S.; Azarnasab, E.; Image Processing, 2006 IEEE International Conference on 8-11 Oct. 2006 Page(s):2077 – 2080 Digital Object Identifier 10.1109/ICIP.2006.312922 [18] An FPGA implementation of a flexible, parallel image processing architecture suitable for embedded vision systems, McBader, S.; Lee, P.; Parallel and Distributed Processing Symposium, 2003. Proceedings. International 22-26 April 2003 Page(s):5 pp. Digital Object Identifier 10.1109/IPDPS.2003.1213415 [19] Two Hand Tracking Using Colour Statistical Model with the K-means Embedded Particle Filter for Hand Gesture Recognition, Ongkittikul, S.; Worrall, S.; Kondoz, A.;Computer Information Systems and Industrial Management Applications, 2008. CISIM '08. 7th 26-28 June 2008 Page(s):201 - 206 Digital Object Identifier 10.1109/CISIM.2008.19 [20] A humanoid robot that listens, speaks, sees and manipulates in human environments, Ee Sian Neo; Sakaguchi, T.; Yokoi, K.; Multisensor Fusion and Integration for Intelligent Systems, 2008. MFI 2008. IEEE International Conference on 20-22 Aug. 2008 Page(s):419 – 425 Digital Object Identifier 10.1109/MFI.2008.4648031 [21] REGULACIONES ARGENTINAS DE AVIACIÓN CIVIL (RAAC), http://www.cra.gov.ar/dta/ais/documentos/docs/58.pdf - Véase N° 36 - CAPITULO IV - Sección 2ª SEÑALES DE SOCORRO, URGENCIA Y SEGURIDAD [22] Comparison of hand segmentation methodologies for Hand gesture recognition, Lim Wei Howe,; Wong, Farrah; Chekima, Ali; Information Technology, 2008. ITSim 2008. International Symposium on Volume 2, 26-28 Aug. 2008 Page(s):1 – 7 Digital Object Identifier 10.1109/ITSIM.2008.4631669 [23] DRUIDE: a real-time system for robust multiple face detection, tracking and hand posture recognition in color video sequences, Terrillon, J.-C.; Pilpre, A.; Niwa, Y.; Yamamoto, K.; Pattern Recognition, 2004. ICPR 2004. Proceedings of the 17th International Conference on Volume 3, 23-26 Aug. 2004 Page(s):302 – 305 Vol.3 Digital Object Identifier 10.1109/ICPR.2004.1334527 [24] Face tracking and hand gesture recognition for human-robot interaction, Brethes, L.; Menezes, P.; Lerasle, F.; Hayet, J.; Robotics and Automation, 2004. Proceedings. ICRA ‘04. 2004 IEEE International Conference on Volume 2, Apr 26-May 1, 2004 Page(s):1901 – 1906 Vol.2 Digital Object Identifier 10.1109/ROBOT.2004.1308101 [25] Interval Fuzzy Rule-Based Hand Gesture Recognition, Callejas Bedregal, B.R.; Dimuro, G.P.; Rocha Costa, A.C.; Scientific Computing, Computer Arithmetic and Validated Numerics, 2006. SCAN 2006. 12th GAMM - IMACS International Symposium on 26-29 Sept. 2006 Page(s):12 – 12, Digital Object Identifier 10.1109/SCAN.2006.25 18 [26] Hand tracking and motion detection from the sequence of stereo color image frames, HeeSung Kim; Kurillo, G.; Bajcsy, R.; Industrial Technology, 2008. ICIT 2008. IEEE International Conference on 21-24 April 2008 Page(s):1 – 6 Digital Object Identifier 10.1109/ICIT.2008.4608702 [27] Homogeneity Based Background Subtraction for Robust Hand Pose Recognition : Focusing On the Digital Game Interface, YoungJoon Chai; DongHeon Jang; TaeYong Kim; Computer Graphics, Imaging and Visualisation, 2007. CGIV '07 14-17 Aug. 2007 Page(s):292 – 297 Digital Object Identifier 10.1109/CGIV.2007.47 [28] Locating hands in complex images using color analysis, Jung Soh; Ho-Sub Yoon; Min Wang; Byung-Woo Min; Systems, Man, and Cybernetics, 1997. 'Computational Cybernetics and Simulation'., 1997 IEEE International Conference on Volume 3, 12-15 Oct. 1997 Page(s):2142 2146 vol.3 Digital Object Identifier 10.1109/ICSMC.1997.635182 [29] On-premise skin color modeing method for vision-based hand tracking, Eunjin Koh; Jongho Won; Changseok Bae; Consumer Electronics, 2009. ISCE '09. IEEE 13th International Symposium on 25-28 May 2009 Page(s):908 – 909 Digital Object Identifier 10.1109/ISCE.2009.5156946 [30] Research of a Real-time Hand Tracking Algorithm, Haiting Zhai; Xiaojuan Wu; Hui Han; Neural Networks and Brain, 2005. ICNN&B '05. International Conference on Volume 2, 13-15 Oct. 2005 Page(s):1233 - 1235 Digital Object Identifier 10.1109/ICNNB.2005.1614835 [31] Robust hand tracking using a skin tone and depth joint probability model, Manders, C.; Farbiz, F.; Chong, J.H.; Tang, K.Y.; Chua, G.G.; Loke, M.H.; Yuan, M.L.; Automatic Face & Gesture Recognition, 2008. FG '08. 8th IEEE International Conference on 17-19 Sept. 2008 Page(s):1 - 6 Digital Object Identifier 10.1109/AFGR.2008.4813459 [32] Segmentation of the face and hands in sign language video sequences using color and motion cues, Habili, N.; Cheng Chew Lim; Moini, A.; Circuits and Systems for Video Technology, IEEE Transactions on Volume 14, Issue 8, Aug. 2004 Page(s):1086 - 1097 Digital Object Identifier 10.1109/TCSVT.2004.831970 [33] Segmenting hands of arbitrary color, Xiaojin Zhu; Jie Yang; Waibel, A.; Automatic Face and Gesture Recognition, 2000. Proceedings. Fourth IEEE International Conference on 28-30 March 2000 Page(s):446 - 453 Digital Object Identifier 10.1109/AFGR.2000.840673 [34] FPGA implementation of a neural network for a real-time hand tracking system, Krips, M.; Lammert, T.; Kummert, A.; Electronic Design, Test and Applications, 2002. Proceedings. The First IEEE International Workshop on 29-31 Jan. 2002 Page(s):313 – 317, Digital Object Identifier 10.1109/DELTA.2002.994637 [35] An FPGA implementation of a flexible, parallel image processing architecture suitable for embedded vision systems, McBader, S.; Lee, P.; Parallel and Distributed Processing Symposium, 2003. Proceedings. International 22-26 April 2003 Page(s):5 pp. Digital Object Identifier 10.1109/IPDPS.2003.1213415 [36] Hardware design of image recognition system based ARM and FPGA, Daode Zhang; Guangyou Yang; Jiangtao Zhang; Heng Gao; Industrial Electronics and Applications, 2008. ICIEA 2008. 3rd IEEE Conference on 3-5 June 2008 Page(s):635 - 638 Digital Object Identifier 10.1109/ICIEA.2008.4582592. [37] Una Introducción a la Tecnología FPGA: Los Cinco Beneficios Principales, National Instruments Tutorial, Publish Date: December 15, 2008. nota: 8259. http://zone.ni.com/devzone/cda/tut/p/id/8259. [38] DSP Acceleration Using a Reconfigurable Coprocessor FPGA. Aplication Note: DOC0724 http://www.atmel.com/dyn/resources/prod_documents/DOC0724.PDF 19 16OBSERVACIONES No hay observaciones pendientes. 20