Ante el desafío tecnológico que representa la animación digital de las expresiones del rostro en el campo de la animación, estudiantes del Instituto Politécnico Nacional (IPN) crearon un sistema mecatrónico capaz de capturar, analizar y representar gestos faciales en un entorno tridimensional (3D) de manera automática.
Los politécnicos consideraron que, aunque se han logrado avances en la automatización y ajuste de los movimientos faciales en la animación, aún existen limitaciones, por lo que es necesario realizar correcciones manuales de las expresiones en modelos 3D. Además, estos sistemas suelen ser muy costosos y requieren más tiempo para su realización.
El proyecto se ajusta a la visión de la presidenta Claudia Sheinbaum Pardo de establecer la ciencia y la tecnología como pilares fundamentales de su gobierno en materia educativa, con un enfoque de soberanía tecnológica, como también lo plantea el secretario de Educación Pública, Mario Delgado Carrillo.
Los alumnos Aleks Adrian Calderón Vázquez, Alejandro Campos Arroyo y Daniel Cruz Ramírez, de la Unidad Profesional Interdisciplinaria en Ingeniería y Tecnologías Avanzadas (UPIITA), adaptaron una cámara de profundidad a una diadema dirigida al rostro, con la finalidad de capturar las expresiones faciales en tres dimensiones.
“Estos datos se transfieren a un algoritmo de aprendizaje de Inteligencia Artificial en una computadora para su procesamiento mediante una aplicación de diseño que permita plasmar los gestos en un modelo facial”, detalló Aleks Calderón.
El estudiante explicó que, para lograr el adecuado funcionamiento del sistema, se utiliza un software de código abierto con el fin de programar los diferentes módulos. La finalidad es integrar los datos provenientes de la visión de la cámara al modelo tridimensional.
Con la asesoría de los docentes Erick Huitrón Ramírez, David Abraham Morales Enríquez y José Luis Cruz Mora, de la UPIITA, los jóvenes politécnicos utilizaron un algoritmo de aprendizaje (red neuronal) para identificar regiones específicas del rostro, como ojos, párpados, cejas y boca.
“Entrenamos al algoritmo con nuestros propios rostros, pero también utilizamos una base de datos muy extensa de una biblioteca de visión artificial de Google, la cual contiene una gran cantidad de facciones captadas con cámaras de profundidad”, indicó Alejandro Campos.
Con esos datos, añadió, se pudo crear una especie de malla que se transfiere al rostro de un modelo en tercera dimensión (3D), diseñado con anterioridad, para que replique los movimientos y gestos de la cara humana en tiempo real. Esta imagen puede guardarse para que el modelo ya cuente con esa animación.
“Pudimos aprovechar nuestros conocimientos y las nuevas tecnologías como herramientas para realizar todo lo que implica el llamado rigging, que consiste en la configuración de un esqueleto interno que permite un correcto manejo de gesticulaciones y el ajuste de valores técnicos para lograr expresiones congruentes”, resaltó Daniel Cruz.
Los jóvenes politécnicos, quienes desarrollaron el “Sistema de identificación de gestos para modelos faciales tridimensionales” en el Laboratorio de Realidad Extendida de la UPIITA para titularse como ingenieros mecatrónicos, expresaron que este proyecto puede utilizarse en la animación digital o en los videojuegos. Incluso podría adaptarse en los autos para vigilar los gestos de un conductor y emitir una alerta en caso de detectar cansancio o sueño.

