«Hay aplicaciones de reconocimiento de emociones con muchos usos positivos»

Foto: UOC
14/09/2017
Rubén Permuy
Àgata Lapedriza

 

Ágata Lapedriza es investigadora del grupo de investigación Scene Understanding and Artificial Intelligence LAB (SUNAI) de la UOC, experta en visión por computador ?especialmente en el reconocimiento de objetos y la interpretación de escenas?, aprendizaje artificial, computación afectiva y minería de datos. Como investigadora ha realizado varias estancias internacionales en el Massachusetts Institute of Technology (MIT) de Boston. Doctora en Informática, es profesora de los Estudios de Informática, Multimedia y Telecomunicación y directora del máster de Bioinformática y Bioestadística. Entre sus trabajos más recientes destacan su participación en el proyecto Places, desarrollado en el MIT, el cual consiste en la creación de una base de datos de gran escala para el reconocimiento automático de escenas y en el desarrollo de varios sistemas automáticos para el reconocimiento de escenas basados en Deep Learning. Actualmente trabaja en temas de reconocimiento de emociones y es profesora visitante en el grupo de investigación de computación afectiva del MIT Medialab.

 

¿Cuál ha sido tu formación y experiencia?

Estudié Matemáticas en la Universidad de Barcelona y después hice una tesis doctoral sobre informática en la Autónoma de Barcelona, en el ámbito de la inteligencia artificial (IA). En particular, mi tesis fue sobre visión por computador, que es la rama de la IA que intenta simular el sistema visual humano: intentamos hacer máquinas que puedan tener percepción visual, que puedan entender la información visual, las imágenes y los vídeos.

Formas parte del grupo de investigación SUNAI: ¿en qué consiste vuestra actividad?

SUNAI es el acrónimo de «Scene Understanding and Artificial Intelligence Lab». Lo que hacemos es visión por computador, reconocimiento y clasificación de imágenes. Somos cuatro doctores dirigiendo la investigación. Trabajamos en el reconocimiento de emociones, entre otras cosas. Con David Masip hemos estado trabajando en el reconocimiento de expresiones faciales y actualmente yo trabajo más en el reconocimiento de las escenas, en la interpretación de la escena global. En el grupo también está Carles Ventura, que trabaja en la segmentación semántica, que quiere decir detectar con precisión los diferentes objetos y las diferentes partes dentro de una escena. Y Xavier Baró, que hace reconocimiento de la postura corporal y los gestos. También trabaja un poco con caras y con interpretación de imágenes usando información de profundidad además de la imagen. Al final casi todo lo que hacemos está relacionado con reconocer qué hace la gente, cómo se siente y cómo se comporta.

Has podido realizar estancias en lugares referenciales como el MIT en Boston: ¿cómo valorarías tus experiencias internacionales?

En cuanto a investigación, lo que hice durante la tesis estaba más relacionado con el reconocimiento de las caras y su clasificación, pero poco a poco me fui interesando más por el reconocimiento global de la escena. En el Massachusetts Institute of Technology (MIT), en Boston, hay un grupo de reconocimiento e interpretación de escenas que es muy bueno. De hecho, son los pioneros, los que definieron, dentro de la visión por computador, el problema de reconocer la escena en general y cómo utilizar el contexto para entender cosas concretas de la escena. Contacté con ellos, habíamos coincidido en congresos, y pude hacer una visita, que inicialmente iba a ser de tres meses y se alargó hasta los tres años. Ha sido muy interesante. Ha sido una experiencia que me ha dado una perspectiva de la investigación muy diferente de la que tenía cuando no me había movido de aquí.

¿Hasta qué punto la investigación como la tuya necesita conocer experiencias de otras instituciones?

Creo que es importante en general colaborar con gente de fuera. En cualquier ámbito hay un experto que es el mejor y es poco probable que esté en tu ciudad. Si te quieres formar, si te interesa lo que sabe aquel experto, lo mejor que puedes hacer para aprender es ir a trabajar cerca de él.

¿Qué aplicaciones tiene actualmente el reconocimiento facial o de espacios?

Ya existen productos comerciales que utilizan el análisis de expresiones faciales para reconocer emociones. Hay empresas que desarrollan programas para el reconocimiento de expresión facial y para intentar reconocer emociones a partir de microexpresiones o de expresiones más explícitas. Su uso es múltiple. Desde empresas de marketing que analizan tu cara mientras ves publicidad y analizan tu expresión facial para saber cómo afecta la información que ves a tu emoción, hasta aplicaciones médicas para personas con autismo o Alzheimer, en que puede resultar útil la monitorización de la expresión facial ante un determinado estímulo para permitir hacer diagnóstico o seguimiento del paciente durante la enfermedad.

Eres una de las ganadoras del UOC Research Showcase 2017: ¿en qué consiste el trabajo que presentaste?

El trabajo que presenté al Research Showcase es un artículo de reconocimiento de emociones que se diferencia de otros trabajos anteriores porque analiza la imagen completa (la persona más su contexto) para hacer una estimación de los estados emocionales. Como he dicho, la tecnología que está más avanzada en cuanto al reconocimiento de emociones es el análisis de la expresión facial. Lo que nos planteamos en este proyecto es que, aunque está muy bien analizar la expresión de la cara porque transmite mucha información, el contexto es fundamental para entender bien los estados emocionales de las personas. De la misma forma que una frase entera da significado explícito a cada palabra, el contexto de la persona también da significado a lo que expresa con su cara. No puedes extraer solo la cara en una circunstancia normal y esperar entender perfectamente cómo se siente esa persona. Nosotros, los humanos, no lo hacemos así. Estamos intentando diseñar sistemas que modelen el contexto, entendiendo este como todo lo que rodea a una persona: lo que está haciendo, en qué postura está, qué objetos tiene cerca, en qué entorno está, si hay más gente o no cerca de él. Lo que hacemos es intentar extraer toda esa información, procesarla y utilizarla de manera complementaria a la expresión facial para poder estimar de forma más fiable el estado emocional de una persona.

¿Deberíamos preocuparnos del control de las emociones?

En general, cualquier adelanto tecnológico tiene unos potenciales usos positivos y negativos. Eso es inevitable. Está en nuestra responsabilidad hacer un buen uso de todo lo que desarrollamos. Yo pienso que no hay que frenar el progreso científico por los potenciales malos usos. Pero sí es nuestra responsabilidad utilizarlo correctamente. Y las tecnologías para reconocer, por ejemplo, los estados emocionales de la gente tienen muchísimas aplicaciones positivas, porque hay muchas aplicaciones en las que las máquinas necesitan interactuar con la gente o asistirla. Que puedan entender que la gente se siente de formas diferentes y que se puedan dirigir a las personas en función de su estado emocional creo que es muy importante.

¿Por qué es importante explicar a la sociedad la investigación que haces?

Es importante que la sociedad entienda por qué se hace investigación, en qué se hace y por qué es útil. Al final, el objetivo de los investigadores es progresar, descubrir e inventar cosas nuevas, y todos esperamos prestar de alguna forma un servicio a la sociedad. Me satisface que la gente pueda entender de qué sirve lo que hacemos y por qué invertimos tiempo en una determinada cosa y no en otra.

¿Nos recomiendas algún libro sobre tu ámbito?

Lo que hago está relacionado con el sistema perceptual. Los que hacemos visión lo que hacemos son máquinas que interpreten este mundo. Relacionado con la percepción hay un libro que se llama Blink, de Malcolm Gladwell, sobre nuestra percepción y cómo los procesos no conscientes afectan a nuestras reacciones, los juicios y las decisiones que tomamos.