MEDICINA CUANTICA

Las Emociones se Informatizan

by on Dic.02, 2013, under Fotografía, La Información, Psicología, Tecnología

kimiko yoshida 111

Crédito: Pinterest

«¿Podemos encontrar una manera más cómoda, intuitiva e inteligente de usar el ordenador? La respuesta sería afirmativa si logramos que el usuario se sienta como si estuviese hablando con un amigo…”.

Un científico de la Universidad estadounidense de Binghamton, Lijun Yin, ha creado una tecnología que aporta nuevas formas de proporcionar información al ordenador sobre dónde está mirando el usuario, cuáles son sus gestos o su discurso, señales visuales que pueden traducirse en órdenes para el ordenador.

Uno de los retos fundamentales en este ámbito es la visión por ordenador, es decir, cómo puede una simple cámara web funcionar igual que el ojo humano.

¿Puede una cámara entender un objeto del mundo real a través de los datos que captura?

Y si es así, ¿podría utilizarlos para «ver» al usuario y «entender» lo que éste desea hacer?

kimiko yoshida 8

Crédito: Pinterest

Hasta cierto punto, eso es ya posible, o al menos así lo atestigua el estudio dirigido por Yin, en el que el investigador consigue resaltar el contenido de varias diapositivas de una presentación en PowerPoint, usando únicamente sus ojos. Cuando Yin presentó esta tecnología a los expertos de la Fuerza Aérea estadounidense el año pasado, el único hardware que llevó consigo fue una cámara web conectada a un ordenador portátil.

Reconocimiento de emociones

Yin adelanta en el comunicado que el siguiente paso sería permitir que la computadora reconozca el estado emocional del usuario. Para lograrlo, el científico trabaja con un conjunto bien establecido de seis emociones básicas – la ira, el asco, el miedo, la alegría, la tristeza y la sorpresa – y está experimentando con diferentes maneras de permitir que el equipo pueda distinguir entre ellas.

Pero ante esta noticia es lógico que se sucedan un sinfín de preguntas.

Por ejemplo, si sería suficiente con los datos que aportan las líneas alrededor de los ojos para certificar un cambio de actitud o, si la respuesta es negativa, si podría la boca del usuario proporcionar las pistas suficientes para discernir entre una emoción y otra. ¿Qué ocurre si la cara del usuario es sólo parcialmente visible, si tal vez sólo se observa un perfil?

Ante tanta incertidumbre el profesor Yin recurre a los bits: “Los ordenadores sólo entienden de ceros y unos. Todo gira alrededor de los patrones. Queremos saber cómo reconocer cada emoción usando sólo las características más importantes».

kimiko yoshida 2

Crédito: Pinterest

Usos terapéuticos

Lijun Yin está asociado con el psicólogo de la Universidad de Binghamton, Peter Gerhardstein, para explorar la forma en la que este trabajo podría beneficiar a los niños con autismo. Muchos de los que sufren este trastorno tienen dificultades para interpretar las emociones de los demás. Los terapeutas a veces utilizan fotografías de personas para enseñar a los niños a entender cuando alguien está feliz o triste.

La investigación de Yin podría incluir no sólo fotografías, sino también avatares en tres dimensiones capaces de mostrar una amplia gama de emociones. Es más, incluso podría producir los avatares exactos de los familiares del niño para usarlos en este tipo de terapia.

Una colaboración previa entre Yin y Gerhardstein culminó con la creación de una base de datos en 3D de expresiones faciales, que incluye 100 pacientes con 2.500 modelos de estas demostraciones emocionales.

La base de datos ya está disponible de manera completamente libre y gratuita para la comunidad científica sin fines de lucro y se ha convertido en un banco de pruebas en todo el mundo para aquellos que trabajan en proyectos relacionados en ámbitos como la biomedicina, las leyes y la informática.

kimiko yoshida 1

Crédito: Pinterest

Próximos retos

Después de que Yin se interesase por la interacción entre el hombre y la máquina se plantea con mayor entusiasmo abordar las enormes posibilidades de la inteligencia artificial.

«No queremos únicamente crear un modelo de persona virtual, sino entender las emociones de una persona real y sus sentimientos. Queremos que el ordenador pueda comprender cómo se siente un ser humano y eso es aún más difícil que mis otros trabajos», confiesa Yin.

Imagine que un ordenador pudiese saber cuándo una persona está sufriendo. Algunos pueden recurrir a su doctor para que les ayude, pero otros, como los niños pequeños, por ejemplo, no pueden expresarse del mismo modo. El siguiente reto de Yin es desarrollar un algoritmo que permita que un ordenador sea capaz de determinar cuándo alguien está sufriendo basándose sólo en una fotografía.

kimiko yoshida 10

Crédito: Pinterest

Yin describe la aplicación de su investigación en el ámbito de la salud para, casi a renglón seguido, señalar que el mismo sistema que permita identificar el dolor también podría ser usado para determinar cuándo alguien está mintiendo.

«Esta tecnología», afirma, «nos podría ayudar a entrenar al ordenador para que realice análisis de reconocimiento facial en lugar de los expertos.»

Nota de la autora: Todas las fotografías pertenecen a la artista contemporánea Kimiko Yoshida, nacida en Tokyo en 1963. Vive en Paris desde 1995.  La fuerza de su experiencia deriva de los recuerdos de su niñez. «Huí de Japón, porque estaba muerta. Me refugié en Francia para escapar del luto. Salí de casa llevando una caja con todos mis tesoros. Me resguardé en un jardín público. La policía me encontró allí al día siguiente. Desde entonces, siempre me he sentido nómada, errante, fugitiva.» Su trabajo gira en torno a los autorretratos. Las fotografías de la entrada pertenecen a la serie «Cásate conmigo», que figura a una novia inspirada en los juegos de su infancia.

Gracias Elena Sáez Montenegro

Fuente:

Artículo de Tendencias 21

Web oficial de Kimiko Yoshida

:, , ,

3378 Comments for this entry