EmoNet, un modelo de red neuronal, pudo emparejar con precisión imágenes con 11 categorías de emociones.

MVS

CALIFORNIA. La inteligencia artificial podría algún día comunicar nuestras emociones de una manera más eficiente de lo que nosotros mismos hacemos. EmoNet, un modelo neuronal desarrollado por investigadores de la Universidad de Colorado y la Universidad de Duke, fue capaz de clasificar con precisión las imágenes en 11 categorías diferentes de emociones.

Una red neuronal es un modelo de computadora que aprende a mapear señales de entrada a una salida de interés luego de aprender una serie de filtros, explica Philip Kragel, uno de los investigadores detrás del estudio. Por ejemplo, una red capacitada para detectar plátanos podrá aprender características únicas de esas frutas, como su forma y color.

EmoNet fue desarrollada usando una base de datos de 2,185 videos que simularon 27 categorías distintas de emociones, que iban desde ansiedad e interés hasta incluso tristeza y sorpresa.

Si bien el modelo fue capaz de diferenciar imágenes relacionadas con “antojo”, “deseo sexual” y “horror” a intervalos de “alta confianza”, no fue tan eficaz al detectar emociones como “confusión”, “asombro” y “sorpresa” que se consideraron emociones más abstractas. La red neuronal utilizó el color, los espectros de poder espacial, así como la presencia de objetos y caras en las imágenes para clasificarlos. Los hallazgos fueron publicados en la revista Science Advances a finales de julio.

Además de las nuevas formas de medir las emociones, el equipo de investigación agrega que la IA podría ayudar a eliminar las etiquetas en torno a la salud mental.

“Al alejarnos de etiquetas subjetivas como ‘ansiedad’ y ‘depresión’ y movernos hacia procesos cerebrales podría conducir en cambio a nuevos objetivos para terapias, tratamientos e intervenciones”,

No hay comentarios

Dejar respuesta

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.