VIDEO RELACIONADO - Leyendas de la música "resucitan" gracias a la inteligencia artificial (02:28)
{"multiple":false,"video":{"key":"oVTToiftHj","duration":"00:02:28","type":"video","download":""}}

Durante décadas, los científicos han intentado codificar las expresiones faciales vinculadas a las diferentes emociones, sin embargo, para Kate Crawford, investigadora de Microsoft y la Universidad de Southern California Annenberg (USC Annenberg), el gran desafío es la construcción de un algoritmo capaz de detectar las emociones de una persona es ignorar las diferencias culturales y otros factores importantes.

En un segmento de su libro “Atlas of IA: Power, Politics and the Planetary Cost of Artificial Intelligence“, Crawford expone la complicada y defectuosa historia de los científicos que han intentado vincular las emociones con movimientos faciales específicos, y cómo los algoritmos de IA intentar replicar esto, pero se encuentran condenados al fracaso.

Lee también: Científico jefe de la Fuerza Espacial de EE.UU. indicó que llegó el momento para desarrollar supersoldados

En repetidas oportunidades los investigadores han intentado crear imágenes idealizadas de personas realizando expresiones correspondiente a diferentes emociones en específico.

Sin embargo, debido a las coincidencias de fotografías solo se vinculaba con una cultura, descartando a las otras. De esa manera, Crawford indica que entrenar a un algoritmo para hacer este ejercicio parece un ejercicio inútil. 

Por ejemplo, existe el algoritmo de detección de expresiones faciales implementado por la Administración de Seguridad en el Transporte (SPOT) de Estado Unidos, el cual se desalojó para detectar de forma automática a los terroristas. 

Lee también: No importaron las quejas: SpaceX recibió aprobación para instalar sus satélites Starlink en órbitas más bajas

Esto tras el miedo, estrés y engaño que crecía en la población luego del atentado del 11 de septiembre. Sin embargo, explica que pese a haber gastado unos $900 millones de dólares, aún no existe evidencia de que alguna vez funcionara.

“Este es el peligro de automatizar el reconocimiento de emociones. Estas herramientas pueden llevarnos de regreso al pasado frenológico, cuando se usaban afirmaciones falsas para respaldar los sistemas de poder existentes”, agregó la investigadora de Microsoft. 

Detalla que las emociones son complicadas, ya que se desarrollan y cambian en relación con las culturas e historias de cada ser humano, lo que representa “contextos múltiples que viven fuera del marco de la IA”.

Tags:

Deja tu comentario


Estreno

Martes / 22:30 / CNN Chile