Cuando las máquinas saben lo que sientes…

inteligencia

Y continúo con el hype más de moda de este 2017. Sí, a mí también me ha dado por hablar de Inteligencia Artificial y todo lo que puede hacer. Qué se le va a hacer? Soy human ay me dejo llevar por las modas.

Si ya hemos hablado con un Vicealmirante que nos contaba que no podemos permitir que las máquinas creen otras máquinas ni les podemos otorgar la capacidad de decisión sobre una vida humana, todo esto podría cambiar si evoluciona la Inteligencia Artificial hacia un aspecto más…cómo lo diría… emocional.

Y es aquí donde nos encontramos un artículo When Machines Know How You’re Feeling: The Rise Of Affective Computing de, cómo no, Forbes. Aquí se nos habla de la evolución del lenguaje, de su procesamiento y evolución hacia el entendimiento de las emociones. Si recordamos el podcast a Paloma Martínez, en él nos decía que aún queda mucho para que se pueda mantener una conversación con una máquina o que pueda inferir en cómo comunicarse con nosotros. Y sí, parece de ciencia ficción, pero las máquinas están cada vez más cerca de entender las emociones.

El uso de bots nos permitirá ser capaces de saber si un cliente está obteniendo la ayuda requerida, y lo más importante, nos cuenta cómo ha sido esa ayuda y si se ha resuelto de manera satisfactoria. La tecnología ya nos permite analizar la voz de un cliente y saber si está intentando cometer fraude, como por ejemplo en una conversación telefónica con el SAC de una aseguradora.

Y es aquí donde nos encontramos con IBM y su Watson, que ha desarrollado ‘Tone Analyzer’ que, al parecer, es capaz de detectar el sarcasmo entre otra gran cantidad de emociones oculta entre las líneas escritas. De hecho tienen una API –Emotion Analytisis- que permite entender la emoción de las personas con las que está chateando.

Si bien queda muy lejos que estas máquinas sean capaces de superar el TEST de Turing, entendida como su capacidad para pensar como humanos incluido el  aspecto más filosófico de éste, parece ser que no andamos tan desencaminados si empiezan a ser capaces de distinguir emociones.

Vale, no creo que estemos ante una “Ex Máquina” o un “Yo, Robot”, que plantean aspectos demasiado  humanos como la venganza, el miedo a morir y las preguntas existenciales que todos nos hemos hecho alguna vez, si no que estamos en un momento en el que, el perfeccionamiento de los diversos algoritmos relacionados con el lenguaje, empiezan a despuntar.

Este campo se llama Computación Afectiva y se define como el estudio y desarrollo de sistemas y dispositivos que puedan reconocer, interpretar, procesar y simular experiencias humanas, sentimientos o emociones. Ahí es nada.

¿Pero cómo es posible? Pues gracias al famoso Deep learning, ya que de los algoritmos que requieren el reconocimiento facial, la detección de discursos emocionales, reconocimiento de comunicación no verbal, etc son demasiado complejos para ello. El sistema, lo que hace es comparar todos estos datos (cómo interactúa una persona) para aprender a hacer juicios sobre las emociones de las personas.

“Venga, va. ¿Y el ordenador es capaz de interpretar las emociones?” Pues parece ser que sí, porque ya se ha creado un sistema que indica que es capaz de reconocer 21 expresiones faciales y es mucho más preciso adivinando qué siente una persona que las propias personas.

A mí todo esto me recuerda a Futurama y Bender, el robot que todos querríamos tener como amigo….

Ojo al dato, señores…

Comments are closed.