En el siguiente artículo se intenta realizar una aproximación a las emociones en el contexto de la inteligencia artificial. Simular las emociones para aportar una visión del contexto que rodea al sistema y desembocar en una toma de decisiones adecuada. También daremos una pequeña pincelada sobre el estado actual de la IA asociada a las emociones, y del futuro de la misma.
Inteligencia Artificial. Contexto
La primera mitad del siglo XX se caracteriza por una serie de acontecimientos históricos que marcaron el desarrollo de la humanidad: La Gran Guerra, el “Crack del ‘29” y la Guerra Civil Española como preámbulo de lo que vendría después, la 2ª Guerra Mundial. Sin embargo, también se caracteriza por una evolución de la técnica sin precedentes: John Von Neumann, Robert Oppenheimmer o Alan Turing (entre muchos otros científicos), a caballo entre Princeton, Los Álamos y Massachusetts, desarrollaron las bases de la computación, disciplina que un día nos permitiría realizar cálculos complejos, hablar con cualquier parte del mundo, e incluso explorar el cosmos.
Es en estos comienzos cuando tan grandes mentes se plantearon la imitación de la vida misma. El biólogo Nils A. Barrichelli, en 1953, afirmó estar realizando experimentos que podrían verificar si algo similar a la evolución podría suceder en un universo artificial. Y es precisamente la evolución la que nos ha proporcionado las dos cualidades que son objeto de este estudio: la emoción y la razón.
Introducción
Si buscamos en la RAE la definición de la palabra inteligencia, podemos observar que ésta es, aproximadamente, la capacidad de conocer un entorno o un problema, que en base a la comprensión o al entendimiento, a una habilidad, una destreza o la experiencia, nos permite desarrollarnos. Es el método por el cual el individuo, conjunto o programa se desenvuelve en el entorno, la forma de interactuar con los individuos que participan de dicho entorno, e incluso el sentido o propósito de dichas interacciones. La inteligencia también es algo que escapa a las explicaciones que puedan aportar las ecuaciones matemáticas, la realidad física o material, pues la inteligencia, según la séptima definición de la RAE es una “sustancia puramente espiritual”. Distinguida academia realiza, además, dos apreciaciones al concepto de inteligencia: la inteligencia artificial, que según afirma es la “disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”; y la definición de inteligencia emocional, que es la “capacidad de percibir y controlar los propios sentimientos y saber interpretar los de los demás.”
Por tanto, podríamos definir como inteligencia artificial emocional al programa informático capaz de sentir y actuar como lo haría un ser humano, es decir: saber comprender y relacionarse, en diferentes grados de cercanía, empatía y espiritualidad, consigo mismo y con cada uno de los individuos y elementos que forman parte del entorno al que pertenece. Un ordenador capaz de pensar y sentir. En la actualidad, desde un punto de vista psicológico, el pensamiento racional y el pensamiento emocional son capacidades indisolubles.
Las emociones se encuentran en el seno de quienes somos, también parecen tener su propio orden del día, que normalmente se cumple sin tener en cuenta nuestra participación voluntaria. (LeDoux, 1999)
Un sistema, dos autoridades de control: una autoridad racional y una autoridad emocional. Ambas, con la capacidad de sobreponerse a su compañera de gobierno, aun cuando los resultados esperados de tal decisión no sean los adecuados, o beneficiosos para el sistema. En el mundo de la informática estaríamos hablando de un solo sistema hardware controlado por dos sistemas operativos con un control absoluto y simultaneo del mismo.
¿Qué son las emociones y como se relacionan con la IA?
I propose to consider the question, ‘Can machines think?’ This should begin with definitions of the meaning of the terms ‘machine’ and ‘think.’ (Turing, 1950)
En su artículo “Emociones positivas”, la profesora Vecina Jiménez nos da una aproximación a la definición de las emociones: “son tendencias de respuesta con un gran valor adaptativo, que tienen evidentes manifestaciones a nivel fisiológico[…], en el procesamiento de la información, etc., que son intensas pero breves en el tiempo y que surgen ante la evaluación de algún acontecimiento antecedente.” (Vecina Jimenez, 2006) Estos antecedentes en los que se basa la respuesta emocional son originados a partir de las diferencias conductuales: las reacciones instintivas y las aprendidas o adquiridas. Existen grandes diferencias entre las dos, pues la primera es una reacción evolutiva, en la que podemos englobar las respuestas de supervivencia (huir ante el ataque de un depredador); mientras que las aprendidas podemos englobar las respuestas sociales (sonreír ante un evento concreto).
En dicho artículo se afirma que las emociones tienen una residencia física en los organismos biológicos, localizada en el sistema límbico, y gestionada por la amígdala. Es decir, existe un núcleo de control y gestión de las emociones. Si nos atenemos a las acepciones de la RAE para la pregunta formulada por Turing y que da entrada a este apartado, una máquina que piense debe de ser un conjunto de elementos inseparables, un todo, capaz de formar y comprender ideas y representaciones de la realidad en su mente y realizar asociaciones entre ellas. Podemos concluir que una máquina que no solo piense, sino que también se guie por las emociones, debería de poseer un núcleo de generación y gestión de “ideas”, y otro para las “emociones”.
Las emociones sintéticas
We have created a class of numbers which are able to reproduce and undergo hereditary changes” (Barricelli, 1962)
Una recreación artificial de algo tan inmaterial como resultan ser las emociones no es cuestión baladí. Debemos de ser capaces de inducir las propiedades genéricas para cualquier emoción y distinguirlo de aquello que no lo es. Por ejemplo, dos personas saltando. Una de ellas puede estar escapando de un peligro mientras que la otra persona está jugando a la comba. La primera persona ha actuado de forma instintiva. Tras analizar su contexto, se ha detectado un peligro, momento en que se genera una emoción (miedo/pánico) que provoca una sensación, una reacción fisiológica y que desencadena una acción automática: saltar para esquivar el peligro. Durante este proceso, el individuo ha dejado a un lado sus objetivos a corto y largo plazo, sustituyéndolos por un objetivo de mucha mayor importancia, la supervivencia.
La segunda persona actúa de forma aprendida: saltar a la comba con sus amigas le provoca una emoción (alegría) que desencadena una sensación y permite de una forma no automatizada (no obligatoria) que la persona se divierta y siga saltando. Durante este proceso, la persona cumple en todo momento su objetivo a corto plazo, divertirse, mientras que un objetivo tan primordial como la supervivencia no se tiene en cuenta, pues no está amenazado su cumplimiento. Es decir, el estado emocional en que se encuentra el individuo viene determinado por los estímulos que percibe de su contexto e influye de manera dramática en la escala de objetivos de este. Por tanto, las emociones son un factor determinante en la toma de decisiones.
Las emociones y la toma de decisiones
The heart has its reasons of which reason knows nothing. (Pascal)
Como reza la cita de Pascal, nuestras decisiones no han de responder a un proceso de razonamiento puro. Nuestra capacidad emotiva es capaz de sobreponerse a la capacidad discursiva y llevarnos a realizar acciones que conducen a un estado negativo para el individuo. Es decir, somos capaces de realizar acciones claramente perjudiciales para nuestros objetivos de alto nivel, pero que aun así efectuamos anteponiendo la emoción a la razón. De la misma manera, en ciertas ocasiones, la razón es capaz de sobreponerse a la emoción. Imaginemos que un individuo contempla como un ser querido comete un asesinato. Las diferencias de contexto en el que ese individuo aprendió le llevarán al siguiente dilema: denunciarlo u ocultarlo. Ambas decisiones estarán precedidas por la emoción pertinente, que provocará una sensación determinada, y que desencadenará una acción (obligatoria o no), sin embargo el resultado dependerá de si se sobrepone la razón o la emoción.
Si la autoridad decisiva es la razón, dicha persona denunciará a pesar de que este acto le perjudique emocionalmente al ser separado de su ser querido. Si por el contrario, la autoridad es la emoción y decide ocultarlo por amor, a pesar de que la razón le diga que dicho acto debe denunciarlo, el temor a perder a la otra persona se superpondrá al temor a perder la propia libertad.
Capturando las emociones
Could a machine think?’ The answer is, obviously, yes. We are precisely such machines. ‘Yes, but could an artifact, a man-made machine think?” (Searle, 2003)
El filósofo John R. Searle va más allá. Contesta claramente a la pregunta de Turing desde un punto de vista filosófico, y además, ofrece una matización, la cual es clave en nuestro tema. La respuesta no es sencilla. Normalmente se definen dos sistemas de interacción con una máquina: hombre-máquina, y máquina-máquina. Sin embargo, para nuestro tema de estudio, debemos de formalizar una subdivisión de este último, un sistema de interacción reflexivo, en el que la máquina interactúa consigo misma. Debido a que el pensamiento no se puede segregar de la emoción, para que una máquina sea capaz de pensar, en el sentido humano de la palabra, debe ser capaz de desarrollar emociones y sentimientos. Podemos diferenciar entre máquinas que interpretan emociones, y máquinas que se emocionan. Contestando a Turing y Searle, podríamos decir que una máquina capaz de pensar debe de tener capacidad de sentir.
En la actualidad disponemos de los elementos que nos permiten capturar, por ejemplo, el calor, la presión o el color. Establecidos unos límites, por ejemplo, presión antes de romperse un objeto, podemos desarrollar una máquina que al detectar un exceso de presión en un componente, esta se aparte para evitar el riesgo de rotura. Pero, esto no quiere decir que la máquina sea capaz de sentir el “miedo a romperse”, sino que la máquina está configurada para actuar de dicha manera. No es una actuación en base a una emoción propia con un sentimiento asociado, sino que es una reacción meramente programática.
Podría ser asociado a una actuación instintiva. Sin embargo, ¿cómo podríamos programar una sonrisa generada por la primera palabra pronunciada por un bebé? En este contexto, influyen los sentimientos: somos capaces de percibir el sonido con nuestros sensores biológicos para tal efecto, y tras evaluar el contexto, la amígdala provoca una emoción de alegría, asociado a un sentimiento de satisfacción/plenitud… y que provoca una respuesta fisiológica y una actuación, sonreír y agasajar al bebé.
La socialización de la máquina
La parte que es estable vamos a predecirla. Y la parte que no es estable vamos a controlarla” (Von Neumann, 1948)
La ciencia ficción ha contribuido en gran medida a generar las expectativas que hoy tenemos de una inteligencia artificial. En la actualidad contemplamos el desarrollo de la robótica como máxima representación de las capacidades que puede aportar, enfocada o no a las emociones. Diferentes trabajos, como el desarrollado por Aldebaran Robotics llamado Nao, simulan el desarrollo de emociones, e incluso formar lazos afectivos con humanos. Otros robots, orientados a la asistencia, como Maggie de la universidad Carlos III de Madrid, permiten una interacción hombre-máquina asistencial gracias al reconocimiento, tanto de caras como de voces, y a la información que obtiene de internet.
Lejos queda todavía los robots propuestos por el cine, como Chappie (‘Chappie’, 2015) o Sony (‘I, robot’, 2004), capaces de una interacción humana tan real que la empatía producida en los humanos supera a la realidad robótica del ser.
La singularidad
Como resultado, la química dio lugar a la biología. (Kurzweil, 2011)
El inventor y científico Raymond Kurzweil es conocido por ser un visionario, especialista en inteligencia artificial, que dijo que para 2045 se dará el evento al que llamamos la singularidad. El momento en el que la evolución de la tecnología producirá un cambio irreversible en la vida humana. Predice que la potencia de cálculo y almacenamiento será tal que podremos descargar nuestra mente en la nube y cargarla en un ordenador; lo que difuminará de una manera sustancial las emociones simuladas de las reales, pues ambas podrán codificarse en una secuencia binaria.
Conclusiones
Poner neo córtex adicional en la frente fue una importante innovación evolutiva, pero ahora no puede ampliar fácilmente su tamaño [..], pero eso es exactamente lo que vamos a hacer tecnológicamente (Kurzweil, 2011).
La inteligencia artificial emocional se nutre de diversas disciplinas como la computación, la filosofía, la psicología… No es posible construir una máquina capaz de sentir si antes no tenemos una base sólida de conocimientos integrada por las diferentes disciplinas. El proceso por el cual se generan las emociones y estas influyen en la conducta humana y en la toma de decisiones se ve afectado de tal manera por su contexto que es imposible programar la infinidad de variantes existentes, por lo que parece lógico que los sistemas encargados de simular emociones aprendan a desarrollarlas ellos mismos.
En la actualidad se están llevando a cabo diversos trabajos en el mundo de la inteligencia artificial enfocada a las emociones. Algunos de estos trabajos se orientan a la interpretación de las necesidades humanas en base a sus emociones y requerimientos, y otros trabajos se centran más en la interpretación y evolución de las emociones. Ambos caminos parecen transcurrir paralelos. Sin embargo, ninguna máquina que pretenda ser una emulación de un ser emocional podrá considerarse tal si el proceso por el cual realiza la toma de decisiones a partir de la información proporcionada por su contexto no es influido por emociones sintéticas propias.
Para que la predicción de Kurzweil sea correcta, debemos de ser capaces de construir una máquina que sea capaz de razonar y sentir sus propias emociones. Como afirma el personaje cinematográfico John Oldman (‘The man from Earth’, Jerome Bixby, 2007), “aprender a tratar de sintetizar mi experiencia en una mirada de mí mismo”.
Hoy en día existe un concurso anual en el cual se evalúan programas en base a la prueba de Turing. Ya ha habido un agente inteligente que ha sido capaz de superar esta prueba, simulando ser un niño de 13 años, por lo que se le presuponían que ciertas respuestas eran debidas a la edad y no al hecho de ser un ente biológico o una máquina. ¿Es capaz de expresar un niño de 13 años como se siente? Ésto demuestra que superar la prueba de Turing se puede realizar empleando para ello ciertas salidas, más o menos satisfactorias. Pero un examen avanzado de Turing, digamos, una persona frete a una máquina con apariencia humana, y que tenga que averiguar si la máquina está controlada por un ser humano o una persona. Presuponiendo inteligencia, debería de ser capaz de contestar a la pregunta: ¿Cómo se siente usted? Aun así, para contestar a esta pregunta, nos basamos en nuestras propias emociones.
Bibliografía
- Barricelli, N. A. (1962). Numerical testing of evolution theories.
- Casacuberta, D., & Vallverdú, J. (s.f.). Emociones sintéticas.
- Kurzweil, R. (2011). How to build a brain.
- Laureano-Cruces , A. L. (2006). Emociones sintéticas y avatars.
- Laureano-Cruces, A. L., Cabrera-Lopez, J. E., & Mora-Torres, M. (2009). Simulando el camino de las emociones.
- LeDoux, J. (1999). El cerebro emocional (The emotional brain). Planeta.
- Melville, H. (1851). Moby-Dick.
- Ruzafa Costas, F. M. (2016). Emociones en robots sociales.
- San-Moreno, C., Lutfi, S., Barra-Chicote, R., Lucas, J., & Montero, J. (2009). Desarrollo de un asistente domótico emocional inteligente.
- Searle, J. R. (2003). Minds, brains, and programs.
- Turing, A. M. (1950). Computing Machinery and Intelligence.
- Vallverdú i Segura, J. (2007). ¿Por qué motivos crearemos máquinas emocionales?
- Vecina Jimenez, M. L. (2006). Emociones positivas. Papeles del psicólogo.