Cuando leemos sobre inteligencia artificial solemos centrarnos en lo que produce en términos de eficiencia, productividad o entretenimiento, pero pocas veces nos detenemos a pensar en algo tan humano como las emociones. El libro Automating Empathy de Andrew McStay hace reflexionar sobre qué ocurre cuando tratamos de traducir lo emocional en datos, como si se tratara de una tabla con métricas que podemos analizar sin más. Esa operación de simplificación tiene consecuencias que van mucho más allá de la técnica, porque afecta a la manera en que entendemos lo humano y lo social.
McStay llama a este fenómeno empatía automatizada, un término que engloba desde el emotion AI hasta la computación afectiva y los medios empáticos. El autor nos recuerda que estas tecnologías parten de correlaciones fisiológicas como la voz, el rostro o el pulso, pero olvidan que la emoción no es solo biología sino también contexto social. De hecho, en sus palabras, “el problema clave es que, aunque la fisiología y la emoción están conectadas, no son lo mismo: la emoción tiene cualidades sociales además de fisiológicas”. Y esa diferencia es fundamental, porque cuando se confunden ambos planos corremos el riesgo de perder la riqueza que aporta la diversidad de experiencias emocionales.
El libro recorre distintos ámbitos donde ya se aplica esta lógica. En educación, por ejemplo, se están implantando sistemas que monitorizan la atención del alumnado a través de cámaras y sensores. China es el caso más comentado y McStay lo resume de forma clara al decir que “la experiencia de China con el perfilado emocional y la empatía automatizada en las aulas es instructiva para el resto del mundo, especialmente dado que los estudiantes fingen interés y actúan para obtener métricas recompensadas”. Aquí se pone de manifiesto una paradoja que todos reconocemos, porque ¿quién no ha fingido atención en una clase para salir del paso? La diferencia es que ahora esa actuación queda registrada en un sistema que otorga o quita recompensas.
Algo similar sucede en el trabajo. Los algoritmos que miden la empatía en un call center exigen a los empleados sobreactuar sus emociones para cumplir con las métricas de rendimiento. Es lo que McStay describe como un juego empático sombrío en el que las personas terminan adaptando su comportamiento no a las necesidades reales de los clientes, sino a lo que el software espera de ellas. Es un ejemplo claro de lo que el autor llama hiperrealidad emocional, cuando lo medido y estandarizado se confunde con lo auténtico. Tal y como escribe, “conformarse y adherirse a la emoción hiperreal conlleva olvidar la indeterminación de la emoción. La indeterminación social es valiosa porque la emoción es fuente de creatividad, expresión y construcción de significados locales”.
Este olvido de la indeterminación me parece clave. Porque si algo caracteriza a la emoción es su imprevisibilidad y su dependencia del contexto. Convertirla en dato implica eliminar esa riqueza para sustituirla por un simulacro. McStay lo explica con la ayuda de Baudrillard al afirmar que “el riesgo no es solo que las prescripciones se confundan con lo real, sino que lo hiperreal se convierta en realidad”. Dicho de otro modo, la emoción simulada acaba imponiéndose como norma frente a la emoción vivida.
Ante este panorama, el autor no opta por un rechazo frontal ni por la aceptación acrítica. Propone una ética híbrida, que parte de una pregunta muy sencilla, pero potente: “¿con qué tipos de tecnologías quieren convivir las personas?, ¿en qué condiciones?, ¿cómo afectan al orden existente?, ¿a qué coste llegan los beneficios?, y ¿cómo puede mejorarse la relación?”. Este enfoque es interesante porque permite desplazar el debate de lo abstracto a lo concreto. No se trata solo de hablar de privacidad o de prohibiciones, sino de establecer límites y condiciones negociadas para que la tecnología no erosione lo que consideramos valioso.
Un ejemplo interesante es el de los coches que detectan fatiga o ira en el conductor. Aquí McStay introduce el concepto de vulnerabilidad artificial, que plantea la idea de que un vehículo pueda simular tener un sistema nervioso para tomar decisiones más seguras. Este tipo de propuestas muestran que la empatía automatizada no es simplemente un mecanismo de vigilancia, también puede abrir oportunidades de cuidado si se diseña con esa intención.
El reto está en que el mercado empuja en la dirección contraria. La mercantilización de los datos íntimos convierte las emociones en un producto de compra y venta y ahí es fácil que se pierdan los límites. McStay rescata la advertencia de Michael Sandel sobre los riesgos de trasladar cualquier cosa al terreno de los mercados. Es cierto que algunas encuestas muestran cierta aceptación ciudadana cuando el uso de los datos se orienta a fines de salud pública, pero sigue siendo una frontera delicada.
Su propuesta final de invertir la empatía automatizada es interesante. En lugar de seguir acumulando sistemas cada vez más intrusivos, plantea la necesidad de apostar por proyectos pequeños, locales y creativos que no busquen la explotación de la intimidad sino el fortalecimiento de comunidades. Es aquí donde recupera el papel de las humanidades como contrapeso indispensable para repensar el diseño tecnológico.
No se trata de si la inteligencia artificial puede sentir, sino de qué queremos que signifique sentir en la vida en común. Ahí está la clave para decidir qué tecnologías aceptamos y cuáles no. Y quizás lo importante no sea tanto que las máquinas nos lean mejor, sino que aprendamos a escucharnos más entre nosotros.