Los científicos están entrenando inteligencia artificial para reconocer las emociones de los animales.
Varios equipos de investigación están desarrollando sistemas que mejorarán el diagnóstico de enfermedades y ayudarán a evaluar el estado de los animales, según la revista Science.
Investigadores de la Universidad del Oeste de Inglaterra en Bristol y el Colegio Agrícola de Escocia están creando Intellipig, un sistema de IA que analiza las expresiones faciales de los cerdos y alerta a los granjeros sobre signos de dolor, enfermedad o estrés.
Mientras tanto, un equipo de la Universidad de Haifa en Israel está trabajando en un modelo de IA que detecta emociones en animales con movimientos faciales similares a los de los humanos. Su estudio revela que los humanos comparten el 38% de las expresiones faciales con los perros, el 34% con los gatos y hasta el 47% con primates y caballos.
Los investigadores planean lanzar una aplicación basada en IA que permitirá a los dueños de gatos escanear el rostro de su mascota en 30 segundos y recibir información precisa, como: “Se detecta una tensión significativa alrededor de la boca; el nivel de dolor es moderado.”
Este equipo ya había desarrollado previamente un sistema de reconocimiento facial para animales, que ayuda a localizar mascotas perdidas comparando sus fotos con bases de datos de refugios.
Emociones Animales
Los científicos hace tiempo que comprenden que, al igual que los humanos, los animales expresan sus emociones a través de sus rostros. En The Expression of the Emotions in Man and Animals, publicado en 1872, Charles Darwin propuso que las expresiones faciales funcionan como una especie de “lenguaje compartido” entre los mamíferos, una habilidad profundamente arraigada en la historia evolutiva.
La teoría de Darwin se basaba en gran medida en similitudes anatómicas, explica Bridget Waller, psicóloga de la Universidad Nottingham Trent. Los mamíferos, incluidos los humanos, poseen muchos de los mismos músculos faciales diseñados para generar expresiones.
Por ejemplo, los humanos comparten el 38% de los movimientos faciales con los perros, el 34% con los gatos y hasta el 47% con primates y caballos.

Sin embargo, a pesar de estas similitudes anatómicas, interpretar las expresiones de los animales no es tan sencillo como leer las de los humanos. Los investigadores que estudian la comunicación animal suelen recurrir a pistas contextuales para determinar lo que un animal está experimentando. El dolor es un ejemplo claro: un caballo en recuperación tras una castración o una oveja cojeando con una infección en la pezuña probablemente sienten dolor.
Para comprender mejor las expresiones de malestar, los investigadores pueden aplicar estímulos leves, como apretar un manguito de presión arterial alrededor de una pierna o aplicar extracto de chile en la piel. Del mismo modo, cuando un animal recibe un analgésico, los signos visibles de incomodidad suelen disminuir.
El estrés es otra emoción que puede desencadenarse en muchas especies con intervenciones mínimas. Llevar brevemente a un caballo o a un gato en coche o separarlos de sus compañeros por un corto tiempo puede inducir ansiedad leve.
Para observar el estrés en cerdas jóvenes, la investigadora Baxter introduce cerdas mayores y dominantes, cuyo comportamiento intimidante genera señales claras de estrés. Conductas como vocalizaciones, defecación y niveles elevados de cortisol confirman que un animal está experimentando estrés.
Para medir sistemáticamente estas respuestas, los científicos han pasado miles de horas observando meticulosamente los rostros de los animales en diversas situaciones de dolor o estrés y comparándolos con aquellos que probablemente estaban libres de dolor o estrés.
Sus esfuerzos han llevado a la creación de “escalas de muecas” para diferentes especies, herramientas que evalúan el nivel de dolor o estrés de un animal en función de los movimientos específicos de sus músculos faciales.
En los Países Bajos, los científicos han desarrollado una aplicación de IA similar que escanea los rostros y cuerpos de los caballos para evaluar sus niveles de dolor. Se espera que la IA desempeñe un papel en las competiciones ecuestres, recompensando a los jinetes cuyos caballos estén felices y bien cuidados, además de promover la equidad y el bienestar animal en el deporte.
Por ejemplo, un caballo que gira sus orejas hacia afuera mientras forma “arrugas de preocupación” sobre sus ojos tiene más probabilidades de estar sufriendo dolor que uno con una expresión relajada, explica Pia Haubro Andersen, cirujana equina de la Universidad Sueca de Ciencias Agrícolas. El estrés en los caballos se manifiesta con movimientos similares de orejas y arrugas, aunque con diferencias sutiles, como sacar la lengua, añade.
Los expertos se han vuelto hábiles en la codificación manual de estas expresiones faciales, un proceso que, en teoría, podría usarse para controles rutinarios de bienestar animal. Sin embargo, como señala Andersen, es una tarea increíblemente tediosa. Un codificador humano entrenado tarda alrededor de 100 segundos en analizar los músculos faciales en una sola imagen, o entre dos y tres horas en evaluar solo 30 segundos de video.
La IA, en cambio, puede realizar el mismo análisis casi instantáneamente, pero primero debe ser entrenada.




