Las expresiones faciales emocionales como fuente de información en la toma de decisiones clínicas: una revisión sistemática

Emotional facial expressions as a source of information in clinical decision-making: A systematic review

Fernando Gordillo León

Departamento de Psicología Básica, Psicobiología y Metodología de las Ciencias del Comportamiento. Universidad de Salamanca

Lilia Mestas Hernández

Facultad de Estudios Superiores Zaragoza (FESZ).
Universidad Nacional Autónoma de México.

Germán Gálvez García

Departamento de Psicología Básica, Psicobiología y Metodología de las Ciencias del Comportamiento. Universidad de Salamanca

VOL. 51. Número 188 (2025)

ISSN 0211-7339
http://dx.doi.org/10.33776/EUHU/amc.v51i188.9189

Resumen:

El objetivo de esta revisión fue analizar la influencia de las expresiones faciales emocionales en la toma de decisiones clínicas, atendiendo tanto a los métodos empleados como a los principales resultados de la última década. Para ello, se aplicaron las directrices del protocolo PRISMA y se efectuó una búsqueda en las bases de datos Scopus, Web of Science (WoS), PsycINFO y MEDLINE, que permitió identificar 16 estudios relevantes. Los resultados muestran que el análisis de las expresiones faciales en el contexto clínico facilita una evaluación más precisa del estado emocional del paciente, repercute en la calidad de las decisiones clínicas y potencia la empatía profesional. Además, se observa un creciente desarrollo de herramientas de apoyo basadas en inteligencia artificial, con aplicaciones prometedoras en telemedicina, geriatría, cuidados paliativos y atención neonatal. Futuras investigaciones deberán validar la eficacia de estas tecnologías en contextos clínicos reales y establecer marcos éticos sólidos que orienten su adecuada integración en la práctica sanitaria.

Palabras claves:

Comunicación no verbal; Dolor; Emociones; Inteligencia artificial en salud; Simulación clínica

Abstract:

This review aimed to examine the influence of emotional facial expressions on clinical decision-making, considering both the methodologies used and the main findings reported over the past decade. Following PRISMA guidelines, a systematic search was conducted in Scopus, Web of Science (WoS), PsycINFO, and MEDLINE, identifying 16 relevant studies. The evidence suggests that analyzing facial expressions in clinical contexts enables a more accurate assessment of patients’ emotional states, enhances the quality of clinical decisions, and strengthens professional empathy. Moreover, the growing development of artificial intelligence–based support tools shows promising applications in telemedicine, geriatrics, palliative care, and neonatal care. Future research should prioritize validating these technologies in real-world clinical settings and establishing robust ethical frameworks to ensure their responsible integration into healthcare practice.

Keywords:

Nonverbal communication; Pain; Emotions; Artificial intelligence in healthcare; Clinical simulation

Fecha de recepción: 10 de septiembre de 2025
Fecha de aceptación: 6 de octubre de 2025

Correspondencia: Fernando Gordillo León. Departamento de Psicología Básica, Psicobiología y Metodología de las Ciencias del Comportamiento. Universidad de Salamanca. E-mail: fgordilloleon@usal.es

Introducción

La toma de decisiones clínicas constituye un proceso complejo, condicionado por múltiples factores contextuales que abarcan no solo las características del paciente, también las del médico, la familia, la institución, los colegas y el propio tratamiento (Schuler et al., 2025). En este marco, se ha subrayado la importancia de avanzar hacia modelos de decisión compartida entre profesionales de la salud y pacientes (Elwyn et al., 2012). Para que este proceso sea efectivo, resulta fundamental una comunicación fluida que integre no solo el componente verbal, sino también los aspectos no verbales, esenciales para transmitir de manera adecuada la información emocional. Diversas investigaciones han puesto de relieve el valor de la comunicación no verbal en contextos sanitarios, especialmente en la atención a personas mayores (e.g., Wanko et al., 2020). Entre las estrategias más frecuentes se encuentran el contacto físico, las sonrisas, el contacto visual, los movimientos de cabeza y cejas, la escucha activa, la proximidad física y el uso del silencio como señal de respeto. Estas conductas se han asociado con mejoras en indicadores centrados en el paciente, tales como una mayor satisfacción con la atención recibida, un mejor estado de salud física y mental, una mayor adherencia a los tratamientos, la percepción de un cuidado más individualizado y la reducción de las estancias hospitalarias. Además, la combinación de diferentes señales no verbales parece potenciar la calidad de la interacción terapéutica y favorecer la construcción de relaciones de confianza entre profesionales y pacientes (Sharkiya, 2023). En conjunto, los clínicos que dominan estas habilidades proyectan una mayor calidez, competencia y empatía, y logran un impacto más profundo en la experiencia del paciente, dado que las señales no verbales suelen ser más influyentes que las verbales en la formación de impresiones y en la regulación de la interacción social (Hall et al., 1995).

Entre los distintos canales no verbales de comunicación, las expresiones faciales emocionales se han consolidado como una fuente fundamental de información. En el contexto clínico, desempeñan un papel central en la percepción y regulación de las emociones, así como en la calidad de la interacción entre pacientes y profesionales de la salud (Gordillo et al., 2021). La capacidad de discriminar con precisión las emociones expresadas en el rostro no solo facilita una comunicación más empática y eficaz, sino que también constituye un mecanismo de retroalimentación afectiva que contribuye a la regulación emocional propia y ajena (Holland et al., 2021). Asimismo, se ha demostrado que esta habilidad puede desarrollarse mediante programas de entrenamiento específicos dirigidos a profesionales sanitarios y del ámbito social, con resultados significativos que potencian la calidad de la atención prestada (Cannavò et al., 2021). En consecuencia, la incorporación de estrategias orientadas a la identificación y expresión de las emociones en la práctica clínica resulta esencial para promover entornos asistenciales más humanos y emocionalmente saludables. Esto resulta de especial relevancia en contextos donde las capacidades comunicativas del paciente pueden estar limitadas.

Este es el caso de ámbitos como los cuidados paliativos, la salud mental, la atención infantil o la geriatría, donde las expresiones faciales emocionales constituyen un recurso fundamental para tomar decisiones clínicas acertadas. Su valor radica en que permiten una comprensión más precisa de las necesidades del paciente y facilitan la adaptación de las intervenciones. Por ejemplo, en personas con demencia, la expresión facial y otros canales no verbales deben interpretarse como señales significativas para reconocer sus emociones, necesidades y experiencias de dolor, entendido como un fenómeno tanto sensorial como emocional (IASP, 2020). En contextos en los que la comunicación verbal se encuentra limitada, la comunicación no verbal —y en particular las expresiones faciales— resulta esencial para sostener la interacción humana y personalizar el cuidado (Ellis & Astell, 2017).

En los últimos años, además, se ha planteado que la incorporación de tecnologías de inteligencia artificial (IA) para el reconocimiento automático de expresiones faciales podría transformar el proceso de apoyo a la toma de decisiones clínicas, al ofrecer datos objetivos sobre el estado emocional del paciente (e.g., Hadjar et al., 2025). Sin embargo, la evidencia en este campo permanece fragmentada entre diferentes disciplinas, con enfoques metodológicos heterogéneos y resultados dispares. Mientras algunos estudios examinan la toma de decisiones humanas en contextos clínicos reales o simulados, otros se centran en el desarrollo de modelos automatizados de evaluación emocional orientados a apoyar las decisiones clínicas. Esta diversidad evidencia la necesidad de una revisión sistemática que integre los hallazgos existentes y permita comprender con mayor claridad cómo las expresiones faciales influyen, condicionan o respaldan la toma de decisiones en entornos clínicos.

Objetivos de la revisión: 1) Analizar cómo se han evaluado las expresiones faciales emocionales en contextos clínicos o simulaciones clínicas que implican toma de decisiones; 2) Identificar los métodos empleados para medir la toma de decisiones clínicas y su relación con las expresiones faciales emocionales; 3) Sintetizar los principales resultados sobre la influencia de las expresiones faciales en la toma de decisiones, diferenciando entre decisiones humanas y automatizadas; 4) Detectar vacíos en la literatura actual y proponer líneas futuras de investigación que integren evaluación emocional y toma de decisiones en contextos clínicos reales o simulados.

Método

Búsqueda bibliográfica y control de calidad

Se realizó una revisión sistemática siguiendo las directrices PRISMA (Preferred Reporting Items for Systematic Reviews and Meta-Analyses; Liberati et al., 2009; Moher et al., 2009), con el objetivo de identificar estudios empíricos que evaluaran la influencia de las expresiones faciales emocionales en la toma de decisiones clínicas. La búsqueda bibliográfica se llevó a cabo en julio de 2025 y se aplicó a las siguientes bases de datos científicas: Scopus, Web of Science (WoS), PsycINFO y MEDLINE. Estas bases fueron seleccionadas por su relevancia en el ámbito de la salud, la psicología clínica y las ciencias biomédicas. La estrategia de búsqueda combinó operadores booleanos y términos clave relacionados con expresiones faciales, toma de decisiones y contexto clínico. La fórmula utilizada fue la siguiente: (“facial expression*” OR “emotional expression*” OR “emotion recognition” OR “nonverbal communication”) AND (“decision making” OR “clinical decision*” OR “diagnostic judgment” OR “treatment decision*”) AND (“clinical context” OR “medical setting*” OR “healthcare” OR “clinical environment” OR “health professional*” OR “patient care”).

Esta búsqueda se aplicó a títulos, resúmenes y palabras clave. El proceso de selección se desarrolló en varias etapas. En primer lugar, se eliminaron los duplicados. Posteriormente, dos revisores independientes evaluaron los títulos y resúmenes de los estudios restantes. Solo se incluyeron aquellos artículos en los que ambos revisores alcanzaron consenso. En caso de discrepancia, se discutió el estudio hasta lograr un acuerdo. Finalmente, se procedió a la lectura completa de los textos seleccionados para confirmar su elegibilidad. El cribado y la gestión de referencias se realizaron mediante el software Rayyan (Ouzzani et al., 2016).

Criterios de inclusión y exclusión

Con el objetivo de garantizar la calidad, pertinencia y coherencia de los estudios incluidos en esta revisión sistemática, se definieron a priori y aplicaron de manera sistemática los siguientes criterios de inclusión y exclusión durante el proceso de selección:

Criterios de inclusión

Participantes: estudios que involucraran a profesionales de la salud, pacientes reales en interacción clínica o participantes en simulaciones clínicas realistas. Se aceptaron estudiantes únicamente si participaron en tareas de toma de decisiones en entornos clínicos simulados o con componente emocional explícito.

Evaluación o manipulación de expresiones faciales emocionales: estudios que evaluaran, manipularan o utilizaran expresiones faciales emocionales como estímulos centrales, ya fueran espontáneas o inducidas. Se incluyeron estudios que analizaran su impacto en procesos clínicos o que desarrollaran herramientas para su integración en la práctica sanitaria.

Toma de decisiones clínicas: estudios que analizaran explícitamente procesos de toma de decisiones clínicas (diagnóstico, priorización, consentimiento, derivación, tratamiento, evaluación del dolor, intervención, etc.) o desarrollaran sistemas de apoyo a la decisión aplicables a contextos sanitarios. Se requirió que la relación entre expresiones faciales y decisiones clínicas fuera directa y claramente descrita.

Diseño empírico con datos originales: se incluyeron estudios cuantitativos (experimentales, cuasiexperimentales, observacionales, correlacionales), cualitativos (cuando aportaran observaciones sistemáticas) o mixtos, siempre que presentaran datos empíricos originales y análisis pertinentes a los objetivos de esta revisión.

Contexto clínico o sanitario: estudios realizados en entornos clínicos reales (hospitales, consultas, unidades de cuidados) o simulados (telemedicina, simuladores virtuales, plataformas educativas con escenarios clínicos).

Idioma y publicación: artículos publicados en inglés o español, revisados por pares, incluyendo revistas científicas, y actas de congresos con comité científico.

Disponibilidad de datos clave: estudios que presentaran información suficiente sobre los métodos de evaluación de expresiones faciales y la medición de la toma de decisiones, permitiendo su análisis y codificación.

Criterios de exclusión

Ausencia de evaluación de expresiones faciales emocionales: estudios que no evaluaran, manipularan ni utilizaran expresiones faciales como variable relevante, aunque trataran otras señales no verbales (voz, postura, etc.) o emociones en general.

Sin vinculación con la toma de decisiones clínicas: estudios centrados exclusivamente en empatía, regulación emocional, estrés o comunicación emocional, sin conexión directa con procesos de toma de decisiones clínicas o apoyo al juicio clínico.

Contexto no sanitario o no clínico: investigaciones realizadas en entornos educativos, laborales, judiciales, comerciales, militares u otros ámbitos no relacionados con la atención sanitaria.

Participantes no clínicos o sin relevancia práctica: estudios con población general, niños, estudiantes sin formación clínica o participantes sin implicación en decisiones clínicas reales o simuladas. Se aceptaron estudiantes únicamente si participaron en contextos clínicamente simulados y con tareas decisionales explícitas.

Estudios no empíricos: revisiones teóricas o narrativas, editoriales, cartas al editor, comentarios u otros trabajos sin datos empíricos originales.

Duplicación o solapamiento de muestras: publicaciones duplicadas o estudios con muestras solapadas fueron excluidos, priorizando la versión más reciente o metodológicamente completa.

Codificación y extracción de datos

La selección de los estudios se realizó en diferentes etapas (véase Figura 1). La primera etapa de identificación se limita a aquellos estudios que analizan artículos publicados durante un periodo de 10 años de investigación (2015-2025). Esta exploración inicial arrojó un total de 186 resultados. Tras eliminar duplicados (n = 51), y tras la lectura del título y resumen de los artículos restantes, se eliminaron aquellos que no incluían expresiones faciales emocionales (n = 65), toma de decisiones (n = 12), aquellos que no trabajaban en un contexto clínico (n = 1), o estudios teóricos o de caso (n = 31). A continuación, se realizó una evaluación exhaustiva del texto completo de 26 artículos elegibles, descartando los manuscritos que no establecían una relación clara entre expresiones faciales emocionales y toma de decisiones (n = 10). Este proceso redujo la selección final a 16 documentos (véase Figura 1). Para realizar el proceso de codificación y obtención de resultados, se utilizó el paquete informático Rayyan (Ouzzani et al., 2016). El flujo de identificación, exclusión e inclusión de estudios se presenta en el diagrama PRISMA (Figura 1).

Figura 1

Diagrama de flujo de los elementos de información seleccionados para la revisión sistemática (PRISMA).

Nota. Expresión facial emocional (EFE), Toma de decisiones (TD).

Resultados

Codificación y extracción de datos

En este trabajo se revisaron artículos de investigación que analizaban la influencia de las expresiones faciales emocionales sobre las decisiones clínicas (véase Tabla 1).

Tabla 1

Características principales de los 16 estudios incluidos en la revisión sistemática. Se presentan el autor y año de publicación, país, diseño metodológico, tamaño y características de la muestra, instrumentos de medida utilizados en las variables principales, y resultados principales

Referencia

Objetivos

Diseño

Medida de la expresión facial

Medida de toma de decisiones

Muestra / País

Resultados principales

Amin et al. (2019)

Proponer un marco de atención médica cognitiva basado en IoT (Internet de las cosas) y deep learning (aprendizaje profundo) para la detección y monitoreo de patologías cerebrales mediante electroencefalograma (EEG).

Estudio experimental con diseño tecnológico aplicado a base de datos pública TUH EEG Abnormal Corpus v2.0.0.

Sensor de reconocimiento facial incluido en el marco de monitoreo multimodal.

Decisiones tomadas por el módulo cognitivo en función de datos multimodales; clasificación binaria (patológico vs. normal) de EEG mediante CNN + SVM (red neuronal convolucional combinada con una máquina de vectores

N = 2383 sujetos (base de datos TUH EEG). Arabia Saudita.

Las expresiones faciales del paciente son una de las señales que el sistema recoge a través de sensores inteligentes para evaluar su estado clínico. Estas señales se procesan en tiempo real junto con otras (voz, gestos, EEG, etc.) y se integran en el módulo cognitivo para la toma de decisiones. Toma de decisiones basada en estado del paciente, a través del análisis conjunto de señales multimodales, incluyendo las expresiones faciales.

Casti et al. (2019)

Desarrollar y calibrar un sistema automático de medición de dolor basado en visión (VBM), utilizando expresiones faciales y juicios de múltiples expertos, incorporando la incertidumbre de evaluación en la calibración.

Diseño empírico con una base de datos de vídeo (UNBC-McMaster) y evaluación por siete expertos; dos escenarios experimentales: reproducibilidad (interobservador) y propagación de incertidumbre (intraobservador).

Análisis de expresiones faciales de dolor con red neuronal profunda (AlexNet) entrenada con imágenes procesadas (detección facial, LBP, mapeo 3D). Uso de juicio de expertos como referencia para calibración.

Toma de decisiones automatizada mediante clasificación de nivel de dolor (0–10) con red neuronal. Evaluación de precisión y robustez del sistema frente a las decisiones humanas.

N = 25 pacientes con dolor de hombro (vídeos de la base de datos UNBC-McMaster). Italia.

La precisión promedio de clasificación fue 0.83 en condiciones de reproducibilidad y 0.80 al incluir la incertidumbre de referencia. Se demostró alta concordancia entre el sistema y los juicios expertos (coeficientes rho de Spearman e ICC altos). La selección de evaluadores confiables mejoró la precisión.

(Çelik (2023)

Desarrollar un modelo de aprendizaje profundo (ZNet) para la evaluación automática de la intensidad del dolor a partir de expresiones faciales, comparando su rendimiento con seis modelos de clasificación deep learning ya establecidos.

Estudio experimental con modelos de aprendizaje profundo. Se utilizaron datos del UNBC-McMaster Shoulder Pain Expression Archive Database y técnicas de transfer learning para el entrenamiento y evaluación de modelos.

Expresiones faciales codificadas según el sistema PSPI (Prkachin and Solomon Pain Intensity) basado en FACS, con clasificación en 4 niveles de dolor. Se utilizaron imágenes del rostro de pacientes con dolor en el hombro (UNBC-McMaster database).

No se evalúa directamente la toma de decisiones humanas. Sin embargo, se analiza la toma de decisiones automatizada del modelo para clasificar niveles de dolor, lo cual podría tener implicaciones en decisiones clínicas futuras.

Imágenes faciales extraídas del UNBC-McMaster Shoulder Pain Expression Archive Database. Turquía.

El modelo propuesto (ZNet) obtuvo un rendimiento superior en comparación con seis modelos deep learning (ResNet-50, VGG-19, EfficientNet, DenseNet, Inception, Xception), con una precisión del 64.4%, recall del 63.4%, F1score del 63.7% y una exactitud general del 96.5%. ZNet. mostró su potencial para su uso clínico objetivo y automatizado en evaluación del dolor.

Elvas et al. (2024)

Desarrollar un sistema de asistencia remota para el cuidado hospitalario mediante IA, con el objetivo de reducir la carga de trabajo del personal médico y mejorar la toma de decisiones a través de la monitorización continua del paciente.

Investigación-acción con pruebas experimentales en laboratorio.

Clasificación automática de emociones básicas (disgusto, felicidad, tristeza, sorpresa, ira, miedo, desprecio) mediante redes neuronales convolucionales (CNN); precisión del 87.6%. Se utilizaron datasets públicos (FER2013, CK+, AffectNet) y un conjunto privado de validación.

El sistema genera alertas automáticas a los cuidadores al detectar valores fisiológicos anómalos o expresiones faciales relevantes, apoyando la toma de decisiones clínicas. La toma de decisiones no se mide directamente con una escala, pero se evalúa por medio del sistema de alertas automatizadas a partir del análisis multimodal (datos, imagen, sonido).

Datos generados en entorno de laboratorio (no se especifica número de participantes). Noruega y Portugal.

La IA integrada en sistemas de monitorización remota permite reducir la carga de trabajo de cuidadores al detectar emociones y anomalías fisiológicas en tiempo real, enviando alertas automáticas. El reconocimiento de expresiones faciales mediante CNN alcanzó un 87.6% de precisión.

Ferreira et al. (2025)

Desarrollar y validar un “pain sign” continuo y en tiempo real basado en expresiones faciales neonatales para la evaluación del dolor y la toma de decisiones clínicas.

Estudio experimental retrospectivo con modelos de aprendizaje profundo aplicados a bases de datos de imágenes y vídeos de neonatos (iCOPE, UNIFESP, iCOPEvid).

Análisis automático de expresiones faciales usando modelos de Deep Learning (VGG-Face, N-CNN y ViT-B/16). Las probabilidades de dolor se derivan de imágenes y vídeos etiquetados (“pain” vs “no pain”), con validación mediante máscaras de atención (Grad-CAM, Integrated Gradients).

Se diseñó un sistema de clasificación temporal del “pain sign” (estable, irregular, inestable, indeterminado), que proporciona información visual continua para apoyar decisiones clínicas en tiempo real. No se utiliza una escala directa de toma de decisiones, pero el sistema se orienta a apoyar decisiones clínicas sobre manejo del dolor en neonatos.

Neonatos (n = 26 en iCOPE, n = 30 en UNIFESP, n = 49 en iCOPEvid). Brasil.

El sistema basado en IA permitió seguimiento continuo de expresiones faciales indicando dolor, con buena sensibilidad, pero especificidad limitada. Se introdujo un esquema temporal útil para diferenciar tipos de expresión de dolor. El “pain sign” mostró correlación con la intensidad del dolor facial percibido y ofrece una herramienta útil para la toma de decisiones clínicas.

Ghosh et al. (2025)

Desarrollar un sistema multimodal de análisis de sentimientos de dolor que integre expresiones faciales y audio para mejorar el reconocimiento de la intensidad del dolor en pacientes en contextos de telemedicina con IoT.

Estudio experimental de desarrollo e implementación de un sistema automatizado basado en deep learning; validación con bases de datos públicas.

Análisis automático de expresiones faciales mediante redes neuronales convolucionales (CNN), con detección de regiones faciales, extracción de características profundas, y normalización de imágenes; uso de bases de datos: UNBCMcMaster, 2DFPE y BioVid.

No se mide directamente la toma de decisiones humana. Sin embargo, el sistema automatizado genera decisiones de clasificación sobre niveles de dolor (ninguno, leve, alto) a partir del análisis multimodal, lo cual se interpreta como una forma de apoyo a la toma de decisiones clínicas automatizadas.

Bases de datos públicas: UNBC (n = 129), 2DFPE (n = 23), BioVid (n = 60); audios: VIVAE (n = 11). India y EE.UU.

El sistema multimodal alcanzó una precisión del 85.15% en UNBC (2 clases), 83.79% (3 clases), 77.41% (2DFPE), y 87.41% (BioVid, 5 clases). La fusión de modelos visuales y auditivos mejora significativamente la precisión de la predicción del dolor frente a sistemas unimodales.

Hadjar et al. (2025)

Diseñar y evaluar TheraSense, un sistema basado en deep learning para el reconocimiento en tiempo real de emociones faciales en teleconsultas de salud mental, con el fin de apoyar la toma de decisiones clínicas.

Desarrollo tecnológico con evaluación mixta: pruebas cuantitativas de precisión del sistema (face detection y reconocimiento de emociones) y evaluación cualitativa.

Reconocimiento de emociones faciales en tiempo real mediante cámaras, usando CNNs (red neuronal convolucional) implementadas con face-api. js y modelos como TinyFaceDetector y FaceExpressionNet. Emociones detectadas: alegría, tristeza, ira, miedo, sorpresa, asco, neutra.

Soporte a la toma de decisiones mediante visualización en tiempo real y gráfica post-sesión de emociones clasificadas en positivas, negativas y neutras; además de alertas automatizadas por dominancia de emociones negativas.

No se indica N de participantes; evaluación técnica en laboratorio y mediante encuestas a expertos en salud mental y computación. Alemania.

El sistema permite identificar emociones en tiempo real, ofreciendo a los terapeutas datos útiles para ajustar sus intervenciones. Se destaca su potencial para mejorar la precisión y personalización de las decisiones clínicas en teleconsulta.

Koizumi et al. (2018)

Examinar cómo las expresiones emocionales negativas (NEE) de pacientes y familiares influyen en los resultados de la toma de decisiones compartida (SDM) en consultas de oncofertilidad.

Observacional transversal, con métodos mixtos mediante observación directa por psicólogos clínicos.

Observación directa por psicólogos clínicos con codificación de NEE según el sistema de Nakatani (2012).

Clasificación del tipo de decisión alcanzada en la consulta: Tipo 1 (“realizada”), Tipo 2 (“no concluida”) y Tipo 3 (“no realizada”), según si se accedió o no al tratamiento deseado.

N = 51. Pacientes (mujeres jóvenes con cáncer) (n = 32). Edad [20-45]. Familiares (n = 19). Japón.

Las pacientes que expresaron más emociones negativas eran significativamente más propensas a no alcanzar un acuerdo (SDM tipo 3) respecto al tratamiento deseado. Las pacientes que no reaccionaron negativamente a la información médica tenían mayor probabilidad de realizar el tratamiento deseado (SDM tipo 1).

Cuando los familiares no expresaban emociones negativas, las pacientes eran más propensas a lograr el tratamiento deseado.

Lakhan et al. (2023)

Proponer un marco de detección de Trastorno del Espectro Autista (TEA) en niños, basado en aprendizaje federado e integración de CNN-LSTM para el análisis de datos multimodales.

Diseño computacional experimental basado en simulaciones. Modelo de aprendizaje profundo (CNN-LSTM) distribuido mediante aprendizaje federado.

Se utilizaron bases de datos con expresiones faciales, incluidas grabaciones de vídeo (.PNG, .AVI), combinadas con EEG y otros indicadores de comportamiento. Las expresiones se analizan con redes neuronales convolucionales (CNN) para extraer características.

La decisión sobre diagnóstico de TEA se realiza en el nodo central mediante un árbol de decisión, a partir de datos agregados (predicción automatizada). No se evalúa toma de decisiones humanas en contexto clínico.

Datos simulados a partir de múltiples laboratorios distribuidos. No se especifica país ni características sociodemográficas. Participan niños entre 2 y 6 años en distintos escenarios simulados. Arabia Saudíta e Irak.

El modelo propuesto (FCNN-LSTM con aprendizaje federado) logró una precisión de detección de TEA cercana al 99%. Las expresiones faciales y EEG permitieron identificar diferentes niveles de gravedad (leve, moderado, severo). El marco incluye aplicaciones IoT para intervención.

Loizou et al. (2024)

Evaluar si los agentes virtuales emocionales mejoran la sensación de realismo, provocan mejores respuestas del usuario, mejoran la experiencia de aprendizaje, y ayudan al reconocimiento emocional y a la empatía.

Estudio cualitativo, con entrevistas semiestructuradas y observación, tras dos escenarios de simulación virtual interactiva en realidad virtual y sin agentes afectivos.

Se utilizó un sistema de avatares 3D con gestos y emoticonos que reflejan emociones básicas (felicidad, tristeza, miedo, ira, repulsión), basados en reglas del sistema adaptado BDI. No se usaron sistemas de reconocimiento automático.

La toma de decisiones fue inferida a través de la elección de respuestas múltiples durante la interacción con pacientes virtuales. El sistema registraba cómo las emociones y personalidad del participante afectaban sus elecciones.

N = 9 estudiantes de enfermería (7 mujeres, 2 hombres) en prácticas clínicas en salud mental. Reino Unido.

Las expresiones faciales del paciente virtual ayudaron a los estudiantes a entender mejor el estado emocional del paciente y a tomar decisiones más empáticas y ajustadas a la situación. Los participantes adaptaban su conducta (verbal y no verbal) en función de cómo percibían emocionalmente al paciente. Informar sobre sus propias emociones durante la tarea (estrés, agitación) ayudó a los estudiantes a tomar conciencia de su estado emocional y modular sus respuestas para no afectar negativamente al paciente.

Las expresiones del paciente virtual les permitieron observar las consecuencias emocionales de sus respuestas, promoviendo una mayor reflexión y mejora en la toma de decisiones clínicas. Impacto en la empatía. Las reacciones emocionales del paciente, a través de gestos y expresiones faciales, fomentaron mayor empatía en los participantes. Esto llevó a respuestas más consideradas y humanas, evitando interacciones impulsivas o frías ante conductas desafiantes del paciente (como gritar o mostrarse confundido).

Menychtas et al. (2019)

Desarrollar e integrar un servicio de análisis emocional en tiempo real dentro de una plataforma de atención médica domiciliaria (homecare/mHealth). Objetivo: evaluar el estado emocional de los pacientes durante videollamadas, y mejorar el apoyo psicológico y la toma de decisiones clínicas.

Estudio de desarrollo tecnológico con evaluación práctica (100 sesiones de videoconferencia).

Reconocimiento automático de emociones faciales en tiempo real mediante red neuronal convolucional entrenada con el conjunto FER2013. Procesamiento con Open-CV y TensorFlow en imágenes de vídeo.

El sistema proporciona retroalimentación emocional al médico durante la sesión, pero no se mide directamente el impacto sobre decisiones clínicas; se plantea como herramienta de apoyo.

100 sesiones de videoconferencia con pacientes y profesionales. Grecia.

El sistema permite que el personal médico observe las emociones detectadas automáticamente en la interfaz mientras interactúa con el paciente, lo que puede modificar o guiar su decisión clínica o intervención. Esta integración de análisis emocional en tiempo real facilita decisiones médicas más empáticas, personalizadas y proactivas.

Östlund et al. (2022)

Explorar las experiencias del personal sanitario al obtener consentimiento en el cuidado de personas con demencia.

Cualitativo. Entrevistas en grupos focales. Análisis de contenido inductivo.

No se mide de forma sistemática, pero los profesionales mencionan la interpretación de expresiones faciales y lenguaje corporal como clave para inferir consentimiento y comprender las necesidades del paciente.

No se mide de forma cuantitativa. La toma de decisiones se analiza en términos narrativos: el consentimiento es considerado como un proceso complejo, influido por la relación y comunicación no verbal entre profesional y paciente.

N = 14 grupos focales con personal de atención domiciliaria o residencias. Participantes con experiencia en cuidado de personas con demencia. Suecia.

El consentimiento es difícil de establecer de forma clara. Las expresiones faciales y el lenguaje corporal son herramientas fundamentales para interpretar el consentimiento, especialmente cuando el lenguaje verbal es limitado. La relación con el paciente permite reconocer respuestas individuales. Se destaca la necesidad de formación y reflexión sobre cómo obtener un consentimiento auténtico y ético.

Pu et al. (2024)

Identificar las expresiones faciales específicas asociadas con comportamientos de dolor observados en residentes con demencia, utilizando la aplicación PainChek.

Análisis secundario de un ensayo clínico aleatorizado.

Evaluación automatizada mediante la aplicación PainChek, que detecta nueve unidades de acción facial (AUs): AU4, AU6, AU7, AU9, AU10, AU12, AU20, AU25 y AU43.

No se evalúa directamente la toma de decisiones clínica; sin embargo, se analiza la asociación entre expresiones faciales y puntuaciones de dolor observacional como insumo potencial para decisiones clínicas. Se utiliza un modelo lineal mixto sobre puntuaciones ajustadas de comportamiento observacional del dolor (33 indicadores).

N = 46 residentes con demencia y dolor crónico en una residencia de cuidados. Edad media: 84.9 años. 71.7% mujeres. Australia.

Se identificaron seis expresiones faciales significativamente asociadas con mayores niveles de dolor observado: estiramiento horizontal de la boca (AU20), descenso de cejas (AU4), separación de labios (AU25), arrugamiento de la nariz (AU9), elevación del labio superior (AU10) y cierre de ojos (AU43). Las expresiones faciales fueron independientes de la edad, género, nivel cognitivo y antecedentes culturales. Se destaca el potencial del análisis facial automatizado como apoyo a la evaluación del dolor en demencia.

Vasiliu et al. (2021)

Desarrollar una arquitectura robótica (CASIE) con capacidades de reconocimiento emocional multimodal y toma de decisiones sensible al estado afectivo para mejorar la interacción humano-robot en contextos de salud.

Propuesta teórica y tecnológica de una arquitectura de robot social inteligente, basada en revisión de literatura, integración de tecnologías existentes y desarrollo conceptual. No es un estudio empírico con datos.

Reconocimiento emocional mediante visión por computadora, incluyendo reconocimiento facial, microexpresiones, lenguaje corporal y postura. Se utilizan redes neuronales convolucionales y tecnologías de codificación facial para detectar emociones básicas como alegría, tristeza, miedo, ira, etc.

Toma de decisiones basada en afecto mediante una arquitectura de control jerárquica que integra planificación probabilística, máquinas de estados no deterministas y un planificador robótico sensible a datos emocionales multimodales. Las decisiones se adaptan al contexto emocional del usuario.

No aplica (propuesta conceptual, sin muestra). La investigación es multinacional, con participación de diferentes instituciones. Irlanda, Alemania, Bélgica, Suiza, y Países Bajos.

Se propone que integrar el reconocimiento emocional (expresiones faciales, voz, cuerpo) y un sistema de toma de decisiones afectivo en robots sociales puede mejorar significativamente la interacción humano-robot en entornos de salud. Esto permitiría respuestas más empáticas, personalizadas y contextualmente apropiadas, aumentando la aceptación y efectividad de los robots en el cuidado.

Wahila et al. (2018)

Desarrollar una herramienta de evaluación del dolor para pacientes después de una cirugía abdominal mayor, teniendo en cuenta indicadores verbales y no verbales del dolor.

Estudio descriptivo y de desarrollo de herramienta (tool development study) basado en una revisión de la literatura, entrevistas con expertos y validación por panel de expertos.

Se consideraron expresiones faciales como uno de los indicadores no verbales del dolor. Las expresiones incluidas en el instrumento abarcan: fruncir el ceño, cerrar los ojos con fuerza, muecas, etc. No se utilizó una herramienta estandarizada ni análisis sistemático de expresiones faciales.

No se evalúa directamente la toma de decisiones clínica. El estudio se enfoca en el desarrollo de un instrumento para apoyar decisiones clínicas de evaluación del dolor, pero no mide procesos decisionales ni sus resultados.

No se aplica una muestra cuantitativa directa. El desarrollo se basó en literatura, experiencia clínica, y validación por expertos. Zambia.

Se desarrolló un instrumento preliminar que incorpora indicadores verbales y no verbales, incluidas expresiones faciales. El uso del instrumento podría mejorar la evaluación del dolor en pacientes postquirúrgicos y contribuir a una mejor atención clínica.

Watts et al. (2024)

Analizar cómo se utilizan las preguntas dirigidas a niños que no se comunican verbalmente, en contextos de cuidados paliativos pediátricos, para implicarlos en las decisiones relacionadas con su atención.

Estudio cualitativo observacional con Análisis de la Conversación aplicado a 46 consultas grabadas en vídeo (31 h), en contextos de cuidados paliativos pediátricos.

Conductas faciales observables (gestos, mirada, expresiones), codificadas en el análisis conversacional.

Participación en decisiones clínicas inferida a partir de la respuesta (o no respuesta) a preguntas clínicas sobre acciones o estados (preferencias, emociones, etc.).

31 niños (de 0 a 17 años) que no se comunicaban verbalmente. Diagnósticos mayoritarios: condiciones neurológicas. Australia.

Las preguntas simples permitieron que las expresiones faciales y corporales de los niños fueran tratadas como respuestas relevantes. Aunque no hubo respuestas verbales claras, estas expresiones influyeron en las decisiones clínicas. El estudio demuestra que los niños pueden participar activamente en su atención incluso sin comunicación verbal, a través de sus respuestas emocionales y conductuales.

La revisión incluyó un total de 16 estudios empíricos publicados entre 2015 y 2025, que examinaron la relación entre expresiones faciales emocionales y toma de decisiones en contextos clínicos reales o simulados. Las muestras fueron diversas e incluyeron pacientes reales (como neonatos, adultos mayores con demencia o pacientes oncológicos), profesionales de la salud, estudiantes en formación clínica, así como estudios basados en simulaciones experimentales o en el uso de bases de datos públicas. En cuanto a los diseños metodológicos, se identificaron: seis estudios con enfoques experimentales o cuasiexperimentales, que aplicaron tecnologías automatizadas de reconocimiento facial; cuatro investigaciones cualitativas, que utilizaron entrevistas, observación o análisis conversacional; dos estudios de desarrollo tecnológico con validación práctica en entornos clínicos o simulados; y cuatro estudios con diseño mixto, que integraron análisis cuantitativos y cualitativos (Figura 2).

Figura 2

Distribución de los estudios según el diseño metodológico (N = 16)

Respecto a la evaluación de las expresiones faciales emocionales, nueve estudios emplearon sistemas de reconocimiento automático basados en inteligencia artificial o aprendizaje profundo (por ejemplo, CNN, VGG-Face, Face-api.js). Cuatro estudios utilizaron observación directa o codificación manual por expertos, como psicólogos clínicos o evaluadores entrenados. Tres estudios aplicaron métodos intermedios, como aplicaciones móviles (p.ej., PainChek) o plataformas de simulación emocional en entornos de realidad virtual (Figura 3).

Figura 3

Método de evaluación de las expresiones faciales emocionales (N = 16)

En relación con la toma de decisiones clínicas, siete estudios analizaron decisiones tomadas por seres humanos, como el diagnóstico, el consentimiento informado, la priorización clínica o la evaluación del dolor. Seis estudios abordaron decisiones automatizadas, basadas en sistemas inteligentes de apoyo clínico. En tres estudios, la relación entre expresión facial y toma de decisiones se evaluó de forma indirecta, mediante observación del comportamiento clínico o sistemas de alerta automatizados. Los contextos asistenciales abordados fueron diversos: oncofertilidad, salud mental, cuidados paliativos pediátricos, geriatría, neurología, cirugía abdominal, cuidados neonatales y atención domiciliaria, tanto de forma presencial como mediante telemedicina (Figura 4).

Figura 4

Toma de decisiones clínicas según el tipo de estudio (N = 16)

Finalmente, la revisión incluyó estudios desarrollados en una amplia variedad de países, incluyendo aportaciones de los cinco continentes, que reflejan la diversidad geográfica de los resultados (Figura 5).

Figura 5

Distribución geográfica de los estudios incluidos (N = 16). Debido a la presencia de colaboraciones multinacionales, algunos estudios se atribuyen a más de un país. Por ello, el total de menciones por país en la figura excede el número total de estudios incluidos en la revisión

El análisis de los 16 estudios incluidos revela una diversidad metodológica y geográfica significativa, así como una creciente aplicación de herramientas tecnológicas en la evaluación de expresiones faciales emocionales dentro del ámbito clínico. La mayoría de las investigaciones se concentran en tres grandes enfoques: el uso de sistemas automatizados de reconocimiento facial, la observación clínica directa por profesionales, y el desarrollo de plataformas de simulación emocional con fines diagnósticos o formativos. En cuanto al método de evaluación de las expresiones faciales, se observa un predominio de los sistemas automatizados, particularmente aquellos basados en inteligencia artificial y aprendizaje profundo (IA/Deep Learning), empleados en más de la mitad de los estudios. Estos sistemas se utilizan principalmente para detectar emociones como dolor, ansiedad o malestar emocional, y se integran en aplicaciones móviles clínicas o plataformas de asistencia. Un número menor de estudios recurrió a la codificación manual por expertos, habitualmente psicólogos clínicos o evaluadores entrenados. Finalmente, algunos estudios emplearon métodos intermedios, como simuladores en realidad virtual o aplicaciones con respuesta emocional programada, que permiten entrenar la percepción emocional en situaciones simuladas.

Respecto a la toma de decisiones clínicas, los estudios se distribuyeron casi equitativamente entre aquellos centrados en decisiones tomadas por profesionales humanos, y aquellos que analizaron decisiones automatizadas generadas por sistemas inteligentes o algoritmos de soporte clínico. En dos estudios, la relación entre la expresión facial y la toma de decisiones fue más indirecta, observando cambios en el comportamiento clínico o en la configuración del entorno asistencial como respuesta a señales emocionales. Los diseños metodológicos variaron notablemente: una tercera parte de los estudios adoptó enfoques experimentales o cuasiexperimentales con tecnologías automatizadas; otro segmento se centró en investigaciones cualitativas que analizaron interacciones clínicas reales o simuladas; y un grupo destacado desarrolló herramientas tecnológicas con validación práctica. Los estudios mixtos, que integraron datos cuantitativos y cualitativos, aportaron información más rica sobre la utilidad clínica y la percepción subjetiva de las expresiones emocionales. En cuanto a los contextos clínicos abordados, los estudios se desarrollaron en áreas como oncofertilidad, cuidados paliativos pediátricos, salud mental, geriatría, neurología, cirugía abdominal y atención domiciliaria, lo cual refleja la transversalidad del interés por las emociones en la toma de decisiones clínicas.

Discusión y conclusiones

Esta revisión sistemática tuvo como objetivo analizar la influencia de las expresiones faciales emocionales en la toma de decisiones clínicas, identificar los métodos utilizados para evaluar ambas variables y sintetizar los datos disponibles en estudios empíricos realizados en contextos clínicos reales o simulados. Los resultados obtenidos permiten consolidar varias conclusiones relevantes que contribuyen al cuerpo de conocimientos sobre comunicación no verbal en la práctica sanitaria, en línea con lo ya planteado por Hall et al. (1995), Sharkiya (2023) y Gordillo et al. (2021) respecto a la importancia de las señales no verbales en la interacción terapéutica.

En primer lugar, los estudios revisados entienden las expresiones faciales emocionales —tanto espontáneas como artificialmente inducidas— como una fuente valiosa de información que puede influir significativamente en las decisiones clínicas. En concreto, en situaciones donde la comunicación verbal está limitada. Esto se evidenció en investigaciones realizadas con pacientes con demencia (Östlund et al., 2022; Pu et al., 2024), neonatos (Ferreira et al., 2025), niños no verbales en cuidados paliativos (Watts et al., 2024) o usuarios en teleconsultas (Hadjar et al., 2025; Ghosh et al., 2025), donde las expresiones faciales fueron tratadas como indicios válidos de consentimiento, dolor o malestar emocional, afectando directamente a la toma de decisiones clínicas.

Por otro lado, algunos estudios destacaron que las emociones negativas expresadas facialmente pueden interferir en la toma de decisiones compartida. Por ejemplo, Koizumi et al. (2018) demostraron que la presencia de expresiones emocionales negativas por parte de pacientes y familiares en consultas de oncofertilidad se asoció con una menor probabilidad de alcanzar acuerdos sobre los tratamientos. Este hallazgo coincide con los planteamientos de Elwyn et al. (2012) y Schuler et al. (2025) sobre la complejidad de los procesos decisionales y el rol modulador de las emociones en dichos procesos. Esta complejidad puede abordarse con la integración de tecnologías de inteligencia artificial (IA) para el reconocimiento facial automático, que se presenta como una tendencia creciente en el ámbito clínico. Estudios como los de Amin et al. (2019), Menychtas et al. (2019), Çelik (2023), Hadjar et al. (2025), Ferreira et al. (2025), Elvas et al. (2024) y Ghosh et al. (2025) desarrollaron y evaluaron sistemas que permiten detectar emociones faciales en tiempo real y utilizar esta información para apoyar decisiones clínicas, especialmente en contextos de atención remota, salud mental o unidades de cuidados intensivos. Estos sistemas mostraron niveles aceptables de precisión y usabilidad, y abren la puerta a una toma de decisiones más objetiva, rápida y personalizada. Sin embargo, como ya señalaban Ellis y Astell (2017), es crucial que la tecnología complemente —y no reemplace— la interpretación empática y relacional por parte del profesional humano.

Dentro de este campo, varios estudios pusieron de relieve el papel de las expresiones faciales en el entrenamiento de habilidades clínicas en simulaciones virtuales. Por ejemplo, Loizou et al. (2024) evidenciaron que la incorporación de agentes virtuales con expresividad emocional mejoró la calidad de las decisiones clínicas tomadas por estudiantes de enfermería, al aumentar la empatía, la autorregulación emocional y la conciencia de las propias respuestas afectivas. Estos resultados refuerzan las propuestas de Gordillo et al. (2021) sobre la utilidad del entrenamiento emocional para mejorar la competencia asistencial. Asimismo, el dolor ha sido reconocido como una experiencia sensorial y emocional compleja (IASP, 2020), cuya expresión se manifiesta a menudo de forma clara en el rostro, especialmente cuando el paciente no puede verbalizar su malestar. Esta dimensión emocional del dolor justifica su inclusión en estudios sobre expresiones faciales, ya que constituye una forma primaria de comunicación no verbal en contextos clínicos. En este sentido, investigaciones como las de Casti et al. (2019), Çelik (2023), Ferreira et al. (2025), Ghosh et al. (2025) y Wahila et al. (2018) han demostrado que los sistemas automáticos de detección del dolor basados en el análisis facial pueden alcanzar niveles de precisión similares a los de evaluadores humanos entrenados. Estos avances son especialmente relevantes para la personalización del cuidado clínico, al permitir identificar el sufrimiento en pacientes con limitaciones en la comunicación verbal, como personas con demencia, discapacidad cognitiva o en unidades de cuidados intensivos. Por otro lado, estudios como el de Lakhan et al. (2023) y Vasiliu et al. (2021) apuntan hacia una convergencia entre análisis multimodal (rostro, voz, fisiología) y decisiones sensibles al afecto, integrando estos elementos en arquitecturas robóticas o modelos de aprendizaje para diagnóstico en condiciones como el autismo. Aunque aún se encuentran en fases preliminares, estas investigaciones sugieren que el futuro de la interacción clínicotecnológica será emocionalmente sensible, como propone la literatura de los últimos años sobre inteligencia artificial afectiva en salud.

En resumen, podemos decir que las expresiones faciales emocionales influyen en las decisiones clínicas tanto en interacciones humanas como en sistemas automatizados. Esta influencia es más evidente y valiosa en contextos con barreras en la comunicación verbal (niños, personas mayores, pacientes en telemedicina o estados críticos). Las tecnologías basadas en IA tienen un alto potencial para asistir en la evaluación emocional, pero deben implementarse de forma ética, contextualizada y sensible a las dinámicas humanas. La formación de los profesionales sanitarios en reconocimiento emocional —ya sea humano o asistido por IA— debería formar parte central del currículo clínico. Si bien esta revisión sistemática ofrece una síntesis actualizada y rigurosa sobre la relación entre las expresiones faciales emocionales y la toma de decisiones clínicas, es importante reconocer una serie de limitaciones que deben ser consideradas al interpretar los resultados. 1. Heterogeneidad metodológica: los estudios incluidos presentan una amplia diversidad en términos de diseños (experimentales, observacionales, cualitativos, tecnológicos), muestras (profesionales, pacientes, simulaciones, bases de datos) y métodos de evaluación de las variables clave. Esta heterogeneidad dificulta la comparación directa de resultados, y limita la posibilidad de realizar metaanálisis o establecer relaciones causales consistentes. 2. Medición indirecta o parcial de las variables: en varios estudios, tanto la expresión facial como la toma de decisiones clínicas no fueron evaluadas mediante instrumentos estandarizados o validados, sino inferidas a través de observación, registros automáticos o decisiones tecnológicas automatizadas. Esto introduce posibles sesgos de interpretación y reduce la comparabilidad entre estudios. 3. Escasa evaluación directa de la toma de decisiones humanas: aunque el objetivo de la revisión incluía tanto decisiones humanas como automatizadas, se identificó que muchas investigaciones se centraron en el desarrollo de sistemas de apoyo (por ejemplo, sistemas de reconocimiento de dolor o emoción), sin medir directamente cómo estos influían en las decisiones clínicas tomadas por profesionales sanitarios reales. Esto limita la generalización de los datos al ámbito práctico. 4. Predominio de entornos simulados o tecnológicos: una proporción significativa de los estudios se desarrollaron en contextos simulados, laboratorios experimentales o con datos secundarios (por ejemplo, bases de datos públicas de imágenes), lo que podría no reflejar completamente las condiciones, dinámicas y complejidades de los entornos clínicos reales. 5. Falta de representatividad poblacional y diversidad cultural: varios estudios utilizaron muestras pequeñas o no reportaron claramente las características sociodemográficas de los participantes. Asimismo, hubo una limitada inclusión de estudios en contextos clínicos de países de ingresos medios y bajos, lo que puede afectar la aplicabilidad cultural y global de los resultados.

Futuras líneas de investigación deberían centrarse en: evaluar la eficacia longitudinal de herramientas basadas en IA en contextos clínicos reales; desarrollar marcos éticos sólidos para el uso de reconocimiento emocional automatizado; diseñar estudios que integren medidas estandarizadas de toma de decisiones clínicas y procesamiento emocional; examinar el impacto de las emociones faciales no solo en las decisiones diagnósticas, también en la adherencia al tratamiento, la relación terapéutica y el bienestar del profesional. En definitiva, esta revisión sistemática pone de relieve la importancia de las expresiones faciales como parte esencial de la comunicación clínica y su papel cada vez más relevante como variable en la toma de decisiones sanitarias, reafirmando que una atención verdaderamente empática y eficaz debe integrar tanto las capacidades humanas como el potencial tecnológico.

Referencias

Amin, S. U., Hossain, M. S., Muhammad, G., Alhussein, M., & Rahman, M. A. (2019). Cognitive smart healthcare for pathology detection and monitoring. IEEE Access, 7, 10745–10753. https://doi.org/10.1109/ACCESS.2019.2891390

Cannavò, M., Zomparelli, W., Carta, M. G., Romano, F., & La Torre, G. (2021). Effectiveness of a training on the recognition of subtle facial emotions in health and social workers. Rivista di Psichiatria, 56(6), 334-339. https://doi.org/10.1708/3713.37048

Casti, P., Mencattini, A., Comes, M. C., Callari, G., Di Giuseppe, D., Natoli, S., Dauri, M., Daprati, E., & Martinelli, E. (2019). Calibration of vision-based measurement of pain intensity with multiple expert observers. IEEE Transactions on Instrumentation and Measurement, 68(7), 2442–2450. https://doi.org/10.1109/TIM.2019.2909603

Çelik, M. E. (2023). A novel deep learning model for pain intensity evaluation. International Journal of Computational and Experimental Science and Engineering, 9(4), 325–330. https://doi.org/10.22399/ijcesen.1372628

Ellis, M., & Astell, A. (2017). Communicating with people living with dementia who are nonverbal: The creation of Adaptive Interaction. PLOS ONE, 12(8), e0180395. https://doi.org/10.1371/journal.pone.0180395

Elvas, L. B., Nunes, M., Ferreira, J. C., y Helgheim, B. I. (2024). Hospital remote care assistance AI to reduce workload. International Journal of Computer Information Systems and Industrial Management Applications, 16(2), 13.

Elwyn, G., Frosch, D., Thomson, R., Joseph-Williams, N., Lloyd, A., Kinnersley, P., Cording, E., Tomson, D., Dodd, C., Rollnick, S., Edwards, A., & Barry, M. (2012). Shared decision making: a model for clinical practice. Journal of General Internal Medicine, 27(10), 1361–1367. https://doi.org/10.1007/s11606-012-2077-6

Ferreira, L. A., Carlini, L. P., Coutrin, G. A. S., Heiderich, T. M., Balda, R. C. X., Barros, M. C. M., Guinsburg, R., & Thomaz, C. E. (2025). Disclosing neonatal pain in real-time: AI-derived pain sign from continuous assessment of facial expressions. Computers in Biology and Medicine, 189, 109908. https://doi.org/10.1016/j.compbiomed.2025.109908

Ghosh, A., Umer, S., Dhara, B. C., & Ali, G. G. M. N. (2025). A multimodal pain sentiment analysis system using ensembled deep learning approaches for IoT-enabled healthcare framework. Sensors, 25(4), 1223. https://doi.org/10.3390/s25041223

Gordillo, F., Mestas, L., Arana, J. M., & Pérez, M. Á. (2021). La expresión facial de las emociones y su papel regulador en el ámbito clínico. En Manual de medicina interna (pp. 693-708). Universidad de Cauca.

Hadjar, H., Vu, B., & Hemmje, M. (2025). TheraSense: Deep learning for facial emotion analysis in mental health teleconsultation. Electronics, 14(3), 422. https://doi.org/10.3390/electron-ics14030422

Hall, J. A., Harrigan, J. A., & Rosenthal, R. (1995). Nonverbal behavior in clinician–patient interaction. Applied and Preventive Psychology, 4(1), 21–37. https://doi.org/10.1016/S0962-1849(05)80049-6

Holland, A.C., O’Connell, G., & Dziobek, I. (2021). Facial mimicry, empathy, and emotion recognition: a meta-analysis of correlations. Cognition and Emotion, 35(1), 150-168. https://doi.org/10.1080/02699931.2020.1815655.

International Association for the Study of Pain. (2020). IASP announces revised definition of pain. https://www.iasp-pain.org/publications/iasp-news/iasp-announces-revised-defini-tion-of-pain/

Koizumi, T., Nara, K., Hashimoto, T., Takamizawa, S., Sugimoto, K., Suzuki, N., & Morimoto, Y. (2018). Influence of Negative Emotional Expressions on the Outcomes of Shared Decision Making During Oncofertility Consultations in Japan. Journal of adolescent and young adult oncology, 7(4), 504–508. https://doi.org/10.1089/jayao.2017.0108

Lakhan, A., Mohammed, M. A., Abdulkareem, K. H., Hamouda, H., & Alyahya, S. (2023). Autism Spectrum Disorder detection framework for children based on federated learning integrated CNN-LSTM. Computers in Biology and Medicine, 166, 107539. https://doi.org/10.1016/j.compbiomed.2023.107539

Liberati, A., Altman, D.G., Tetzlaff, J., Mulrow, C., Gøtzsche, PC., Ioannidis, J.P., Clarke, M., Devereaux, P.J., Kleijnen, J., & Moher, D. (2009). The PRISMA statement for reporting systematic reviews and meta-analyses of studies that evaluate health care interventions: expla-nation and elaboration. PLoS Medicine, 6(7), e1000100. https://doi.org/10.1371/journal.pmed.1000100

Loizou, M., Arnab, S., Lameras, P., Hartley, T., Loizides, F., Kumar, P., & Sumilo, D. (2024). Designing, implementing and testing an intervention of affective intelligent agents in nursing virtual reality teaching simulations—a qualitative study. Frontiers in Digital Health, 6, 1307817. https://doi.org/10.3389/fdgth.2024.1307817

Menychtas, A., Galliakis, M., Tsanakas, P., & Maglogiannis, I. (2019). Real-time integration of emotion analysis into homecare platforms. 41st Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC), Berlin, Germany, 2019, pp. 3468-3471. https://doi.org/10.1109/EMBC.2019.8857484

Moher, D., Liberati, A., Tetzlaff, J., Altman, D. G., & PRISMA Group. (2009). Preferred reporting items for systematic reviews and meta-analyses: the PRISMA statement. PLoS Medicine, 6(7), e1000097. https://doi.org/10.1371/journal.pmed.1000097

Östlund, L., Bravell, M. E., & Johansson, L. (2022). Working in a gray area—Healthcare staff experiences of receiving consent when caring for persons with dementia. Dementia, 22(1), 144-160. https://doi.org/10.1177/14713012221137472

Ouzzani, M., Hammady, H., Fedorowicz, Z., y Elmagarmid, A. (2016). Rayyan—a web and mobile app for systematic reviews. Systematic Reviews, 5, 210. https://doi.org/10.1186/s13643-016-0384-4

Pu, L., Coppieters, M. W., Smalbrugge, M., Jones, C., Byrnes, J., Todorovic, M., & Moyle, W. (2024). Associations between facial expressions and observational pain in residents with dementia and chronic pain. Journal of Advanced Nursing, 80(9), 3846–3855. https://doi.org/10.1111/jan.16063

Schuler, K., Jung, I. C., Zerlik, M., Hahn, W., Sedlmayr, M., & Sedlmayr, B. (2025). Context factors in clinical decision-making: a scoping review. BMC Medical Informatics and Decision Making, 25, 133. https://doi.org/10.1186/s12911-025-02965-1

Sharkiya, S. H. (2023). Quality communication can improve patient-centred health outcomes among older patients: a rapid review. BMC Health Services Research, 23, 886. https://doi.org/10.1186/s12913-023-09869-8

Vasiliu, L., Cortis, K., McDermott, R., Kerr, A., Peters, A., Hesse, M., Hagemeyer, J., Belpaeme, T., McDonald, J., Villing, R., Mileo, A., Caputo, A., Scriney, M., Griffiths, S., Koumpis, A., & Davis, B. (2021). CASIE – Computing affect and social intelligence for healthcare in an ethical and trustworthy manner. Paladyn, Journal of Behavioral Robotics, 12(1), 437–453. https://doi.org/10.1515/pjbr-2021-0026

Wahila, R., Odimba, E., y Ngoma, C. (2018). Developing a pain assessment tool for patients after major abdominal surgery. British Journal of Nursing, 27(9), 503–508. https://doi.org/10.12968/bjon.2018.27.9.503

Wanko, E. L., Kerr, J., & Jarvis, M. A. (2020). Evidence of nonverbal communication between nurses and older adults: a scoping review. BMC Nursing, 19, 53. https://doi.org/10.1186/s12912-020-00443-9

Watts, J., Ekberg, S., Bluebond-Langner, M., Langner, R., Fleming, S., Danby, S., Ekberg, K., Yates, P., Bradford, N., Delaney, A., & Herbert, A. (2024). Questions directed to children with diverse communicative competencies in paediatric healthcare consultations. Patient Educa-ion and Counseling, 121, 108103. https://doi.org/10.1016/j.pec.2023.108103