Resumen
Los cambios físicos y cognitivos provocados por una patología empeoran la capacidad funcional del individuo dificultando la realización de las actividades de la vida diaria (Activities of Daily Living - ADLs) y provocan dependencia y/o discapacidad. Existen pruebas observacionales estandarizadas para la evaluación clínica del grado de limitación funcional en las ADLs básicas o instrumentales (por ejemplo, Assessment Motor and Process Skills – AMPS). Por otro lado, todas estas pruebas tienen el problema de la subjetividad del evaluador en el análisis. La presencia del evaluador en la prueba puede influir en la forma en que un sujeto realiza las ADLs.
El objetivo del proyecto es desarrollar una metodología para diseñar, implementar y validar pruebas clínicas automáticas de limitación funcional, que: 1) den valoraciones objetivas con validez clínica, y 2) eliminen la interferencia en la ejecución de pruebas provocada por la presencia física del evaluador. La subjetividad del evaluador humano será reemplazada por un sistema automático que extrae información multimodal (es decir, multisensorial) del entorno durante la evaluación funcional del usuario. Específicamente, estarán incluidos los sensores de audio, video y profundidad y la información recopilada de los sensores portátiles que puede llevar el sujeto. Dada la historia clínica del sujeto, la evaluación objetiva también proporcionará pistas que se pueden utilizar para la detección temprana de limitaciones.
Este problema no se ha abordado sistemáticamente en la literatura. Por tanto, el proyecto es una primera solución del desarrollo y validación clínica de un sistema automatizado que permite una evaluación objetiva de pruebas observacionales. La valoración clínica de las limitaciones funcionales se abordará en un entorno real adaptado (equipado con la sensorización electrónica adecuada) en las instalaciones de la URJC.
El subproyecto EYEFUL-URJC tiene un papel clave en el diseño metodológico y validación clínica de las herramientas de evaluación automática. También realizarán las pruebas reales sobre sujetos sanos y pacientes comparando la salida de las herramientas actuales, como AMPs, con la salida de las herramientas de evaluación desarrolladas para el proyecto. Con el fin de extraer características relevantes de sensores de video, profundidad, audio y otros, el proyecto aprovecha la experiencia de investigación sobre la detección automática de actividades humanas en espacios inteligentes de EYEFUL-UAH y contará también con la colaboración del Grupo de invesigación PCR, perteneciente al Departmento de Inteligencia Artificial de la Universidad Politécnica de Madrid. El grupo PCR contribuirá en el análisis de la cara del sujeto, la postura de la cabeza, la mirada y la alineación precisa en 3D de los puntos de referencia faciales, que permiten estimar atributos faciales útiles para diferentes pruebas (por ejemplo, foco de atención, presencia de dolor, confusión, miedo, etc.). El subproyecto EYEFUL-UAH concentra su análisis en la actividad de todo el cuerpo del usuario y su interacción con objetos, con sensores de profundidad y vídeo, e integra también datos de audio y sensores portátiles para evaluar automáticamente la capacidad funcional de las personas evaluadas. Los tres grupos coordinados abordan el proyecto de manera interdisciplinar, con fuertes exigencias de realimentación entre ellos a lo largo del desarrollo del proyecto. Esta estrecha interacción es fundamental para asegurar el adecuado enfoque de los desarrollos técnicos dados los estrictos requisitos clínicos de la tarea.