VR en Asistencia e Intervención Sanitarias (VRAINS)

En los últimos años el uso de tecnologías inmersivas ha ido creciendo y ganando popularidad en gran cantidad de ámbitos incluyendo el sanitario. Su capacidad para reproducir entornos realistas mediante técnicas de realidad virtual (VR) o aumentada proporciona en este sector un entorno seguro para el aprendizaje de técnicas o procedimientos quirúrgicos. Además, junto con los sistemas de posicionamiento, ampliamente utilizados para la navegación quirúrgica, proporciona una plataforma donde aprender de forma guiada y autónoma recibiendo una evaluación objetiva.
El objetivo del proyecto VRAINS (VR en Asistencia e Intervención Sanitarias) ha consistido en explorar estas tecnologías, aplicándolas a enseñanza de la anatomía, entrenamiento de procedimientos percutáneos guiados por ecografía, y planificación preoperatoria. Para ello se ha participado en el desarrollo de un sistema abierto de VR colaborativa donde múltiples usuarios pueden conectarse a un mismo entorno virtual e interactuar con el mismo. Este sistema se ha desarrollado sobre la plataforma libre y de código abierto 3D Slicer, y se ha empleado a modo de demostración, para planificar un procedimiento concreto, una intervención de craneosinostosis.
También se ha desrrollado una aplicación para la enseñanza de la anatomía, que permite llevar a cabo en un entorno virtual y colaborativo, la disección de un cadáver tal y como se hace en las prácticas de anatomía con los estudiantes de medicina, pudiendo interactuar con diferentes estructuras anatómicas, identificarlas y colocarlas espacialmente de forma correcta.
Se ha colaborado en el desarrollo de una plataforma configurable para sistemas de entrenamiento dentro de 3D Slicer para procedimientos percutáneos guiados por ecografía, donde entrenar la coordinación visual-motora y aprender a realizar inserciones lumbares o accesos vasculares mediante tecnologías de realidad virtual o a través de fantomas físicos simulando las correspondientes estructuras anatómicas. Para identificar la posición de los elementos empleados durante el entrenamiento (sonda, aguja, fantoma) y poder llevar a cabo una evaluación objetiva, se han empleado los dos sistemas de navegación quirúrgica más extendidos, los sistemas de posicionamiento ópticos y electromagnéticos. Además, se ha empleado la impresión 3D para generar estos fantomas y las herramientas necesarias para la navegación.
Con el mismo objetivo de generar entornos de entrenamiento seguros e inmersivos y determinar su utilidad, se ha desarrollado una aplicación de entrenamiento para punciones lumbares donde el usuario interactúa con un entorno virtual empleando un dispositivo háptico, que simula la aguja empleada para estos procedimientos y con el cual el usuario percibe las diferentes resistencias al atravesar los tejidos lumbares, aportando una mayor sensación de realismo. El usuario puede visualizar la escena virtual a través de la consola informática, empleando una pantalla holográfica, o usando unas gafas de realidad virtual, lo cual permite determinar qué tecnología es más adecuada. Al finalizar el procedimiento, el usuario puede evaluarse a través de métricas recogidas durante la inserción.
Los sistemas desarrollados en este proyecto han sido difundidos en eventos internacionales como el NAMIC 2022 o en el 26th EACMFS CONGRESS 2022. Además, a través de la Cátedra de Tecnologías Médicas de la Universidad de las Palmas de Gran Canaria (https://ctm.ulpgc.es/), instrumento de la Universidad para la cooperación con la empresa en la promoción, uso, educación e innovación en tecnología médica, se ha iniciado la integración de las aplicaciones desarrolladas en los sistemas de enseñanza para la formación y entrenamiento de residentes y especialistas del sistema canario de salud en sus Hospitales Universitarios y centros.
Además de con la empresa EBATINCA SL, surgida como actividad de spin-off empresarial a partir de proyectos previos relacionados en la ULPGC, se colabora estrechamente en cuestiones afines a este proyecto con la Universidad Carlos III de Madrid (IP Prof. Javier Pascau), Hospital Gregorio Marañón de Madrid (IP Dr. Juan de León), el Laboratorio de Planificación Quirúgica del Hospital Brigham & Women’s de Boston y de la Universidad de Harvard (IP. Prof. Ron Kikinis) y del Laboratorio de Cirugía percutánea de la Universidad de Queen’s en Canadá (IP. Prof. Gabor Fichtinger), entre otros. También se ha estrechado enormemente la relación con el centro de simulación del Complejo Hospitalario Universitario Materno Infantil de Gran Canaria, cuyo responsable es el Dr. Miguel Ángel Rodríguez Florido, estrecho colaborador de los Profs. Manuel Maynar Moliner y Juan Ruiz Alzola. A raíz de esta colaboración y los resultados alcanzados con este proyecto ha surgido el proyecto de innovación educativa (PIE) “AVRIR: Aprendiendo con VR Interactiva y Remota”, que continúa el trabajo iniciado en este proyecto.
 

Deja una respuesta

Tu dirección de correo electrónico no será publicada.