OC-05 - DETECCIÓN AUTOMÁTICA DE FASES EN VÍDEOS QUIRÚRGICOS EMPLEANDO HERRAMIENTAS DE INTELIGENCIA ARTIFICIAL
1Universidad Carlos III de Madrid, Madrid, España; 2Hospital Universitario 12 de Octubre, Madrid, España.
Introducción: La identificación automática de las fases de una cirugía tiene aplicaciones en la documentación de videos para formación, generación automática de informes y planificación de la actividad asistencial. La cirugía endoscópica hipofisaria presenta dificultades adicionales a otras cirugías debido a la reducida área de trabajo, obstrucciones frecuentes de la lente y diversidad de flujos de trabajo.
Objetivos: Recoger un conjunto de videos quirúrgicos y utilizarlo para desarrollar un modelo de inteligencia artificial que identifique las fases con un nivel de calidad adecuado.
Métodos: Se ha generado un conjunto de 69 vídeos, etiquetados en siete fases por dos neurocirujanos. Con esos datos, se ha entrenado un modelo de deep learning que incluye dos módulos: el primero analiza cada fotograma individualmente (análisis espacial) empleando redes neuronales convolucionales. El segundo analiza la secuencia de imágenes (análisis temporal), empleando redes convolucionales temporales y mecanismos de atención, el estado del arte en este tipo de sistemas. Adicionalmente se ha entrenado un modelo para identificar herramientas utilizadas.
Resultados: El modelo logra una precisión del 74% en la identificación de fases. Sin información temporal, la precisión es de 55%, pues fotogramas de diferentes fases pueden ser muy similares. Utilizando mapas de activación se comprueba que las herramientas juegan un papel clave en la identificación de fases. El modelo de detección de herramientas alcanza un valor F1 de 89% (95% para herramientas específicas como el motor).
Conclusiones: Este estudio introduce un nuevo conjunto de datos de cirugía endoscópica hipofisaria, que ha sido utilizado para entrenar un modelo de reconocimiento de fases con metodologías avanzadas nunca utilizadas en neurocirugía. Para mejorar los resultados, se incorporará información sobre las herramientas detectadas y otras fuentes de video, como la mesa de instrumentos. Aplicaciones futuras incluyen la predicción del tiempo restante de la cirugía y la identificación de eventos adversos.