El software hace coincidir imágenes de vídeo 3D con resonancias magnéticas o TAC. Fuente: UCL
Las intervenciones quirúrgicas en la cavidad pélvica-abdominal se suelen efectuar mediante una técnica robótica conocida como laparoscopia, valiéndose de la asistencia de una cámara de vídeo que permite al equipo médico examinar la zona afectada dentro del organismo y actuar en ella.
A diferencia de una operación convencional, este sistema constituye un método mínimamente invasivo, ya que evita los grandes cortes de bisturí, posibilitando un postoperatorio mucho más rápido y confortable.
Gracias al trabajo conjunto de cirujanos e ingenieros, especialmente en grandes centros universitarios, se ha logrado diseñar y modificar una gran variedad de instrumental adaptado para este tipo de intervenciones. Ahora, investigadores de la Escuela Universitaria de Londres (UCL) han dado un paso más allá, al desarrollar un método de realidad aumentada que facilitaría aun más la operación.
Según publica la revista digital británica The Engineer, el objetivo es superponer a las imágenes de vídeo tomadas por cámaras laparoscópicas los datos recogidos previamente, bien mediante una resonancia magnética (RMN) o una tomografía axial computarizada (TAC). Esto podría permitir a los cirujanos ser mucho más precisos en el manejo de sus instrumentos en el interior del cuerpo, así como evitar daños en el tejido que no se pueden ver sólo con una cámara interna.
“Al permitir ver las estructuras internas de los órganos, se puede dirigir la cirugía con mayor precisión, por ejemplo, para extirpar un tumor con mejores márgenes o proteger un vaso sanguíneo o un nervio de un daño accidental”, explica el cerebro de la investigación, el doctor Danail Stoyanov, de la UCL.
A diferencia de una operación convencional, este sistema constituye un método mínimamente invasivo, ya que evita los grandes cortes de bisturí, posibilitando un postoperatorio mucho más rápido y confortable.
Gracias al trabajo conjunto de cirujanos e ingenieros, especialmente en grandes centros universitarios, se ha logrado diseñar y modificar una gran variedad de instrumental adaptado para este tipo de intervenciones. Ahora, investigadores de la Escuela Universitaria de Londres (UCL) han dado un paso más allá, al desarrollar un método de realidad aumentada que facilitaría aun más la operación.
Según publica la revista digital británica The Engineer, el objetivo es superponer a las imágenes de vídeo tomadas por cámaras laparoscópicas los datos recogidos previamente, bien mediante una resonancia magnética (RMN) o una tomografía axial computarizada (TAC). Esto podría permitir a los cirujanos ser mucho más precisos en el manejo de sus instrumentos en el interior del cuerpo, así como evitar daños en el tejido que no se pueden ver sólo con una cámara interna.
“Al permitir ver las estructuras internas de los órganos, se puede dirigir la cirugía con mayor precisión, por ejemplo, para extirpar un tumor con mejores márgenes o proteger un vaso sanguíneo o un nervio de un daño accidental”, explica el cerebro de la investigación, el doctor Danail Stoyanov, de la UCL.
Entornos diferentes y tiempo real
El sistema se basa en la investigación existente sobre algoritmos que permiten calcular coordenadas geométricas y el movimiento que contienen las imágenes capturadas con cámaras 3D estereoscópicas.
Esto puede utilizarse para determinar la posición de los órganos visibles en tiempo real y después solaparlo al mapa virtual del cuerpo proporcionado por la RMN o TAC.
“El verdadero desafío es que la mayoría de los trabajos existentes se basa en ambientes rígidos o en entornos donde la reflectancia de la luz se puede simplificar”, puntualiza Stoyanov. Por el contrario, en la cirugía “el tejido es deformable y dinámico, además de que está húmedo, por lo que la respuesta de la luz puede ser variada y cambiar dependiendo desde dónde se esté mirando el tejido”, añade.
Así las cosas, el trabajo de estos investigadores aspira a superar estos retos mediante el desarrollo de nuevos algoritmos que trabajen en cada tipo de entorno y en tiempo real, coincidiendo con la velocidad de cada fotograma del vídeo. “Con este fin, hemos desarrollado estrategias paralelas para coincidir con las estructuras entre imágenes, de modo que la triangulación 3D sea posible con cámaras laparoscópicas”, destaca el doctor.
El sistema se basa en la investigación existente sobre algoritmos que permiten calcular coordenadas geométricas y el movimiento que contienen las imágenes capturadas con cámaras 3D estereoscópicas.
Esto puede utilizarse para determinar la posición de los órganos visibles en tiempo real y después solaparlo al mapa virtual del cuerpo proporcionado por la RMN o TAC.
“El verdadero desafío es que la mayoría de los trabajos existentes se basa en ambientes rígidos o en entornos donde la reflectancia de la luz se puede simplificar”, puntualiza Stoyanov. Por el contrario, en la cirugía “el tejido es deformable y dinámico, además de que está húmedo, por lo que la respuesta de la luz puede ser variada y cambiar dependiendo desde dónde se esté mirando el tejido”, añade.
Así las cosas, el trabajo de estos investigadores aspira a superar estos retos mediante el desarrollo de nuevos algoritmos que trabajen en cada tipo de entorno y en tiempo real, coincidiendo con la velocidad de cada fotograma del vídeo. “Con este fin, hemos desarrollado estrategias paralelas para coincidir con las estructuras entre imágenes, de modo que la triangulación 3D sea posible con cámaras laparoscópicas”, destaca el doctor.
Otras aplicaciones
Además de desarrollar técnicas de cirugía guiada por imágenes con el profesor John Kelly del Centro de Robótica Chitra Sethia y los Hospitales de la UCL, Stoyanov está trabajando ahora con Neil Tolley y Asit Arora en el Hospital St Mary, del Imperial College NHS Trust, para aplicar el software a cirugía robótica transoral, otra técnica mínimamente invasiva que permite extirpar tumores de garganta y laringe a través de la boca del paciente, proporcionando acceso a las áreas pequeñas y, a menudo, difíciles de alcanzar.
También está trabajando con el Dr. Dan Elson, del Centro Hamlyn de Cirugía Robótica del Imperial College, para averiguar si un conocimiento más preciso sobre la interacción entre la superficie del tejido y la luz basándose en los datos geométricos puede aportar información adicional acerca de la salud del mismo.
El sistema se está diseñando para funcionar con el hardware de cirugía robótica existente, pero requiere un interfaz de usuario que indique cuánta incertidumbre hay en la información representada. “En definitiva, el cirujano siempre debe tener la última palabra, pero tenemos que darle tanta información como sea posible, sin confundirlos ni proporcionarles datos erróneos”, indica Stoyanov.
El software necesita todavía ser validado para confirmar el beneficio que proporcionará a los cirujanos e identificar los procedimientos en los que será más efectivo. Con todo, Stoyanov espera que pueda estar a disposición de los facultativos en pocos años.
Además de desarrollar técnicas de cirugía guiada por imágenes con el profesor John Kelly del Centro de Robótica Chitra Sethia y los Hospitales de la UCL, Stoyanov está trabajando ahora con Neil Tolley y Asit Arora en el Hospital St Mary, del Imperial College NHS Trust, para aplicar el software a cirugía robótica transoral, otra técnica mínimamente invasiva que permite extirpar tumores de garganta y laringe a través de la boca del paciente, proporcionando acceso a las áreas pequeñas y, a menudo, difíciles de alcanzar.
También está trabajando con el Dr. Dan Elson, del Centro Hamlyn de Cirugía Robótica del Imperial College, para averiguar si un conocimiento más preciso sobre la interacción entre la superficie del tejido y la luz basándose en los datos geométricos puede aportar información adicional acerca de la salud del mismo.
El sistema se está diseñando para funcionar con el hardware de cirugía robótica existente, pero requiere un interfaz de usuario que indique cuánta incertidumbre hay en la información representada. “En definitiva, el cirujano siempre debe tener la última palabra, pero tenemos que darle tanta información como sea posible, sin confundirlos ni proporcionarles datos erróneos”, indica Stoyanov.
El software necesita todavía ser validado para confirmar el beneficio que proporcionará a los cirujanos e identificar los procedimientos en los que será más efectivo. Con todo, Stoyanov espera que pueda estar a disposición de los facultativos en pocos años.