LOS SISTEMAS PACS

Martínez M. A.,Jiménez A.J.R,

Medina B. V. Azpiroz L. J.



ANTECEDENTES

   En el ambiente hospitalario, la fuente más común de imágenes radiológicas son los estudios de R-X con aproximadamente el 70%. Sin embargo actualmente se producen imágenes de radiografía computada (CR), tomografía computada (CT), resonancia magnética (MRI), ultrasonido, medicina nuclear (NMI) y angiografía de substracción digital (DSA), entre otras, que ocupan el 30% restante.

   La gran cantidad de imágenes producidas para diagnóstico, ha hecho complicado su manejo, principalmente cuando deben imprimirse y archivarse. Una alternativa es el manejo de imágenes digitales en forma eficiente, a través de dispositivos conectados en red, que en conjunto ofrecen una serie de servicios que dan soporte a la operatividad de un área (radiología en este caso). Sin embargo, para obtener una buena aceptación en el medio clínico, se deben considerar la facilidad, rapidez, seguridad en el acceso d e imágenes y la calidad en su presentación. Además se pueden aprovechar las facilidades de la tecnología actual para ofrecer funciones adicionales como: mostrar varias imágenes en una misma pantalla, procesamiento de imágenes para corregirlas o mejorarlas, grabación de voz correspondiente al diagnóstico y diagnóstico asistido por computadora, entre otras.

Cabe señalar que la transmisión de imágenes a través de una red de computadoras, no es exclusivo para el área médica; existen otras áreas que requieren de la manipulación de grandes cantidades de imágenes, como en la Geología, Geografía o el Estudio de Fenómenos Atmosféricos, en donde basicamente se utilizan imágenes de percepción remota.

Consideraciones.

Actualmente existen sistemas que realizan el manejo de imágenes, conocidos como PACS (Picture Archiving and Communications Systems), en donde la comunicación en ambiente de red es la parte medular para el diseño de aplicaciones. Para el caso de las áreas de radiología en los hospitales, también es importante tener una idea clara de la forma de operar, basada en las necesidades del hospital para poder integrar un sistema de este tipo. Los puntos a explorar en este sentido son:

  • Los diferentes mecanismos de admisión y registro de pacientes.
  • Los tipos y número de pacientes que se atienden en el servicio de radiología.
  • La información relacionada al paciente, considerada como relevante para el hospital.
  • Las diferentes modalidades de imágenes médicas que se manejan en el área.
  • Los diferentes ambientes en la obtención de imágenes (por ejemplo, radionúclidos en imágenes de medicina nuclear).
  • La existencia de otros sistemas de información en el hospital.
  • El mecanismo de petición de estudios al servicio de radiología.
  • La forma en que el servicio de radiología programa los estudios de pacientes.
  • El mecanismo de interpretación y diagnóstico de los estudios realizados.
  • Las diferentes áreas del hospital que requieren consultar imágenes.
  • La ubicación física de las diferentes áreas involucradas.
  • La forma de manejar la información a donde es requerida.
  • La utilidad que se le da a la información, en cada servicio.
  • Problemas de pérdida de información.
  • Localización final de la información cuando el paciente abandona el hospital.
  • La forma de organizar la información al ser almacenada.
  • Consultas posteriores a la información.
  • Intercambio de información con otros hospitales.
Para cubrir estas necesidades se requiere de un conjunto de dispositivos, cuyas responsabilidades son el ofrecer todos los elementos operativos demandados por el área de radiología y áreas dependientes, dentro de un hospital. Estas demandas incluyen: Adquisición de Imágenes, Almacenamiento de Información, Distribución de Imágenes, Visualización de Imágenes (consulta, interpretación o diagnóstico), Registro de Resultados, Interfaz con Otros Sistemas, Comunicación Remota, Seguridad del Sistema.

 

COMPONENTES DE LOS SISTEMAS PACS

Como puede inferirse de las necesidades antes planteadas, los sistemas PACS, utilizan varios componentes (hardware y software) con funciones específicas. Estos componentes son: Digitalizadores laser para placas de R-X, digitalizadores de video, estaciones de trabajo con diferentes características, estaciones de consulta, medios de almacenamiento óptico y magnético, servicios de impresión, infraestructura para servicios de red, servidores de imágenes, servidores de bases de datos, dispositivos que generan i mágenes médicas digitales y servicios de comunicación a sistemas remotos externos, entre otros.

Como se observa en la figura No. 1, estos componentes se integran en un esquema Cliente/Servidor en una red de cómputo, para ofrecer los diferentes servicios demandados por el área de radiología de un hospital y asi cumplir con sus requerimientos operativos.


Figura No. 1. Componentes de un Sistema PACS, en un Ambiente Cooperativo Cliente/Servidor.

 

ESTANDARIZACIÓN

En las unidades de radiología de los hospitales, es muy común encontrarse con equipos de varios fabricantes, para las diferentes modalidades de imágenes que se generan; el tratar de integrar todos ellos en un sistema que los manipule es practicamente imposible. En base a esto surgió la necesidad de estandarizar el manejo y transmisión de imágenes médicas digitales. Este trabajo se inició en 1983, con la integración de un comite formado por el "American College of Radiology" (ACR), representando a la comunidad de radiólogos y la "National Electrical Manufacturers Association" (NEMA), representando a la industria en el área de radiología, de acuerdo a los procedimientos establecidos por NEMA. Los objetivos iniciales fueron trabajar con los diferentes problemas de compatibilidad, con el fin de interfazar los ambientes propietarios de las diferentes modalidades de imágenes.

Específicamente:

  1. Promover la comunicación entre imágenes digitales independientemente del fabricante que las produjo.
  2. Ofrecer mayor flexibilidad a los sistemas de almacenamiento y comunicación de imágenes.
  3. Facilitar la creación y consulta a sistemas de diagnóstico por diferentes dispositivos y en diversos lugares locales o remotos.
Los primeros resultados en los trabajos de estandarización fueron publicados en 1985, ACR-NEMA Versión 1.0, teniendo como base ideas obtenidas de formatos ya existentes. Por ejemplo, la definición de elementos de datos de longitud variable identificados con etiquetas (formato de etiquetas), fué adoptada de un estandar para grabar imágenes en cinta magnética, desarrollado por la Asociación Americana de Físicos en Medicina (AAPM). Sin embargo, como todas las primeras versiones, se detectaron varios errores y el comité encargado (ACR/NEMA) autorizó a los grupos de trabajo involucrados, la realización de dos revisiones en Octubre de 1986 y en Enero de 1988, que produjeron una segunda versión, ACR-NEMA Versión 2.0, en 1988.

En esta nueva versión se conservaron prácticamente las mismas especificaciones de interfaz con hardware definidas en la versión 1.0, pero se agregaron nuevos elementos de datos y se corrigieron varios errores e inconsistencias. En esta versión se especificó la comunicación punto a punto entre dispositivos, un grupo de comandos por software y varios formatos de datos correspondientes a los nuevos elementos.

En el tiempo que se dió a conocer la segunda versión, surgió la demanda de interfaz entre dispositivos involucrados en la generación y manejo de imágenes y redes de cómputo, sin embargo, el estandar no ofrecia ningún soporte de comunicación en red. La respuesta a estas demandas implicaba grandes cambios a lo ya establecido, considerando como restricción principal el mantener la compatibilidad con las versiones anteriores, lo cual fué un gran reto para los grupos de trabajo. De esta forma, a partir de 1988 se comenzó a trabajar en una tercera versión, en donde el proceso de diseño sufrió un cambio radical adoptando modelos para simular el mundo real, modelos de capas o pila para comunicación entre sistemas heterogéneos utilizando protocolos de comunicación en red y el modelo de cómputo Cliente/Servidor para establecer asociaciones entre dispositivos compatibles, a través de envio de mensajes.

Después de tres años de esfuerzo, se dió a conocer la versión ACR/NEMA DICOM (Digital Imaging and Communications in Medicine) llamada también DICOM 3.0, en la que participaron también varias instituciones de la comunidad internacional como JIRA (Japanese Industry Radiology Apparatus) y CEN (Comité Européen de Normalisation). Esta versión es considerada como un estandar completo, compatible con las versiones anteriores.

Las principales características de DICOM son:

  1. Intercambiabilidad de objetos en redes de comunicación y en medios de almacenamiento a través de protocolos y servicios, manteniendo sin embargo, independencia de la red y del almacenamiento físico. Todo esto a través de comandos definidos por una sintaxis y una semántica, a los que se les asocian datos. Las versiones anteriores sólo ofrecian comunicación punto a punto.
  2. Especificación de diferentes niveles de compatibilidad. Explícitamente se describe como definir un determinado nivel de compatibilidad, para escoger sólo opciones específicas de DICOM. En las versiones anteriores se especifica un nivel mínimo únicamente.
  3. Información explícita de Objetos a través de estructuras de datos, que facilitan su manipulación como entidades autocontenidas. Los Objetos no son únicamente imágenes digitales y gráficas, sino también estudios, reportes, etc.
  4. Identidad de objetos en forma única, como instancias con operaciones permitidas definidas a través de clases.
  5. Flexibilidad al definir nuevos servicios.
  6. Interoperabilidad entre servicios y aplicaciones a través de una configuración definida por el estandar, manteniendo una comunicación eficiente entre el usuario de servicios y el proveedor de los mismos.
  7. Representación de aspectos del mundo real, utilizando objetos compuestos que describen un contexto completo, y objetos normalizados como entidades del mundo real.
  8. Sigue las directivas de ISO en la estructura de su documentación multi-partes. De esta forma facilita su evolución, simplificando la adición de nuevas partes.
Los beneficios obtenidos de estos servicios son el poder interfazar los diferentes sistemas de información en un hospital, como los Sistemas PACS, Sistemas de información de radiología RIS (RIS: Radiology Information Systems) y sistemas de información administrativos HIS (HIS: Hospital Information Systems). En los sistemas PACS es donde su aplicación tiene mayor relevancia, dado que los servicios ofrecidos por DICOM pueden ser utilizados por los diferentes ambientes que generan y utilizan imágenes médicas de diagnóstico, manteniendo interoperabilidad entre ellos.

Para cumplir eficientemente con los requerimientos operativos, cada uno de los componentes del sistema debe especificarse utilizando el estandar DICOM. Para DICOM cada componente de un sistema PACS, debe definir una o más entidades de aplicación (Aplication Entity: AE), que deben mantener cierto nivel de compatibilidad, de acuerdo a responsabilidades específicas. El objetivo es: evitar problemas de comunicación originados por errores de interpretación en la información.

Especificaciones para comunicación en red.

Para la comunicación en ambiente de red, DICOM utiliza el modelo de capas para representar conexiones virtuales entre ambientes heterogéneos (diferentes plataformas de cómputo), utilizando protocolos de comunicación. Cada capa mantiene cierta responsabilidad en el manejo de la comunicación entre aplicaciones en la misma o en distintas máquinas. Para establecer una conexión virtual, los dispositivos que pretenden comunicarse deben utilizar los mismos protocolos en cada capa, para poder "hablar en el mismo idioma''. En las versiones anteriores a DICOM, se hizo la especificación para comunicar dispositivos punto a punto. DICOM agrega la posibilidad de conexión en red utilizando como base los protocolos TCP/IP (Transmission Control Protocol/Internet Protocol) y los propuestos por ISO/OSI (International Standards Organization/Open Systems Interconnection). De esta forma se aprovechan los protocolos definidos en las capas inferiores tanto de TCP/IP como de ISO/OSI y define los pr otocolos necesarios en las capas superiores para soportar la comunicación entre aplicaciones en forma eficiente.

En el caso de ISO/OSI, aprovecha los servicios de las primeras 6 capas, además de los elementos de servicio OSI para la manipulación de asociaciones (ACSE).Para el caso de TCP/IP, especifica un protocolo de capa superior DUL (DUL: DICOM Upper Layer). Para ambos casos se definen un protocolo para aplicaciones DICOM, que permite la portabilidad entre ambos ambientes sin afectar las aplicaciones ya realizadas.

DICOM especifica la forma de comunicación, a través de asociaciones, estableciendo un ambiente cooperativo entre varias entidades en donde algunas juegan un papel de cliente, otras de servidor y otras de ambos, definiendo así un esquema Cliente/Servidor.

La forma de definir las reglas de cliente y servidor, es a través de la especificación de servicios específicos pertenecientes a entidades de aplicación que definen el nivel de compatibilidad deseado.

DICOM establece dos tipos de servicios básicos: Usuario de servicios de clase (Service Class User: SCU) que juegan las reglas de cliente y Proveedor de servicios de clase (Service Class Provider: SCP) que juegan las reglas de servidor. En cada caso, las reglas son definidas durante la asociación. El establecimiento de asociación corresponde a la primera fase de comunicación entre dos AE's compatibles con DICOM, que una vez lograda, negocia los tipos de objetos a intercambiar y la forma de codificarlos.

 

CODIFICACIÓN Y COMPRESIÓN DE IMÁGENES.

El objetivo de la compresión de imágenes es el reducir la cantidad de información suficiente, que permita reproducir una imagen fielmente. Cuando el almacenamiento y la transmisión de las imágenes biomédicas se hace de forma digital, se comienzan a ver las ventajas de las técnicas de compresión en este campo.

Las técnicas de compresión de imágenes se basan en algoritmos que pueden desarrollarse tanto en hardware como en software.El rendimiento de un algoritmo de compresión de imágenes se mide en función de sus características de compresión de datos, por la distorsión inducida en las imágenes y por la complejidad de la implantación de este algoritmo. Un sistema de compresión puede modelarse como una secuencia de 3 operaciones, tal como se muestra en la figura No. 2. La transformacion (o "mapeo") efectúa una t ranslación del conjunto de pixels hacia otro dominio, donde el cuantificador y el codificador pueden utilizarse eficazmente. El cuantificador efectúa la operación de clasificar los datos transformados en clases, para obtener un número más pequeño de valores. El codificador produce un tren binario que contiene los valores cuantificados en un código de talla generalmente variable para disminuir el número de bits a transmitir o a almacenar.

Figura No 2. Modelo de un codificador de imágenes.

La mayor parte de los trabajos actuales sobre la compresión se dedican a las dos primeras partes del sistema y utilizan técnicas conocidas, como los códigos Huffman o la codificación por líneas en la fase final.

En el campo de las imágenes médicas, la compresión resuelve parcialmente los problemas de espacio de almacenamiento y de velocidad de transferencia en un medio ambiente PACS. Una vez que la imagen ha sido adquirida, ésta puede comprimirse antes de su almacenamiento o su transmisión para reducir tanto el espacio de almacenamiento como el tiempo de transmisión.

Técnicas de compresión.

Existen dos tipos posibles de compresión: la compresión exacta y la compresión irreversible. En el primer caso, las técnicas actuales permiten una tasa de compresión de 3:1 como máximo, mientras que en promedio no pasan de una tasa de 1.5:1. Estas técnicas se utilizan frecuentemente en sistemas como en la tomografía axial computada. En el caso de la compresión irreversible, las tasas de compresión son mucho más elevadas, pero las imágenes reconstruídas presentan pérdida de información o diferencias, con respecto a las imágenes originales. Sin embargo, muchos métodos de compresión irreversible se estudian en la actualidad dentro del dominio de las imágenes médicas.

Métodos Irreversibles. Los métodos irreversibles de compresión de imágenes pueden clasificarse en distintos tipos. Un grupo trata de los métodos donde existe una eliminación de la redundancia de información en la imagen. Esta redundancia está ligada a las características estocásticas de los datos.

Muchos algoritmos de compresión de datos representan a un conjunto de datos {ui,j} por otro conjunto {ei,j} sin redundancia y de una forma tal que {ui,j} pueda determinarse en forma única a partir de {ei,j}. Las técnicas de modulación DPCM y otros tipos de codificación predictiva pertenecen a este método.

En la segunda clase de métodos, la compresión se lleva a cabo a partir de transformaciones que conservan la energía de la imagen y que producen un conjunto de datos con un número mínimo de muestras. Estas técnicas se conocem como codificación por transformación, de las cuales la transformada discreta cosenoidal es la mas empleada.

Existen métodos híbridos de compresión combinan los métodos de predicción y de transformación para aprovechar la velocidad de los cálculos en la parte predictiva, con el rendimiento de la codificación por transformación.

Las características de la visión humana y los modelos de ésta, producto de estudios fisiológicos como los de Hubel & Wiesel, han sido empleados para desarrollar otro grupo de métodos de compresión (llamados por algunos autores, métodos de segunda generación), que muestran posibilidades de alcanzar tasas elevadas de compresión. Existen otros métodos que no pueden clasificarse bajo alguno de los tipos mencionados con anterioridad, sino de manera indirecta, como sería el caso del empleo de fractales.

Codificación. La última etapa de un sistema de compresión de imágenes es frecuentemente una codificación exacta o reversible. La información que ya está comprimida se puede agregar a un tren binario de datos que puede contener ya sea la información que se debe transmitir, o los códigos de protección y de identificación de las imágenes. Para emplear un número mínimo de bits, es deseable emplear la codificación con longitud variable. Cuando aparecen varios valores más seguido que otros, se pueden emplear códigos cortos para los valores más frecuentes y códigos más largos para los valores que tienen una menor probabilidad de ocurrencia. Este esquema produce un tipo de codificación muy eficiente. Entre los métodos más empleados, se puede mencionar a la codificación por líneas, que se emplea principalmente para comprimir fuentes binarias como en la impresión de documentos gráficos y la transmisión faxsimilar.

La codificación Lempel-Ziv es un tipo de método que transforma las muestras de longitud variable en códigos de longitud fija de manera adaptiva. Este es el método más empleado para la compactación de datos alfanuméricos. Otros métodos, como los códigos B y los códigos S producen códigos de longitud variable que son fácilmente implantables pero con un cierto grado de ineficiencia comparado con otros.

Los códigos de Huffman producen información compacta que se puede construir al ordenar los valores probabilísticos de entrada de acuerdo con sus amplitudes. Las dos probbilidades más débiles se combinan para formar un nuevo conjunto de probabilidades, que tiene un nivel menor al precedente. El nuevo conjunto se ordena en forma decreciente de sus probabilidades y se repite el paso anterior iterativamente hasta que las probabilidades resultantes se reducen a 2. Las palabras de código se generan a partir de la primera etapa y descienden hasta el inicio. Se asigna un cero a una de las dos últimas probabilidades y un uno a la otra.

Normas para la Compresión de las Imágenes

Se han desarrollado tres tipos de normas para la compresión de imágenes: JPEG (Joint Photographic Experts Group) para las imágenes fijas de cámaras digitales, equipos de faxsímil, impresoras y fotocopiadoras; MPEG (Motion Picture Experts Group) para las imágenes en animación, las aplicaciones multimedia y la televisión a alta definición. Estas dos normas se han establecido bajo el patrocinio de los organismos ISO y CCITT. La tercer norma, CCITT H.261 ha sido desarrollada para los sistemas visiophone y de videoconferencia. En particular, DICOM incluye especificaciones para la norma JPEG.

En general, la compresión de una imagen emplea seis procedimientos: la transformada cosenoidal discreta (DCT), la cuantificación, el filtrado, la codificación a longitud variable (VLC), la estimación y compensación de movimiento y la corrección de errores. Para la norma JPEG, la imagen se divide en sub-bloques de 8 x 8 pixeles. Enseguida, la DCT se aplica a cada sub-bloque para concentrar la energía de la sub-imagen en algunos coeficientes que representen las frecuencias. Las frecuencias superiores, invisibles al ojo, se eliminan mientras que las inferiores se conservan. Este procedimiento efectúa la mayor parte de la compresión. Los coeficientes de las frecuencias se cuantifican para reducir su amplitud y finalmente se aplican códigos de Huffman y codificación con longitud de palabra variable para reducir aún más la talla del archivo resultante. La descompresión sigue el proceso inverso, y dado que el algoritmo es simétrico, el tiempo de cálculo para la descompresión es el mismo que para la compresión.

Medidas de Distorsión

Existen criterios cuantitativos y cualitativos para establecer la distorsión en imágenes comprimidas. Las medidas cuantitativas no pueden considerarse como buenos indicadoras de la eficiencia de los métodos de la compresión. Para poder obetner un ínidce más representativo, es necesario llevar a cabo evaluaciones subjetivas de la calidad visual de la imagen.Las medidas cuantitativas se emplean frecuentemente para comparar distintos tipos de procesadores o de algoritmos. Las medidas más utilizadas se calculan alrededor del error cuadrático medio y la relación señal/ruido.

Para el uso de criterios cualitativos, es necesario conseguir un grupo de observadores expertos que comparen las imágenes originales y las imágenes procesadas en un orden indeterminado, proporcionando su opinión sobre la calidad visual de las imágenes. Se ha establecido expresar los resultados en una escala que va del 7 para una imagen sin degradación perceptible, a 1 para una imagen con una calidad extremadamente mala.

Aceptación Clínica

En la actualidad no existe un método de compresión que sea aceptado por completo por la comunidad de radiólogos, y en algunos lugares como los Estados Unidos, la legislación impide que se empleen algoritmos de compresión irreversible en imágenes médicas. Sin embargo, la proliferación de sistemas de información y los volúmenes tan grandes de imágenes que se pretende utilizar obligará al uso de algunas de estas técnicas aunque se trate de información complementaria.

Dentro de este esquema el tipo de compresión irreversible sí tiene un papel importante que jugar. De hecho, en la actualidad existen algoritmos que se adaptan al tipo de imagen en cuestión y que tienen tasas de compresión variables, dependiendo del uso que se tendrá.

El análisis de expertos de estos distintos tipos de compresión se hace a través de un estudio comparativo que se denomina estudios ROC, donde se determina a través de un panel de expertos, sí las imágenes comprimidas tienen diferencias perceptibles cuando se comparan con la imagen original. Los algoritmos más avanzados permiten emplear tasas altas de compresión, mientras se mantiene una calidad de imagen alta con diferencias casi imperceptibles.




CONVENIOS DE COLABORACIÓN

En el Laboratorio de Investigación en Computación y Procesamiento Digital de Señales e Imágenes, estamos desarrollando un sistema PACS utilizando la norma DICOM, en colaboración con la Université de Technologie de Compiègne en Francia.


Comentarios:

almm@xanum.uam.mx