|
Cómo procesar imágenes planetarias
|
Donald C. Parkerg |
Traducción: Pedro Pastor |
|
Abstract : Una introducción a las técnicas de procesamiento y realzado de imágenes planetarias. |
|
I. Introducción |
|
Durante los últimos 5 años se ha producido una resurgir en la astronomía planetaria amateur. Esto se ha debido fundamentalmente gracias a las "webcam" (simples de usar y baratas), las cuales han permitido a los aficionados poseedores de pequeños telescopios obtener imágenes de planetas que rivalizan con las obtenidas por los grandes instrumentos profesionales (ver S&T: octubre de 2005, pág. 115). El secreto del éxito de las "webcam" es que pueden obtener imágenes con tiempos de exposición muy cortos, del orden de un décimo de duración del los tiempos de exposición que se consiguen con las cámaras CCD refrigeradas. Esto significa que las "webcam" pueden "combatir" el deterioro de la calidad del cielo: pueden capturar instantáneas en instantes de tiempo cuando no hay turbulencias.
Desgraciadamente, existen inconvenientes. Las imágenes tomadas por una "webcam" tienen mucho más ruido que las tomadas por una cámara CCD especializada para Astronomía. Sin embargo, como la señal crece en proporción directa con el tiempo de exposición y el ruido crece con la raíz cuadrada de éste, podemos apilar (promediar) muchas tomas individuales para obtener una imagen resultante con una relación señal/ruido mucho mejor que cualquiera de las originales.
Normalmente se necesitan cientos, incluso miles, de tomas individuales para obtener un resultado satisfactorio. Además, no todas las tomas individuales son aceptables, por lo tanto, antes de realizar el proceso de apilado, es necesario eliminar las que tienen pero calidad. Dicho proceso de apilado aplicado a tal cantidad de imágenes no sería factible realizarlo manualmente. Afortunadamente hay varios programas que nos permiten automatizar estas tareas.
El objetivo principal de la fotografía planetaria es obtener el máximo nivel de detalle posible sin introducir ningún artefacto espúreo. Para obtener resultados de alta calidad, es tan importante un cuidadoso procesamiento digital de las imágenes como una buena captura inicial de imágenes con la "webcam". Normalmente utilizo varios programas para procesar mis imágenes, ya que ningún programa contiene todas las herramientas que considero necesarias. |
|
II.Selección y apilado |
|
El programa RegiStax 4 (http://registax.astronomy.net), disponible para descarga libre, es uno de los programas más potentes para ordenar, alinear (registrar), apilar y filtrar imágenes de "webcam". Sean Walker describió sus funciones principales en su artículo sobre la versión 3 que apareció en el número de diciembre de 2005, página 94. Como él, yo encuentro que las opciones por defecto del programa producen imágenes excelentes, pero se pueden incluso mejorar estos resultados ajustando manualmente dichos controles.
Después de abrir un fichero AVI proveniente de la "webcam" primero selecciono una imagen de referencia de una calidad media. Esta elección suele producir un mejor alineamiento que si se escoge alguna de las mejores. Si he grabado mis imágenes en una noche con una calidad de cielo mediocre, usaré una caja de alineamiento ("Alignment box") que englobe a todo el planeta, y seleccionaré una imagen ("frame") por la mitad del vídeo con la idea de minimizar los efectos de rotación, y seleccionaré el "Quality Estimate Method Local Contrast".
Sin embargo, si la calidad del cielo fue buena durante la toma del vídeo, seleccionaré una caja de alineamiento menor, centrada en alguna característica interesante del disco del planeta como la Gran Mancha Roja de Júpiter, por ejemplo, para el proceso de registrado de imágenes. Selecciono entonces "Gradient" como "Quality Estimate Method". Una vez que he seleccionado mi punto de alineamiento y el Método de Estimación de Calidad ("Quality Estimate Method") se abre una ventana mostrando el espectro de la FFT (Transformada Rápida de Fourier) del punto elegido para registro de imágenes. Normalmente consigo un mejor alineamiento si reduzco el radio del filtro FFT, de manera que muestra un área del objetivo mayor que con los valores por defecto (Figura 1).
RegiStax-4 tiene funciones para calibración de "dark-frame" y de "flat-field". Si estoy usando una "webcam" en color, es importante convertir el "flat-frame" a monocromo antes de aplicarlo en la calibración, o los resultados no serán buenos. |
|
|
|
|
Llegados a este punto, lazo el comando de Alineamiento ("Align"). Después de unos minutos, RegiStax mostrará los resultados del proceso inicial de optimización. El gráfico contiene dos líneas en una ventana: una roja que representa la calidad de la imagen, y otra azul que representa las diferencias de alineamiento entre las imágenes. Trato de conseguir que las dos líneas sean más o menos horizontales, aunque no siempre s posible (Figura 2). Si las líneas se cortan cerca del lado izquierdo de la gráfica, debo cambiar los valores de los controles del paso anterior y repetir la rutina de alineamiento.
Una vez que estoy satisfecho con el resultado del alineamiento, desplazo hacia la izquierda el control deslizante en la base del gráfico con la intención de excluir las imágenes peores. Selecciono luego la opción "Limit", la cual me muestra el menú "Optimize". Aquí el menú "Reference Frame", y cambio la opción "Frames" del valor por defecto 50 a un valor entre 200 y 300. Una vez que le doy al botón "Create", RegiStax combina las mejores imágenes dentro de estos límites seleccionados y crear una imagen de referencia más suave para ser usada con el resto de imágenes. En este punto, aplico un filtro de enfoque ("sharpen") mediante wavelets a dicha imagen antes de utilizarla para el resto del proceso. Después del filtrado wavelet grabo dos versiones de dicha imagen: con filtrado ("sharpening") wavelet, y sin "sharpening". Hago esto porque a veces el resultado del apilado con estas pocas imágenes de la máxima calidad, es superior al resultado obtenido si les añado el resto de imágenes con peor calidad. Esto sucede así especialmente si la calidad del cielo no era buena durante la grabación del vídeo. |
|
|
|
|
A veces me salto el comando "Optimize" y paso directamente a las funciones de la pestaña "Stack". A veces noto que la post-optimización de imágenes produce artefactos importantes, especialmente si la calidad del cielo no era buena.: Lo que suele pasar es que algunas imágenes individuales quedan mal alineadas, produciendo un efecto de "imagen fantasma" cuando se fuerza el contraste de la imagen.
En el menú "Stack", abro la solapa del "Stackgrahp" en la parte de abajo a la derecha y desecho los "frames" mal alineados que quedan moviendo el botón de desplazamiento de "Difference Cutoff" hacia abajo, y el de "Quality Cutoff" hacia la izquierda - RegiStax no es perfecto, y a veces se cuelan algunos "frames" de baja calidad. Mientras realizo estos ajustes, el porcentaje de estos "frames" disminuye. Encuentro que está apilando entre 800 a 900 "frames". Un número mayor tiende a oscurecer los detalles más finos, mientras que si se utilizan pocos el ruido empieza a predominar. Finalmente, ejecuto el comando "Stack".
Después de que el apilado ha terminado, selecciona la solapa de "Wavelets". Antes de tocar los ajustes de las wavelets los pongo a cero, para que no haya ningún ajuste aplicado, y grabo la imagen como fichero TIFF a 16-bits. Si en un futuro decido reprocesar la imagen puedo volver a partir de esta imagen inicial sin tener que repetir el proceso de alineamiento. Si se ha utilizado una cámara a color para grabar el vídeo es muy probable que aparezcan franjas de color causadas por la dispersión atmosférica. Para esto utilizo la función "RGBShift" que se menciona en el artículo de Walker citado anteriormente. Cuando un satélite del planeta aparece en el campo, entonces proceso toda la película AVI otra vez, y realizo el proceso de alineamiento sólo sobre el satélite y grabo la imagen en otro fichero para añadirlo posteriormente en Photoshop. |
|
|
|
|
Ahora estoy en disposición de comenzar el proceso de realzado de la imagen ("sharpening"). Me auto-impongo algunos límites en este proceso con la intención de no añadir detalles artificiales a la imagen. Limito la agresividad del filtro de wavelets basándome en varios factores tales como: calidad de la imagen, número de "frames" apilados y el tipo de detalle que quiero mejorar. |
|
III. Realzado con wavelets ("Wavelet sharpening") |
|
El filtro de wavelets en RegiStax se controla mediante seis botones de desplazamiento ("sliders") y tres controles de valores. Tomando estos controles del 1 al 6 estos controlan detalles cada vez de mayor tamaño, de mayor tamaño angular (Nota del Traductor: a menor frecuencia espacial mayor tamaño de detalle. El ruido representa características de la mayor frecuencia espacial posible de la imagen). Los dos primeros valores de configuración se encuentran por encima de los controles de desplazamiento. El valor "Initial Layer" controla el nivel de las frecuencias más altas del filtro de wavelets. El valor "Step Increment" aumenta o disminuye el rango de frecuencias del filtro. El último control está situado en las parte superior de la ventana, y tiene el nombre de "Wavelet". Cuando se pincha es dicho botón, aparece una ventana con una tabla de celdas con números, las cuales muestran los valores del propio filtro. Incrementando el valor de la celda central consigo mejores resultados que con el valor por defecto de 50. Como en decisiones anteriores, la opción elegida depende de la calidad del conjunto de imágenes apiladas. Si el vídeo fue tomado en condiciones muy buenas, comenzaría por incrementar el valor central (de frecuencia) a 1200 y observar como afecta a la imagen subiendo el valor del primer control de desplazamiento ("slider"). Hay que tener en cuenta que números más bajos de esta celda representan frecuencias espaciales menores (detalles más grandes) y pasos más pequeños entre los 6 niveles ("layers"). (Figura 4).
Cuando estoy satisfecho con este ajuste (el del valor de la celda central) desplazo hacia la derecha el control del primer nivel de Wavelets todo lo que pueda, parándome cuando considero excesivo el nivel de ruido que aparece. Después hago lo mismo con el segundo nivel, y puede que también con el tercero, hasta que esté satisfecho con el resultado. El resto de niveles (los de frecuencias espaciales mayores) sólo los utilizo si las condiciones de calidad del cielo eran malas, o si el objeto que estoy procesando es muy pequeño (como Urano, Neptuno, o puede que Marte). Durante este proceso utilizo las funciones "Gamma" e "Histogram" para aumentar el contraste pero evitando cortar ("clipping") los valores altos (luces altas). Me he dado cuenta que el uso de las funciones "Brightness" y "Contrast" tienden a cortar ("clipping") las zonas más brillantes y las más oscuras de la imagen (Figura 3). Finalmente grabo la imagen realzada como fichero TIFF a 16 bits. |
|
|
|
|
IV. Deconvolución |
|
Aunque con esto hemos podido terminar con el procesamiento con RegiStax, se pueden aplicar nuevos procesos que pueden mejorar, todavía más, la imagen. Por lo tanto, a continuación abro en MaxIm DL la versión de la imagen realzado con wavelets. Aquí, giro la imagen y cambio el muestreo de píxeles ("resampling"). Prefiero realizar estos procesos en con este programa antes que con RegiStax porque MaxIm utiliza un potente algoritmo de muestreo basado en interpolación bicúbica que, para cada pixel, toma información de los vecinos y crea una nueva imagen redimensionada más suave. Prefiero realizar estas modificaciones entes de seguir procesando por que si lo hago al final la imagen resultante es demasiado blanda. Normalmente redimensiono mis imágenes a un 150%, aproximadamente, de su tamaño original. Con esto consigo una imagen bastante suave y me ayuda a disimular los efectos del exceso de procesamiento.
Si he usado una cámara a color, separa las imagen en sus tres componentes (RGB) y realineo cada uno manualmante basándome en alguna característica de su superficie mejor que utilizando el limbo. Para esto utilizo la función de menú "Process > Align" y alineo usando la opción "Overlay". A veces, además de esto, cojo el de los canal de color que tiene mejor detalle y lo utilizo como si fuese un canal de luminancia. Normalmente suele ser el canal Rojo, por lo tanto, la combinación de color resultante produce una imagen "RRGB". Si he usado una cámara monócroma, convierto las imágenes individuales de R, G, y B a monocromo (RegiStax siempre salva sus ficheros TIFF como imágenes en color!!), las alineo usando una característica de la superficie, y hago una combinación de color. |
|
|
|
|
En este punto, vuelvo a guardar la imagen como TIFF de 16-bits, y hago un duplicado para seguir con el procesamiento con el filtro de deconvolución. Normalmente uso el Lucy_Richardson que ofrece MaxIm DL ("Filter > Deconvolve"). Elijo "Extract" en la herramienta "Noise Extraction Tools" y selecciono 16 puntos del fondo para determinar el nivel de ruido de mi imagen. Mi siguiente paso es poner manualmente el valor del radio de la PSF ("Point Spread Function" = función de distribución del punto - de luz, se sobre entiende). Este valor debe ser apropiado para aplicar la deconvolución. La mayoría de los algoritmos de deconvolución requieren que este valor del radio se determine directamente sobre la imagen para obtener una valor exacto, pero las imágenes planetarias tienen un tiempo de exposición tan corto que no sale ninguna estrella con la que medir dicho valor sobre la imagen. Este es el motivo por el que utilizo MaxIm DL, porque me permite poner el valor del radio a mano y experimentar hasta que encuentro uno que funciona bien. Normalmente elijo un valor entre 1.0 y 2.0 píxeles. y aplico dos iteraciones de deconvolución (figura 5). El algoritmo Lucy_Richardson tiene una ventaja sobre el "unsharp-mask" (máscara de desenfoque): puede extraer detalles finos a la vez que suprime ruido. Sin embargo, debe ser aplicado con moderación. Frecuentemente obtengo buenos resultados repitiendo el proceso pero con un valor del radio diferente la segunda vez.
Una vez que estoy satisfecho con el resultado, vuelvo a grabar la imagen como TIFF a 16-bits y la abro de nuevo con Photoshop CS2 para realizar los ajustes finales: balance de color, saturación y reducción de ruido si fuese necesario. Suelo retocar el brillo, el contraste y el equilibrio de color mediante una capa de "Curvas", siempre evitando recortar ("clipping") el histograma. Finalmente inspecciono los detalles y la granularidad de la imagen. Si lo considero necesario aplico moderadamente un filtro "pasa-altos" para añadir un poquito más de contraste, o un filtro "mediana" para reducir cierto ruido residual. Ahora ya considero que mi trabajo está terminado y guardo la imagen como fichero PSD. Para poder compartir mi imagen por e-mail o publicarla en la web, debo aplanar las capas ("Layer > Flatten Image") y convertirla en formato de 8-bits ("Mode > 8 Bits/Channel"), finalmente la guardo en formato JPEG.
Hay que tener en cuenta que todos estos consejos están basados en mi telescopio, mi cámara y mis condiciones de observación. Por lo tanto, mis opciones y ajustes puede que no se apliquen igual de bien a otras situaciones. Cada uno debe experimentar dichos ajustes de forma que le den los mejores resultados a su situación particular.
Los planetas siempre están cambiando, por lo que la obtención de imágenes de estos cuerpos es una experiencia gratificante. Aunque el proceso de captura de imágenes y su posterior procesamiento es una tarea que consume gran cantidad de tiempo, los resultados tienen valor científico. Incluso en esta época de la exploración del Sistema Solar mediante naves dirigidas, los aficionados todavía pueden hacer aportaciones significativas a las ciencias planetarias. Con el constante progreso actual de las cámaras y de los programas, estoy seguro que los aficionados seguiran teniendo un lugar en la astronomía planetaria durante los próximos años. |
|
Descárgatelo en formato PDF aquí |
|
|