Jump to content

Workflow del Pixinsight (beta forever)


ricardo

Publicaciones recomendadas

Ultimamente vengo a todo trapo con los tutoriales, trucos y tecnicas del pixinsight, que si bien estoy verde, me gustaria comparar los workflows que hacen para el procesado.

La diferencia entre DSLR y CCD (y mas aun monocromo) es grande a mi entender en terminos de pasos. Yo estoy armandolo para CCD monocromo, y seria algo asi

Calibrado no hago aun, si proponen un workflow de calibrado buenisimo.

Data Lineal

A1) StarAlignment de todos los lights de cada canal. Genero los archivos "registrados" por canal.

A2) StarAlignment de todos los lights de los tres canales a la vez (genero TODOS los archivos registrados a la vez). Entiendo que no se gana ni pierde nada, ya que al fin y al cabo despues todo termina siendo cropeado.

B) ImageIntegration de todas las imagenes registradas DE CADA CANAL. Es importante en este paso seleccionar el "rejection algorithm" Winsorized Sigma Clipping para eliminar los hot y cold pixels.

C) Nuevamente StarAlignment pero de las tres imágenes resultantes del paso anterior.

D) LRGB Combination con los parametros default.

E) Dynamic Crop con el ScreenTransferFunction en "A" para ver que data voy a cropear sin pasarla a no-lineal.

F) BackgroundNeutralization tomando como referencia un preview de una zona del cielo que tenga el fondo lo mas uniforme y parecido a un "fondo de cielo" valga la redundancia. Si la imagen da, hago el mismo proceso pero en vez de elegir un preview, selecciono varios y hago un PreviewAggregator para que me los junte a todos en una imagen y posteriormente usarlo como referencia.

G) ColorCalibration usando como white reference un preview que contiene la parte mas brillante del objeto que fotografie, y como background reference uso una nueva imagen generada a partir de los previews que use antes para neutralizar el fondo.

H) DynamicBackgroundExtraction (DBE) con al menos 20 samples por fila.

Hasta aca use el ScreenTransferFunction para "ver" lo que estaba tocando, ya que al ser lineales no se ve casi nada. A esta altura tengo una imagen lineal con algunos defectos corregidos, pero oscura. Paso siguiente es pasarla a no-lineal (y por ende hacerlo convencido) ya que en consecuencia podemos perder datos valiosos.

I) HistogramTransformation. Lo hago en dos pasadas, evitando forzar el histograma de movida. La primera me revela las estructuras, la segunda apunto a dejarla como punto de partida para todo el resto del post-procesado.

De aca en adelante es importante tener un "buen ojo" y entender la foto, cosa que me resulta complicado, por eso guardo la imagen resultante por si todo se desmadra.

J) StarMask para trabajar selectivamente sobre las estrellas para reducirlas, o sobre el resto de la imagen. A veces funciona de primera, a veces hay que retocar el starmask (HistogramTransformation, ATrousWavelets o Binarize para que no proteja ruido).

K) StarMask protegiendo el fondo y/o objeto, o sea, trabajando sobre las estrellas. Le aplico un MorphologicalTransformation (Erosion) para reducir el tamaño de las estrellas. En algunos objetos la mascara pasa de largo a las estrellas brillantes o grandes, para eso modifico los parametros del proceso para que me incluya estrellas mas grandes, y asi la mascara es efectiva. (Subo el parametro "scale" para que me tome estrellas grandes).

L) Invierto la mascara y aplico dos iteraciones del HDRWavelets, la primera con 4 capas y un deringing de 0.250 y la segunda con 2 capas y un deringing de 0.150, para las estructuras mas chicas. De la experiencia, una mala mascara de estrellas termina generando un efecto "ojalillo" en las estrellas desprotegidas.

M) Eventualmente aplico un Deconvolution, pero raras veces.

N) Como ultimo paso uso CurvesTransformation, levantando Saturacion, y jugando un poco con Luminancia o con RGB en conjunto (este ultimo es para levantar brillo ya que el HDRWavelets deja las imágenes mas apagadas.

O) Grabo, o empiezo todo de nuevo :lol:

La idea de este post es, por un lado comparar procesos y por otro seguir aprendiendo a manejar el Pix, que me ha demostrado ser la mejor herramienta para post-procesamiento.

Escucho ofertas!

Saludos y buenos cielos!

PD: Agrego, estoy usando el Pixinsight 1.6.9 en Windows y en Ubuntu (gracias Emilio!) que anda sensiblemente más rápido!

iOptron CEM70AG
Askar ACL200, Duoptic ED Pro 60, APO 90, Photo 90 5 elementos
QHY600M, QHY294M Pro, QHY268C, QHY183M, QHY5III462C

Garin - Buenos Aires - Argentina

Duoptic - Espacio Profundo
Mi Galeria de Fotos IG: @rfcontrerasb

Enlace al comentario

En realidad estoy hablando de la ultima versión, podes usarla por 30 días con una licencia de demo, o comprarla directamente.

Saludos y buenos cielos!

iOptron CEM70AG
Askar ACL200, Duoptic ED Pro 60, APO 90, Photo 90 5 elementos
QHY600M, QHY294M Pro, QHY268C, QHY183M, QHY5III462C

Garin - Buenos Aires - Argentina

Duoptic - Espacio Profundo
Mi Galeria de Fotos IG: @rfcontrerasb

Enlace al comentario

Hola Sergio, gracias por responder.

Para deconvolutions, use los parametros default salvo el Std. Deviation en 4 (creo que el default es 2). La deconvolucion es Regularized Lucy Richardson.

Saludos y buenos cielos!

iOptron CEM70AG
Askar ACL200, Duoptic ED Pro 60, APO 90, Photo 90 5 elementos
QHY600M, QHY294M Pro, QHY268C, QHY183M, QHY5III462C

Garin - Buenos Aires - Argentina

Duoptic - Espacio Profundo
Mi Galeria de Fotos IG: @rfcontrerasb

Enlace al comentario

Crear una cuenta o conéctate para comentar

Tienes que ser miembro para dejar un comentario

Crear una cuenta

Regístrese para obtener una cuenta nueva en nuestra comunidad. ¡Es fácil!

Registrar una nueva cuenta

Conectar

¿Ya tienes una cuenta? Conéctate aquí.

Conectar ahora
×
×
  • Crear nuevo...