Jump to content
  • Exposición Optima

    1. 1

      Sobre la Mejor Combinación de ISO y Tiempo de Subexposición en Astrofotografía con Cámaras DSLR

      Lo que sigue es el resultado de mi trabajosa (y entretenida) búsqueda de una respuesta consistente a la pregunta: ¿Dadas las características de mi setup, el tipo de cielo (cuan polucionado) y el objeto que quiero fotografiar, y dado que cuento con X horas para hacerlo, cuál es la mejor combinación de ISO y tiempo de cada subexposición que debo utilizar para maximizar la calidad de la toma apilada final?   Por Ignacio Diaz Bobillo@ignacio_db   Lo que sigue es el resultado de mi trabajosa (y entretenida) búsqueda de una respuesta consistente a la pregunta: ¿Dadas las características de mi setup, el tipo de cielo (cuan polucionado) y el objeto que quiero fotografiar, y dado que cuento con X horas para hacerlo, cuál es la mejor combinación de ISO y tiempo de cada subexposición que debo utilizar para maximizar la calidad de la toma apilada final?   Hasta hace un tiempo atrás busqué la respuesta haciendo pruebas de campo, pero lo cierto es que son tantas las variables y las combinaciones posibles, que el problema se hace rápidamente inmanejable. También busqué la respuesta en internet, pero cuando se trata de cámaras DSLR, encontrás todo tipo de opiniones y en algunos casos la confusión es grande.   Las referencias del tema en el caso de CCDs de uso en astronomía son mucha más precisas y claras, y es en base a esa forma de encarar el problema que busqué una aproximación cuando se trata de cámaras DSLR.  Verán, la principal diferencia entre una y otra, es que la DSLR puede fijar distintos niveles ISO mientras que la CCD astronómica no. Claro que hay mas diferencias (refrigeración, CCD vs CMOS, cantidad de bits en los niveles, etc.), pero para responder la pregunta inicial lo que genera más confusión es el bendito ISO.   Buena parte del material en este reporte resulta de la combinación de varias fuentes en internet, pero con un enfoque personal que me ayudo a comprender los distintos aspectos del problema y su interrelación, y que espero ayude a otros. Tratare de indicar las mejores referencias cuando corresponda. En algunos casos usaré la terminología en inglés, un poco por inercia y otro poco porque es estándar en toda la literatura y creo bueno familiarizarse con ella.   Señal Arrancamos fijando algunas variables. El análisis que sigue asume un dado tren óptico y una dada geometría y eficiencia cuántica del sensor (sea CMOS o CCD). Se entiende por eficiencia cuántica (QE) la proporción de fotones que pegando en el pixel, son convertidos en electrones. Claro que éstas son variables importantes a la hora de elegir un setup para mejorar la señal de las tomas, pero por lo general  quedan determinadas por el equipo que tenemos. Solo déjenme aclarar que a mayor apertura del telescopio, mayor captura de fotones, o sea mayor señal. A menor focal, mayor densidad (por unidad de área) de fotones en el plano del sensor, o sea mayor número de fotones por pixel (mayor señal por pixel).    Análogamente, a mayor tamaño de pixel, mayor cantidad de fotones capturados por el mismo (a costa de perder resolución). Finalmente, a mayor eficiencia cuántica del sensor, mayor conversión de fotones en electrones (que es lo que se mide), por lo tanto mayor señal.   Está claro entonces lo que podemos hacer para maximizar la señal, pero son pocas las variables que podemos “ajustar” sin poner unos pesos, es decir, sin cambiar el hardware. Aunque hay una variable MUY importante que sí podemos cambiar, que es el tiempo total de integración (T), es decir cuantos minutos pasaremos recolectando fotones.   Ruido El otro aspecto que nos queda por analizar es el “ruido”, y qué podemos hacer para minimizarlo, en nuestra lucha para maximizar la relación señal a ruido (SNR o S/R) que determinará, junto con la resolución, la calidad final de la imagen. Para eso lo mejor es caracterizar y si es posible ponderar o medir las distintas fuentes de “ruido”.   Digo “ruido” entre comillas ya que incluyo toda señal espuria o no deseada, que ensucie la señal del objeto a fotografiar, sea aleatoria o no. Entonces tenemos, a nivel pixel: (ver DxOMark - Noise characterization ,http://theory.uchicago.edu/~ejm/pix/20d/tests/noise/index.html, http://en.wikipedia.org/wiki/Image_noise#Sensor_Heat  y el sitio de QSI)   Ruidos Aleatorios: Estos son los ruidos que aspiramos a atenuar con integraciones largas y apilado. Ruido de Poisson o Shot Noise: generado por la irregularidad de la lluvia de fotones sobre el pixel, cuyo desvío estándar (o valor RMS) crece con la raíz cuadrada del conteo de fotones. (Esta propiedad surge de la teoría de colas, cuando la probabilidad de un arribo a la cola es igual para intervalo de tiempos iguales.) Entonces el Shot Noise (RMS) generado por un objeto que produce un flujo de electrones O en e-/min (luego de que los fotones son “convertidos” en el sensor), es  (O*t)1/2, donde t es el tiempo de la integración en minutos. Notar que éste ruido es propio del proceso físico e independiente de la tecnología del sensor. Pero claro, el nivel de señal crece linealmente con el tiempo, O*t, así que si éste fuera el único ruido estaríamos muy bien, ya que la SNR crecería como (O*t)1/2. Ruido de lectura o Readout Noise: es el ruido que se produce al leer el contenido de electrones en el pixel, y su valor RMS se denomina con la letra R en e-, aunque como ya veremos más adelante, es importante conocer no solo su desvío estándar sino la distribución general del ruido. Todas las tomas incluyen éste componente de ruido, aún las de “cero” duración (de ahí viene el uso de Bias Frames para medirlo y en parte compensarlo).  Ruido térmico o Dark Current: se produce por la agitación térmica de los electrones y las impurezas e imperfecciones del silicio, disparando falsos conteos de fotones en el pixel (como si hubiera pegado un fotón). El valor RMS de éste ruido crece en forma aproximadamente lineal con el tiempo, D*t, donde D está dado en e-/min, y a su vez éste valor crece con la temperatura del sensor (en general se duplica cada 6°C-8°C aprox. en CCDs, no sé de una regla general en el caso de CMOS).   “Ruidos” sistemáticos: Estos son los ruidos que aspiramos a remover con la calibración. Ruido térmico “repetitivo” (ej, hot pixels), que se calibra con Dark Frames.. Ruido de lectura repetitivo, que se calibra con Bias Frames. Ruido de patrón fijo o Fixed Pattern Noise (FPN), que se calibra, en parte, con Flat Frames. Este puede deberse, entre otras cosas, a pequeñas diferencias en el QE de los pixels, además del clásico viñeteo o motas en el sensor. Ruido periódico, evidente al hacer un análisis espectral (FFT) del ruido, producido por la electrónica de la cámara o por interferencias.   “Ruido” de cuantificación, producido al pasar de un conteo de electrones a un conjunto de niveles predeterminado por el conversor Analógico/Digital, o A/D. La forma de mitigar éste ruido es utilizando bien el rango dinámico del sensor en relación al objeto que deseamos fotografiar. Más adelante veremos que la elección de ISO tiene implicancias en éste aspecto. “Ruidos” no aleatorios” pero cambiantes: difíciles de caracterizar y de calibrar, cuya única mitigación es mediante el dithering durante la adquisición, que no es más que una forma de hacerlo pseudo-aleatorio para luego fíltralo en el apilado.   Polución lumínica o Skyglow Esto merece un capítulo aparte.  EL fondo del cielo sin estrellas siempre mantiene un resplandor, producto de la atmosfera y otros fenómenos físicos (ej., fase lunar). Este se agrava fuertemente con la polución lumínica cerca de centros urbanos, que torna al cielo pálido y con solo las estrellas más brillantes visibles, apenas mitigable mediante filtros que siempre dejan algo en el camino. Ahora bien, si aceptamos que los sensores (CMOS o CCD) son lineales, es decir que acumulan conteo de fotones (a menos de un factor) sin saturar, el skyglow parecería muy fácil de “calibrar”: simplemente lo medimos en el mismo cuadro y lo “restamos” de toda la imagen (de hecho es lo que hacemos cuando fijamos el nivel negro en el histograma). El problema es que nos olvidamos de algo muy importante: la señal del skyglow también produce ruido de Poisson!  que se suma al propio del objeto de interés. ¿Qué pasa en las zonas donde la señal del objeto es débil? Ésta se ve inundada por el shot noise del resplandor del cielo, ya que el shot noise del objeto sería bajo en ese lugar. Esto es lo que arruina la S/R en los detalles tenues de una toma, y la razón de lo valioso de ir a un lugar con cielo oscuro (idealmente alejado de toda luz artificial, elevado, y apuntando al zenit).    En la práctica, a éste problema hay que agregarle el hecho que las cámaras sí saturan, o bien agotando la capacidad de conteo del sensor (Full Well Capacity), o bien agotando los niveles al convertir el voltaje analógico del sensor a un número entero representado por una cantidad finita de bits (8, 12, 14 ó 16 bits por lo general), ganancia mediante. Así que la polución lumínica no solo agrega ruido aleatorio, sino que también quita rango dinámico!   Por último un comentario sobre gradientes y difracción atmosférica, que los cuento dentro de la categoría “calibrables”, aunque muchas veces dan bastante más trabajo que restar un simple nivel único.   Modelo de Ruido Ahora pasamos a la parte más cuantitativa del reporte, donde buscamos modelar, medir y cuantificar los distintos ruidos para finalmente poder calcular y así encontrar la combinación óptima de ISO y cantidad de subexposiciones (dado un tiempo de integración total).   En lo que sigue vamos a hablar del nivel de señal y de ruido en un pixel, utilizando la nomenclatura y definiciones que ya introdujimos.  Asumiremos que las subexposiciones ya fueron calibradas eliminando los “ruidos” del tipo 2, y que los del tipo 3 y 4 son despreciables en éste caso (para simplificar).   Utilizaremos un concepto importante cuando se trata de procesos estocásticos (aleatorios) independientes y estacionarios. Estos son muchas palabras pomposas para decir que todos los términos aleatorios no correlacionan entre sí, y además su caracterización estadística no cambia en el tiempo (ej., R y D son constantes en el tiempo).  También vamos a asumir, para simplificar, que las distribuciones son gaussianas o normales.    Esto nos permite decir que si una variable aleatoria (ej.,  la señal ruidosa)  es la suma de otras variables aleatorias, entonces su variancia (el cuadrado de su desvío estándar) también lo es. Es decir que los componentes RMS se suman en cuadraturas (tipo Pitágoras1).   Entonces, tenemos que para una subexposición de duración t, la señal  deseada  Ssub y  el nivel de ruido RMS, Nsub , en un pixel  están dados por:   S sub = O * t   N2sub = (P + O + D2*t)*t + R2 Donde O es el flujo de electrones por minuto generado por los fotones que llegan del objeto sobre el pixel en cuestión, P es lo mismo pero generado por los fotones del skyglow. (Utilizo la P de polución).  Estos dos primeros términos corresponden al shot noise del cielo y el objeto. El siguiente es el ruido térmico y el último el de lectura. Cabe aclarar lo siguiente sobre los factores D y R. Hay un factor D o R antes de calibrar y otro menor después de calibrar. Hay que asegurarse de usar el valor correcto en cada caso. En la ecuación de ruido de arriba, usaremos los datos post-calibrado.Ahora si apilamos (sumamos) las K = T/t subexposiciones, y aplicamos el principio de sumas en cuadraturas al conjunto, tenemos: S  = O * T N2 = ∑N2sub = (P + O + D2*T)*T +K* R2 (1) Una digresión matemática; existe una fuerte conexión entre la norma euclídea que define distancia como la raíz cuadrada de la suma de los cuadrados de las coordenadas, y la cuadratura definida aquí para variables aleatorias. Por eso se dice que dos variables aleatorias son ortogonales cuando no correlacionan entre si, y que una proyecta sobre la otra cuando sí, similar a lo que decimos de vectores en espacios euclídeos.   Queda en evidencia entonces como contribuye cada componente del ruido al ruido total, y como juega fraccionar la integración total en subexposiciones. La primera conclusión que sacamos es que el ruido total se minimiza con K=1, es decir, haciendo una única toma de duración T. El problema es que en la práctica no podemos hacer tomas muy largas, o bien por la calidad del guiado, o porque el skyglow termina saturando el sensor, o porque las partes brillantes del objeto de interés termina saturando el sensor, o porque el tráfico de aviones arruina muchas tomas largas, o por infrecuentes ráfagas de viento, etc.Asumiendo que tenemos un guiado razonable y un cielo sin mucha “actividad” (dos hipótesis frecuentes), queda el tema de saturación y rango dinámico para analizar con mayor profundidad, ya que es el principal factor que muchas veces limita el tiempo de subexposición en cielos polucionados.Hablamos de un criterio de prevención de “overflow” que debemos contemplar para elegir K, la cantidad de tomas. Si llamamos G a la ganancia 2  de la cámara que transforma los niveles a la salida del A/D (llamados ADUs) en electrones acumulados en el sensor,  y si Omax  es la señal fuerte del objeto de interés que esperamos capturar sin recortar, entonces debemos garantizar que: Promedio del Bias Frame (en ADUs) + (P + Omax)/G*t   < 2n-1 Y que: (P + Omax)*t   < Full Well   Donde n es el número de bits del A/D. El promedio del Bias Frame se agrega ya que la saturación ocurre antes del calibrado. Esta condición garantiza que la elección de t sea tal que la parte más brillante del objeto a fotografiar no sature el sensor. De hecho, estamos haciendo una aproximación al tomar el promedio del Bias Frame, ya que éste tiene su distribución. Pero como la señal es tan fuerte en ese pixel, y  por lo tanto la SNR, solo nos preocupamos de no saturar el pico de la distribución, o sea su promedio.Distinto es el caso de los pixels que reciben señales tenues, donde debemos aplicar un criterio de prevención de “underflow” que es menos obvio. Como hemos hecho la hipótesis gaussiana, que es la que nos permite hacer un apilado efectivo en pixels de baja señal, debemos asegurarnos que las distribuciones no queden “recortadas” y que se comporten verdaderamente como gaussianas. Me refiero al shot noise correspondiente al skyglow. Debemos asegurarnos que las subexposiciones sean lo suficientemente largas como para despegar la distribución por el ruido de Poisson del skyglow, del margen izquierdo del histograma. En realidad lo que ocurre es que para tiempos cortos, la distribución de Poisson es asimétrica y diferente a la gaussiana.  Para esto tomamos un margen de seguridad de 2 desvíos estándar:    (2) Esta es otra fuente de confusión, ya que la literatura define la ganancia “para atrás”, es decir, desde la salida del conversor A/D hacia el sensor. O sea que la lectura en ADUs, multiplicada por la ganancia G, nos da los electrones acumulados en el sensor.             (P + Omin)*t/G - 2*((P + Omin+ D*t)*t + R2)1/2 /G  >  0   Donde Omin es el flujo de electrones de las partes tenues del objeto de interés, mientras que D y R corresponden a los valores pre-calibrado. Esto garantiza que t es lo suficientemente grande como para que el promedio de la distribución se encuentra dos desvíos estándar a la derecha del cero en el histograma. En la práctica, en cielos medianamente polucionados se puede ignorar Ominsiendo en general mucho más chico que P.Entonces, la optimización consiste en buscar el t más grande que satisfaga las condiciones de overflow, y asegurarnos que estamos por encima del mínimo para la condición de underflow.   DSLR Parece bastante sencillo, pero la cosa se complica un poco más, ya que en el caso de cámaras DSLR, los parámetros de ganancia G y de ruido de lectura R dependen del ISO elegido, por lo que la optimización debe incluir el espacio de dos dimensiones: ISO y t. Antes de continuar vale la pena hacer una aclaración que siempre es motivo de confusión. Los sensores de las cámaras DSLR (ya sean CMOS o CCD) tienen una sensibilidad dada (eficiencia cuántica) que NO varía con el ISO. Cambiar el ISO solo cambia la ganancia del amplificador analógico que se encuentra a la entrada del A/D, por lo que modifica el factor de conversión de electrones acumulados en el pixel del sensor a un número digital entero (salida del A/D). Esto permite compatibilizar el rango dinámico del objeto a fotografiar con el rango dinámico de la cámara. La confusión viene de la época del film, cuando sí un mayor ISO implicaba una mayor eficiencia cuántica de la emulsión.Otro aspecto importante que marca diferencias con las CCD astronómicas, es el hecho que éstas por lo general se refrigeran a temperaturas muy bajas, reduciendo así el ruido térmico a niveles despreciables. Tal es así, que es común no incluir el término correspondiente al Dark Current, en los modelos de ruido de dichas cámaras. Distinto es el caso de las DSLR que operan a temperaturas “normales”.Creo que lo mejor es utilizar un ejemplo específico para mostrar cómo juegan las variables.   Caso Canon 1000D Vemos que para poder analizar un caso específico, debemos contar con estimaciones confiables para una serie de parámetros. Concretamente necesitamos saber, para nuestra cámara, los valores de G, R y D, que como dijimos varían con la elección de ISO. Asumiendo que la cámara puede fijar 5 niveles de ISO (100, 200, 400, 800 y 1600), entonces necesitamos determinar 3 x 5 = 15 parámetros.  A éstos hay que agregar el Full Well del sensor. A su vez, tenemos que estimar el flujo P para nuestro lugar de observación y setup, así como también tener alguna idea de Omin y Omax del objeto a fotografiar.Las cámaras CCD astronómicas documentan éstos parámetros en sus especificaciones, que al no tener ISO son menos. Las cámaras DSLR no los indican, por lo que hay que medirlos. Hay laboratorios que se dedican a esto, cubriendo una gama amplia de cámaras DSLR comerciales. Ver por ejemplo:http://www.clarkvision.com/imagedetail/digital.sensor.performance.summary/index.htmlLamentablemente, en mi caso poseo una Canon 1000D, y no pude encontrar mediciones de terceros, por lo que tuve que realizar estimaciones propias. Afortunadamente, es bastante más sencillo de lo que parece, y no requiere de ningún instrumental especial. Solo la cámara en el banco, una computadora, cierto software (gratis) y un poco de paciencia y método.  En mi caso seguí la metodología descripta por Craig Stark (autor de PHD) en la siguiente referencia:http://www.cloudynights.com/item.php?item_id=2001Aplicando ése método pude comprobar que la Canon 1000D presenta un comportamiento bien lineal en sus tres canales RGB. Como ejemplo, les dejo la regresión lineal correspondiente a la medición de la ganancia en ISO 1600, que arroja como resultado 0,704 e-/ADU.     Imagen 1 La siguiente tabla muestra un resumen de los parámetros estimados para los distintos ISO:   Imagen 2 Se pueden destacar varias cosas de éstos datos:  1. El ruido de lectura (en e-) crece rápidamente por debajo de ISO 400, sugiriendo que apilar muchas tomas a bajo ISO puede ser problemático. Claro que a bajo ISO uno haría comparativamente menos tomas de más duración. 2.  Como era de esperar, la ganancia se duplica3  aproximadamente con la mitad del nivel de ISO. Esto tiene directas implicancias en el manejo del rango dinámico de la cámara. En ISO 100 la cámara alcanza a saturar el sensor (Full Well Capacity) al mismo tiempo que satura el A/D, alcanzando valores de 4095 (recordemos que es una cámara de 12 bits). Este ISO es el que brinda mayor rango dinámico. Para ISOs mayores, el conversor A/D satura siempre antes que el sensor. Ver la siguiente tabla al respecto, que es bastante elocuente.   Imagen 3 (3)  Quizá lo más práctico sería medir con mucha precisión (muchos puntos de interpolación), la ganancia para ISO 1600, y luego usar múltiplos de 2, 4, 8 y 16 para obtener las ganancias a otros niveles de ISO.  Lo que esto indica es que si utilizamos ISO 1600, el llenado de tan solo el 6,4% de un pixel ya satura al atravesar el conversor A/D!  Esto parece horrible desde el punto de vista de rango dinámico, y puede serlo ya que todas las áreas del cuadro con señal mediana o fuerte terminarán saturando. Claro que en las áreas débiles, la discriminación de niveles (brillo y color) será máxima, dedicando los 12 bits de la cámara a ese rango. Podríamos decir que el nivel de ISO nos permite administrar el rango dinámico limitado de la DSLR, ya que contamos con solo 12 bits versus los tradicionales 16 bits de las CCD astronómicas, que operan a ganancia fija. Cambiando el ISO podemos concentrar la mejor ganancia para distintas partes del rango dinámico del objeto, alla HDR. En cuanto al ruido térmico, los ensayos fueron hechos con la cámara refrigerada a una temperatura interna de unos 8°C. En estas condiciones el “Dark Current”, medido en e-/min, es muy bajo. También es interesante notar que luego de la calibración con un Master Dark hecho a partir de entre 10 y 20 dark frames, el ruido térmico residual se reduce a una tercera parte aproximadamente. Ver siguiente gráfico donde se muestran los dos casos, y donde el ruido térmico esta dado por la pendiente. Imagen 4   El salto inicial de 3 o 4 ADUs se debe a la aparición de “hot pixels”, pero una vez que saturan, entra en el régimen de crecimiento lineal. Como la medición osciló entre 0,18 y 0,22 e-/min para los distintos niveles de ISO (post-calibración), sin una tendencia definida, opté por utilizar un valor promedio en todos los casos de 0,20 e-/min. Por último, es útil analizar en qué medida nuestra hipótesis de ruido gaussiano se satisface en un caso real, ya que es importante para que nuestras estimaciones de ruido sean válidas. La clave de ésta hipótesis es la que hace las matemáticas mucho más simples, debido a que una distribución gaussiana queda completamente especificada solo con dos parámetros; su promedio y desvío estándar. Esto, sumado a la independencia (ortogonalidad) de las variables aleatorias, no permite sumar los valores RMS en cuadratura. Así que veamos si hicimos bien. Para eso tomamos 30 Bias Frames en cada nivel de ISO, los calibramos restando el Master Bias que resulta de apilarlos, y vemos la distribución residual. A continuación se muestras éstas distribuciones, en escala lineal y logarítmica, que es más reveladora. Buscamos que en escala logarítmica la distribución se parezca a la nariz de un cohete, tipo parabólica. Si presenta hombros y asimetrías, es una señal de que la distribución no es “tan” gaussiana y por lo tanto es esperable que filtre peor en el apilado. Al ver los resultados en la siguiente página, notamos que a medida que el valor ISO aumenta, la “calidad” de la distribución disminuye. A ISO 100, es casi perfecta, pero a medida que aumentamos el nivel ISO, aparecen hombros en la distribución. Afortunadamente, en todos los casos la simetría es bastante buena, lo que también es importante para un apilado efectivo. Algunas rarezas: Aunque todos los valores estimados parecen razonables y consistentes, sobre todo cuando se comparan con los de otras cámaras canon medidas en laboratorios profesionales, hay un aspecto que resultó un poco desconcertante.  Noté que resulta imposible encontrar pixels saturados en tomas reales RAW antes de calibrar. Por lo general el valor ADU en las zonas más brillantes se estanca en 3651 ADU aproximadamente, en vez del esperado 4095 que resulta de 12 bits. Probando en el banco con la cámara y un campo plano brillante, note que sí se acerca a los niveles esperados, pero solo cuando las exposiciones no superan los 10 segundos. Por encima de estos, el conteo baja repentinamente unos 400 ADU. La cámara tiene deshabilitado la reducción automática de ruido en exposiciones largas, pero sospecho que hace algún procesamiento de todas maneras. Resta un bias? Resta un registro interno de “motas”? No sé, pero de hecho el valor efectivo de saturación es 3651 ADU, y es el que utilizaremos en la práctica para verificar ésta condición. Creo que ya es tiempo de ver cómo aplicar todas estas herramientas a un caso particular. Ejemplo: Nebulosa Trífida Elegí éste objeto por tener un rango dinámico interesante, con estrellas agrupadas muy brillantes en el núcleo y una nubosidad extendida con mucha estructura. Para empezar necesitamos estimar el flujo de electrones en nuestro sensor, proveniente de tres regiones del cuadro: de las zonas brillantes de interés (Omax), de las zonas tenues (Omin) y del resplandor del cielo polucionado (P). Para eso hacemos un par de tomas, una a ISO bajo para asegurarnos que no sature el núcleo, y otra a ISO alto. Sobre la primera medimos los ADU del núcleo brillante, y sobre la segunda medimos una zona de nebulosidad apenas visible y otra zona del cielo sin estrellas ni nebulosidad aparente. A esto valores en ADU les restamos el Bias promedio (para ser rigurosos, de la misma zona del cuadro, pero es un número que prácticamente no cambia) y los multiplicamos por la ganancia correspondiente para finalmente dividir por el tiempo de la exposición en minutos. En éste caso, donde hay cielo de fondo sin nebulosidad, usamosOmin = 0. En aquellos casos donde la nebulosidad cubre todo el cuadro deberíamos medirlo, aunque es el número menos crítico. Los otros dos números obtenidos fueron:                 P = 155 e-/min                 Omax = 1350 e-/min Ojo que estos parámetros dependen del setup! Si agrego un barlow, o si cambio la cámara por otra de pixels de distinto tamaño, éstos cambian, ya que el flujo de fotones en cada pixel cambia. Igual que si las condiciones del cielo cambian apreciablemente (transparencia). Digamos también que queremos integrar 3 horas en total, es decir, T = 180 minutos. Con éstos valores podemos aplicar las ecuaciones de ruido total y las condiciones de overflow y underflow, para varias combinaciones de ISO y t. Para tener una apreciación general utilizamos tablas en una planilla de cálculo: Imagen 5 Imagen 6 Se destacan con fondo amarillo en la tabla de Ruido Total, aquellas combinaciones de ISO y t (o K) que satisfacen al mismo tiempo la condición de overflow y la de underflow. Las celdas con fondo rojo en las otras dos tablas, destacan las combinaciones donde no se cumple una de las dos condiciones. El overflow del Full Well no es una condición dominante, salvo a ISO 100. Queda bien claro que para éste caso la mejor combinación es ISO 400 y t = 5,63 minutos! No es que t tiene que ser ese número caprichoso, que resulta de cómo dividimos esa dimensión para estudiarla en una tabla. Uno puede cambiar la tabla para explorar otros puntos de la dimensión t, o simplemente usar 5,5 o 6 minutos que es una aproximación suficientemente buena.  También queda claro que por debajo K = 64 (t = 2,81) empezamos a recortar la distribución del ruido de Poisson del resplandor del cielo, empeorando nuestras posibilidades de filtrarlo efectivamente. A su vez, a subexposiciones más largas y/o a ISO mayor (en las combinaciones que muestra la tabla) comienzan a perder información de interés por la saturación del conversor A/D. Esto lleva, en el caso de las estrellas, a que pierdan su perfil y se vean planas. Y más importante aún, que pierdan su color, ya que la discriminación de niveles en los canales RGB se perdería! Podríamos decir mucho más, pero creo que hemos cubierto lo suficiente como para tener herramientas objetivas que nos orienten en la mejor elección de ISO y tiempos de subexposición. Como regla general para la Canon 1000D (y probablemente para otras similares), y luego de haber jugado con varias combinaciones para distinto tipo de objetos a fotografiar, podemos concluir que:  
    2. 2

      Ajuste de ganancia y offset en CCD'S

      Hay en la primera parte una buena noción de cómo trabaja un sensor y al final, el procedimiento de ajuste en sí mismo. Siguiendo estos consejos aprovecharás al máximo las características del sensor CCD ya que cada uno funciona de manera distinta y tienen distintos valores de ganancia y offset.   Espero les sea de utilidad a todos aquellos que posean un ccd que admita el ajuste manual de éstos valores. Este es el método para el ajuste de ganancia y offset que usé para aprovechar al máximo mi cámara ccd.   Principios de funcionamiento del CCD El CCD básicamente es un mosaico de sensores que son capaces de capturar fotones. Cada sensor se corresponde con un píxel en la imagen RAW que obtendremos al final del proceso de captura de imagen. Ante la llegada de uno o más fotones se generan electrones que quedan almacenados en el sensor. La sensibilidad del sensor viene determinada por la capacidad que tenga de transformar fotones en electrones y se mide con un parámetro llamado Eficiencia Cuántica (QE: Quantum Efficiency). En el caso óptimo (100%) por cada fotón que llega se generaría un electrón, aunque evidentemente esto es difícil de conseguir y lo normal es tener QE bastante más bajas. Para acabar de redondearlo, la eficiencia cuántica de los sensores es diferente para distintas longitudes de onda. Por eso en las cámaras RGB es habitual encontrar que el fabricante especifica la eficiencia para los canales rojo, verde y azul por separado. En el caso de una cámara monocromática seguramente dispondremos de un gráfico representando la curva de eficiencia a para diferentes longitudes de onda. Hay que tener en cuenta además que los sensores se diseñan para ser sensibles a determinadas longitudes de onda. En una cámara en color el CCD se compone de una combinación de tres tipos de sensores, que fundamentalmente son capaces de captar los fotones cuyas longitudes de onda pertenecen al rojo, verde y azul respectivamente. Así se puede generar una imagen en color RGB mediante la combinación de lo que hayan capturado los diferentes sensores. En cualquier caso, lo importante es que a medida que van llegando fotones se van generando electrones que quedan almacenados en el sensor. Al final de la exposición habrá una determinada cantidad de electrones. Cuántos más electrones, más brillante será la imagen final. Hay dos factores muy importantes a tener en cuenta sobre el comportamiento de los sensores: Los sensores no tienen una capacidad infinita, sino que hay un máximo de electrones que pueden de almacenar (normalmente viene indicado por un parámetro llamado Full Well Depth). Si a un sensor que ya está lleno siguen llegando fotones, simplemente se ignorarán. Por tanto, si un objeto es tan brillante que supera la capacidad de almacenamiento de los sensores obtendremos una imagen saturada en la que no podremos apreciar las diferencias de brillo en distintas zonas de la misma, ya que todos los puntos tendrán el valor máximo entregado por el sensor. Por otra parte, en teoría si no se llega a exponer el sensor a la luz no debería contabilizarse ningún electrón ya que supuestamente no ha llegado ningún fotón que capturar. En la realidad el calentamiento de los diferentes componentes del CCD genera ‘Ruido térmico’ que también es susceptible de ser capturado por los sensores y por tanto nunca obtendríamos una imagen completamente negra, sino que habría una pequeña cantidad de ‘luminosidad térmica’. Conversión de los datos del CCD en una imagen Al final del proceso de captura de la imagen dispondremos de un montón de sensores, cada uno de los cuales estará cargado con una determinada cuenta de electrones. Sin embargo, el sensor no nos va a decir directamente cuántos electrones contiene, sino que lo que nos entregará es una señal analógica en forma de tensión (diferencia de potencial) que lógicamente es directamente proporcional a la cantidad de electrones. Por tanto necesitamos poder convertir nuestra señal analógica a un valor numérico que podamos plasmar en nuestra imagen digital. El dispositivo que se encarga de esta tarea es el conversor Analógico-Digital o DAC. La principal limitación de los DAC es el número de diferentes salidas que pueden entregar. En un conversor de 8 bits sólo podremos obtener hasta 256 posibles valores diferentes, mientras que en uno de 16 bits podríamos diferenciar hasta 65536 diferentes valores de la tensión de entrada. Obviamente, cuanto más mejor, ya que podremos apreciar variaciones más sutiles en el brillo de la imagen. En definitiva, la salida del DAC será el valor numérico asignado a cada píxel de nuestra imagen RAW. Offset Y aquí es donde interviene el parámetro del Offset. El caso es que el conversor DAC empezará a detectar la existencia de señal a partir de un cierto umbral de tensión. Si la tensión es demasiado baja entonces no la detectará y siempre entregará un valor 0 a la salida. Si por el contrario la señal está muy por encima del umbral entonces siempre generará valores por encima de 0 y no aprovecharemos todo el rango de valores que podría entregar. Por ejemplo, supongamos que el DAC empieza a detectar señal a partir de un umbral de voltaje U, y supongamos también que la tensión a la entrada del mismo cuando no llega ninguna señal del CCD) vale Vd y es muy inferior a U. En esta situación, cuando en el CCD no hay ningún electrón, la única tensión a la entrada del DAC es Vd, y como es inferior a U, a la salida obtendremos el valor 0. Hasta aquí bien, porque si no hemos capturado nada parece lógico obtener un valor 0 a la salida. El problema viene cuando hay unos pocos electrones. Entonces sí que llegará cierta tensión Vccd proveniente del CCD que se sumará a la tensión Vd. Es decir, a la entrada del DAC tendremos una tensión Vd+Vccd. Ahora bien, si esta tensión sigue sin ser superior al umbral de detección del DAC seguiremos obteniendo un 0 a la salida del mismo y por tanto habremos perdido el detalle de los objetos más oscuros. Sólo comenzaremos a tener una salida distinta de 0 cuando la tensión del CCD sea lo suficientemente alta para que Vd+Vccd supere el umbral U. Cualquier señal capturada inferior a este valor se perderá, a pesar de que nuestro CCD sí que era capaz de detectarla. No hace falta decir que eso es malo, muy malo para la astrofotografía ya que las señales recibidas tienen la mala costumbre de ser muy débiles. Pero aquí está el parámetro del Offset para acudir en nuestra ayuda. Al aumentar el valor del Offset lo que estamos haciendo es inyectar un valor ‘extra’ de tensión a la entrada del DAC. De esta manera lo podemos ajustar para que incluso se detecte la señal generada por un solo electrón. Lo único que hay que hacer es indicar un valor de offset tal que la tensión de entrada al DAC sea siempre superior al umbral. Pero no vale poner cualquier valor, ya que si nos pasamos volveremos a perder detalle, aunque ahora en los valores más brillantes. Si nos pasamos con el offset la tensión a la entrada del DAC será muy superior al umbral y por tanto a la salida del DAC siempre obtendremos un valor X superior a 0 (es decir, nunca obtendremos valores en la franja 0-X). Por otra parte, en cuanto las señales comiencen a ser lo suficientemente brillantes alcanzaremos el máximo valor que puede entregar el DAC, y cualquier señal de intensidad mayor no será diferenciada, ya que siempre obtendremos el valor máximo del DAC. Y en este punto es donde debemos tener en cuenta la máxima capacidad de los sensores. Supongamos que un determinado sensor es capaz de almacenar hasta 44.000 electrones. Lo que nos interesa es que cuando esté completamente lleno, obtengamos un valor cuantizado que no supere el límite del DAC. En la situación óptima debería corresponderse la capacidad máxima del sensor con el valor máximo del DAC. En resumen, para ajustar el offset lo que interesa es que ante la ausencia de señal en el sensor obtengamos un valor próximo a cero en nuestra imagen, que no quede por debajo en ningún caso y que no lo supere mucho para que no lleguemos a saturar la imagen demasiado rápidamente. Lo que conviene hacer es realizar una captura de la mínima duración posible con la cámara tapada para que no llegue señal, e ir ajustando el offset hasta que obtengamos una imagen en la que todos los píxels estén ligeramente por encima de cero (pero que no lo alcancen). Lo que es importante tener en cuenta es que el valor del Offset puede variar en función de la ganancia. Gain Supongamos que ante la ausencia de señal en el sensor obtenemos un valor 0 en nuestra imagen RAW, y cuando el sensor está completamente lleno obtenemos en la imagen un valor de 1000, es decir, podremos tener una imagen en la que podremos distinguir hasta 1000 niveles de brillo diferentes. Pero… si nuestro sensor era capaz de almacenar 44.000 e- ¡Entonces estamos perdiendo una enorme cantidad de detalle que nuestro sensor es capaz de detectar, pero nuestro DAC no es capaz de reproducir! A nosotros nos interesaría que como mínimo el DAC pudiera entregar un valor de 44.000 o superior ante la máxima señal de forma que cualquier cantidad de e- en el sensor se correspondiera con un valor diferente a la salida del DAC. En realidad, antes de la entrada del DAC hay un amplificador que permite ‘multiplicar’ el valor de la señal de entrada por un determinado valor al que llamamos ‘ganancia’ o ‘’gain’. Ante una misma señal de entrada, cuanto mayor sea la ganancia, mayor será el valor entregado por el DAC en su salida. Podríamos pensar que no importa mucho el valor de la ganancia, ya que al fin y al cabo, si tengo por ejemplo 10 posibles niveles de tensión de entrada (imaginemos un hipotético sensor que sólo admite hasta 10 e-), al final obtendré 10 valores diferentes en la salida y aplicar una ganancia lo único que implicaría es que tendría igualmente 10 valores de salida pero con valores superiores. En este caso aumentar o disminuir la ganancia sería irrelevante, ya que lo importante para nosotros es poder diferenciar entre los 10 niveles sin importar mucho qué valor tengan. Pero esto no es cierto porque en función de la ganancia podemos no obtener los 10 niveles que esperamos a la salida, sino menos! Hay que tener en cuenta que el DAC entrega siempre valores enteros, y no decimales. Entonces supongamos que la ganancia es tal que por cada voltio en la señal de entrada entrega a la salida un valor de 5. Esto significa que por cada voltio que aumente la señal de entrada, la salida se incrementará en 5 unidades. En la siguiente tabla vemos un ejemplo de las salidas que obtendría para distintas tensiones de entrada: Todo parece funcionar correctamente, ya que para distintas tensiones de entrada obtengo distintos resultados, pero el problema aparece si puedo tener tensiones de entrada que no provoquen un cambio en la salida: Ahora sí que hay un problema. En nuestra imagen final perderemos un detalle que el CCD ha podido captar pero el DAC no ha sido capaz de diferenciar. La solución parece Obvia, si aplicamos una ganancia mayor entonces se solucionaría el problema. Imaginemos que la ganancia es 10. En ese caso para ejemplo anterior obtendríamos: ¡Perfecto! Ya no hay problema. No perdemos los detalles capturados por el CCD. Parece que lo mejor sería poner siempre la máxima ganancia para asegurar el tiro. Entonces… ¿por qué el fabricante no deja la ganancia establecida en el máximo siempre? Evidentemente hay algo que se nos escapa y se trata de la saturación del DAC. Como había explicado antes, un DAC no puede entregar cualquier valor, sino que está limitado por el número de bits de la señal de salida. Si el DAC es de 8 bits, entonces sólo podremos obtener hasta 256 valores (de 0 a 255). Si es de 16 bits entonces podremos obtener 65536 valores. Si tenemos un valor de ganancia demasiado alto, tendríamos el problema contrario. Estamos amplificando tanto la señal que saturamos el DAC y siempre nos entrega el valor máximo. De nuevo estamos perdiendo los detalles, pero en este caso en las zonas brillantes. Por tanto lo que nos interesa es encontrar un valor de la ganancia que no provoque saturación cuando la señal de entrada sea máxima, pero que sea capaz de detectar el más mínimo cambio en la señal del sensor. Si un sensor CCD tiene una capacidad máxima de 44.000e- entonces tenemos que poder obtener a la salida 44.000 niveles distintos. En este ejemplo necesitaríamos un DAC de 16 bits, que es capaz de darnos hasta 65536 niveles de salida. No los aprovecharemos todos, ya que sólo hay 44.000 posibles valores de tensión posible a la entrada, pero al menos no perderemos detalle. ¿Y cómo hacemos para calcular el valor de Gain que más convenga? Pues es bien sencillo, porque basta con apuntar la cámara a una luz brillante que asegure que cada sensor se llenará la máximo. En esta situación tenemos que ir ajustando la ganancia hasta que la imagen final no supere el máximo valor que puede entregar el DAC. Lo normal es que sean de 16 bits así que buscaremos que cada píxel se aproxime lo más posible a 65535, pero que no lo alcance. De esta manera garantizamos que nunca se sature la imagen debido a un valor de ganancia demasiado alto.   Ajuste de Gain y Offset en la práctica Estos valores no son siempre iguales para todas las cámaras de un mismo modelo. Cada uno de nosotros deberá calcular los parámetros que se pueden aplicar a su cámara. Antes de comenzar necesitaremos saber cuál es el valor máximo que puede entregar la cámara. Normalmente las cámaras para astrofotografía son de 16 bits, así que lo más habitual es que el valor máximo que se puede obtener sea 65535.   Paso 1: Ajuste de Offset Recordar que para distintos valores de Gain el Offset puede variar. No hay problema si queremos utilizar otros valores de Gain, pero entonces hay que calcular el Offset que le corresponde. Conviene hacer una tabla en la que apuntemos los valores de Offset obtenidos para diferentes valores de Gain. Vamos a realizar una captura de la menor duración posible y con la cámara tapada para que no entre nada de luz. Normalmente se ajusta el tiempo de exposición a 0 de forma que la imagen que obtengamos refleje sólo el ruido provocado por los componentes internos de la cámara (este tipo de imagen recibe el nombre de ‘Bias’). Obviamente queremos que en estas circunstancias la imagen sea completamente negra, así que modificaremos el valor de Offset hasta conseguirlo, pero sin que llegue a valer 0. Es decir, queremos que todos los píxels de la cámara tengan un valor próximo a 0 pero sin llegar a alcanzarlo. Habitualmente se considera correcto si los valores oscilan entre 100 y 1000 (para una cámara de 16bits)   Paso 2: Ajuste de Gain Para ajustar el Gain hay que apuntar la cámara a una luz brillante y ajustar un tiempo de exposición que asegure que obtendremos una imagen completamente blanca (saturada) en todos los píxels de la imagen. Una vez hecho esto hay que comprobar qué valor tiene cada píxel de la imagen RAW obtenida (normalmente los programas de captura tienen alguna herramienta para poder verlo). Ahora sólo queda ir ajustando el gain y repitiendo la captura hasta que los valores de los píxels se acerquen lo más posible al valor máximo pero que no lo alcancen. Durante este proceso conviene indicar el parámetro de Offset calculado en el apartado anterior para la ganancia que estemos probando. A veces no siempre se obtiene el máximo valor posible, sino algo menos. Por ejemplo, es posible que con la imagen completamente saturada obtengamos una lectura de 65300 (en lugar de 65535). Por tanto lo mejor es fijarse en este valor máximo y ajustar el Gain hasta asegurarse de que ningún píxel lo alcanza. Ya tenemos nuestra CCD lista y configurada correctamente para aprovechar cada fotón recibido. Buenas capturas!
×
×
  • Crear nuevo...