jueves, 13 de febrero de 2014

El sensor, o cuando el tamaño si importa II

Hoy le toca el turno a otros aspectos que están relacionados con el tamaño del sensor de nuestra cámara.


EL FACTOR DE RECORTE



(imagen recogida de internet)


Este factor viene definido por la relación entre el tamaño de la diagonal de un sensor dado y el tamaño de la diagonal de un sensor de 35 mm (Full Frame, en fotografía digital). Cuando utilizamos un objetivo diseñado para un sensor FF en una cámara con un sensor mas pequeño, una parte de la imagen se queda fuera del mismo y por lo tanto no es recogida en la imagen final.

Esto, en principio puede parecer una desventaja, pero bueno, como positivo tiene que en todas las lentes la calidad se degrada progresivamente según nos acercamos a los bordes de la imagen producida por este. Así que la parte buena del sensor mas pequeño es que al descartar la parte de la imagen que tiene menor calidad, podemos utilizar objetivos mas baratos sin gran pérdida de calidad.


FACTOR MULTIPLICADOR DE LA DISTANCIA FOCAL

Esto ya es mas conocido. Un objetivo de 50 mm para una cámara de 35 mm, se convierte en un gran angular cuando lo usamos en una cámara de 6x6... Este efecto se define como el valor por el que ha de multiplicarse (o dividirse, en caso de que el tamaño del sensor sea mayor a 35 mm) la distancia focal de una lente para obtener la distancia focal equivalente a cuando se usa en una cámara de 35 mm (FF).

Esto, entre otras cosas implica que para un encuadre de un 50 mm en un sensor FF, necesitaremos una lente mas angular y ya sabemos que la calidad disminuye en estas.


PROFUNDIDAD DE CAMPO (PdC)

A medida que aumenta el tamaño del sensor, la profundidad de campo disminuye para la misma apertura y el mismo encuadre. Si sabemos que la PdC disminuye con la distancia entre la cámara y el sujeto, que aumenta al disminuir la apertura (número f), que es inversamente proporcional a la distancia focal y del circulo de confusión máximo... y sin comernos mucho el tarro, nos daremos cuenta que para mantener el mismo encuadre, con el sensor de formato pequeño me tendré que alejar mas que con el grande y esto hace que la profundidad de campo aumente en el formato pequeño.

Esto mola en los retratos y pero mola algo menos cuando buscamos una buena nitidez en los paisajes, donde con formatos grandes para conseguir grandes PdC necesitamos cerrar mucho el diafragma. Al cerrar el diafragma (aumentar el número f) aparece otro efecto toca-pelotas, nos encontraremos con la difracción.

Bueno, con todo esto, creo que podemos saber algo de nuestro sensor e intentar llevarnos lo mejor posible con el. 

Otro día mas de otras cosas de la fotografia.

miércoles, 5 de febrero de 2014

El sensor, o cuando el tamaño si importa ...I


Antes de empezar a hablar sobre el tamaño del sensor de nuestra cámara tenemos que tener claro lo que significan los MEGAPIXELES, ya que es algo en lo que muchos principiantes nos fijamos en exceso.

Cuando yo veo que mi Canon 7D tiene un sensor CMOS APS-C de 18 MP pienso... ¡guay!, ¡mi sensor tiene 18 millones de píxeles o lo que es lo mismo, 18 millones de fotositos! (aunque entre los píxeles reales y los efectivos haya una pequeña diferencia) pero, ¿que es lo que en realidad me están indicando estos megas?

Los megapixeles me indican LA RESOLUCION del sensor, es decir, el tamaño que tendrá la imagen capturada. Cuantos mas megas tenga mas nivel de detalle tendré, podré imprimir una imagen mayor o podré hacer recortes sin perder mucha calidad. Si nos fijamos en los tres tamaños de sensor de la imagen podemos darnos cuenta de que, en cualquiera de ellos podemos meter esos 18 millones de pixeles (fotositos), solo tenemos que disminuir el tamaño de cada uno de ellos (densidad y tamaño de pixel) y esto ya empieza a tocar un poco las narices... Si disminuyo el tamaño del fotosito también disminuyo el rango dinámico y aumenta el ruido.

El RANGO DINAMICO, también llamado Latitud, es la cantidad de tonos (niveles de iluminación) que es capaz de capturar el sensor entre el valor mínimo (negro puro) y el valor máximo (blanco puro) medido en pasos de EVs (esto os suena a diafragma, apertura, ... ¿a que sí?), y por desgracia para mi bonito APS-C de 18 MG, cuanto mayor sea el área de un fotosito expuesto a la luz, mas fotones captará en la misma unidad de tiempo y por lo tanto mayor será su rango dinámico. Y por esta misma razón mejor será la relación señal/ruido.

¡Vaya, apareció el puñetero RUIDO!...., ahora toca hablar de ISO. EL ISO es un valor heredado de la fotografía analógica que indicaba la sensibilidad de los cristales de plata del negativo. En nuestros sensores, en cada fotosito cuando se expone a la luz, se genera una corriente eléctrica que depende de la cantidad de luz y de la sensibilidad del fotosito. Esta sensibilidad es fija para cada uno de ellos y equivale aproximadamente a ISO 100. Los ISO's superiores, no se obtienen como en la fotografía analógica aumentando el tamaño de los cristales de plata del negativo, se obtienen amplificando la señal eléctrica generada. Hasta aquí el tema de la sensibilidad del sensor mola pero.... estos condenados de fotositos generan una cantidad mas o menos fija de corriente eléctrica en reposo y esta encima, aumenta con la temperatura (ruido térmico que toca las narices en exposiciones largas)... resumiendo, al final tenemos una señal compuesta de intensidades buenas y de intensidades malas (ruido), esto es la relación señal/ruido.

Si tenemos en cuenta que el ruido a una temperatura dada es mas o menos constante, nos daremos cuentas que cuantas mas señales buenas tengamos (lo que ocurre cuando le llega mucha luz al sensor), la relación señal/ruido será baja (el ruido a penas aparece en las altas luces), pero cuando tengamos pocas señales buenas (lo que ocurre cuando le llega muy poca luz al sensor), esta relación será alta (es por lo que el ruido aparece sobre todo en los negros). Si a esto le añadimos, que para aumentar el ISO lo que hacemos es amplificar la señal, entenderemos el porqué el ruido se hace mas patente a ISO's altos.

Bueno, me he enrollado y solo he hablado del tamaño del pixel. En teoría dos sensores de tamaños diferentes podrían tener fotositos del mismo tamaño a costa de que el menor tendría menos, es decir, una menor resolución. Pero la industria fabrica los sensores mayores con fostositos mayores, mejor circuitería, mejores procesadores y... mucho mayor coste, conclusión, ¡EL SENSOR GRANDE ANDE O NO ANDE!

Otro día hablamos del factor de recorte, de la profundidad de campo, de la difracción... que por hoy ya vale!!!

martes, 4 de febrero de 2014

Algunas cosas de como funciona el sensor de nuestra cámara digital

Aquí os dejo algunas cosas del funcionamiento del sensor CMOS de nuestra cámara.


El sensor de una cámara digital está compuesto por una matriz de diminutos “fotodiodos” de silicio capaces de transformar la cantidad de fotones que reciben durante la exposición, en distintos valores de intensidad eléctrica. El número de esto niveles dependerá de la profundidad de bits que tenga el sensor (por ejemplo mi Canon 7D está por los 14 bits).



Si os dais cuenta el sensor recibe desde el objetivo una información analógica (como en la fotografía tradicional) y se la entrega al procesador en distintos niveles de intensidad en formato digital (0-1). El número de niveles dependerá de los bits del sensor (por ejemplo, un sensor de 8 bits sera capaz de transformar la señal recibida en 256 niveles o lo que es lo mismo, 2 elevado a 8)



Por lo que hemos visto hasta ahora nos daremos cuenta de que el sensor ha recogido una imagen en blanco y negro (con distintos niveles de grises, desde el negro puro (00000000) hasta el blanco puro (11111111), en nuestro sensor de 8 bits.

Necesitamos algo que nos permita recoger información del color de la imagen y este algo es la famosa "Matriz de Bayer", que no es mas que un filtro en forma de matriz con los tres colores básicos (rojo, verde y azul) que se coloca encima del sensor de manera que cada color solo deja pasar información de si mismo al fotodiodo que hay debajo de el. Este filtro tiene el doble de celdas de color verde que de rojo y de azul debido a que el ojo humano es mas sensible al verde.

De esta manera tenemos que, un pixel de color se obtiene por la interpolación de dos muestras verdes, una roja y otra azul.... ¡ya tenemos color!





Sensor con la matriz de Bayer



Al tener dos matrices tan pequeñas se pueden producir situaciones en las que el algoritmo de interpolación falle, produciéndose distintos artefactos (aberraciones) como el moiré y las aberraciones cromáticas. Para intentar mitigar estos indeseables efectos casi todos los sensores incorporan un filtro óptico de paso bajo (OLPF) o un Antialiasing (AA) a costa de reducir la nitidez.

Ahora ya tenemos la imagen con sus colores correspondientes, solo nos falta guardarla en el dispositivo de almacenamiento de la cámara. Esto se puede hacer de muchas formas o mejor dicho, en mucho formatos siendo los mas populares el formato RAW y el JPEG….

Es importante que sepamos que en el formato RAW guarda la información en bruto, tal y como la he recogido el sensor y que entre otras cosas, guarda la información del patrón de Bayer de forma directa, es decir, sin interpolaciones. Es una imagen en blanco y negro. Es por eso que el tamaño del archivo generado tendrá mas o menos el mismo tamaño que los megapixeles de nuestro sensor.

El formato JPEG guardará la imagen ya procesada y comprimida. Este es un formato de 8 bits por canal RGB. Si hacemos la cuenta:

256 x 256 x 256 = 16 millones de colores

El archivo con nuestra imagen en JPEG tendrá un tamaño mucho mas pequeño que el número de megapixeles de la cámara y la cantidad de colores se habrá reducido en gran medida si lo comparamos con el RAW.

Bueno... otro día mas.