El formato RAW, cuya traducción literal significa “crudo” es una de las últimas novedades y más interesantes que la fotografía digital nos ha traído.
Este nuevo formato nace de la necesidad de brindar a los fotógrafos la posibilidad de procesar los datos recogidos por el sensor de la cámara de forma diferente a la que las cámaras y sus menús ofrecen. Con esto se abren una gama de posibilidades muy grande.
Cada vez más fotógrafos llaman a este formato el negativo digital, por lo que el proceso de revelado vuelve a manos del fotógrafo de nuevo.
El negativo RAW contiene la información que capta el sensor con una manipulación mínima, un conjunto de metadatos a cerca de la toma y a menudo una copia de la imagen en formato JPEG y a pequeño tamaño.
Cuando se configura una cámara para realizar fotografías en JPEG ocurren diversas transformaciones desde que el sensor capta la escena hasta que el archivo jpeg es guardado en la tarjeta de memoria. Todos estos pasos modifican la imagen sin demasiado control. A pesar de todo damos por supuesto que la imagen final que produce la cámara en TIFF o JPEG es un fiel reflejo de lo que ha captado el sensor, pero las diferencias entre amos tipos de fichero son bastante grandes.
Podríamos decir, pues, que el formato RAW contiene los datos que ha captado el sensor en formato digital prácticamente sin haber sido procesados todavía. La imagen RAW no está lista para que pueda ser tratada con normalidad en cualquier editor de imágenes, como Photoshop, ya que antes debe ser convertida en una imagen basada en un estándar (TIFF o el JPEG).
WORKFLOW EN RAW
Una vez tomada la foto los pasos a seguir suelen ser los siguientes. La principal característica de este formato es que está inacabado, no está listo para ser tratado en Photoshop, ni siquiera para verlo en pantalla. Por ello necesita procesarse. Este proceso de obtención de copias se llama “postprocesado”, “postproceso” o “revelado” y consisten en dar una apariencia natural a la imagen RAW y un formato comprensible por cualquier programa.
Una vez se obtiene una copia a partir de RAW, éste NO debe tirarse. Este n se modifica, porque los parámetros del proceso se utilizan únicamente para producir una copia final a partir del RAW, pero sin afectarle. Si el revelado no queda bien, siempre se podrá repetir, pero nunca afectará al RAW que permanece intacto una y otra vez. Tan sólo se varían los parámetros de revelado para conseguir una nueva imagen.
Después de revelar el RAW, pasado un tiempo, si se vuelve a abrir el RAW este se mantiene con los mismos parámetros de revelado realizados entonces. ¿Porqué? Esto es debido a que se guardan los datos del revelado pero en un archivo a parte, llamado ”archivo sidecar”. Si se borra este archivo se pierden los ajustes realizados al revelar el RAW. Por eso no sólo hay que guardar los archivos RAW sino que también sus correspondientes sidecares.
FORMACIÓN DE LA IMAGEN
Lo primero que hay que desmentir es la creencia común de que el sensor de la cámara digital produce una señal digital. El sensor de la cámara NO es digital; sólamente electrónico. Este produce señales electrónicas analógicas (no digitales) que luego son codificadas al formato digital binario por parte de otro chip, llamado conversor analógico digital o ADC. Y es sólamente después de que pasen las imágenes por este último chip cuando realmente se forma el archivo RAW.
SENSORES
Ya que el RAW contiene la imagen tal y como sale del sensor, existen tantos RAW como sensores hay en el mercado, pero esto se puede simplificar reduciéndolo a dos modelos básicos.: El sensor de tres capas y al Bayer.
EL SENSOR DE TRES CAPAS
Capta la señal de forma similar a como lo hace la película química: usando tres capas, un para cada color primario. Están fabricados por la empresa FOVEON. Su funcionamiento es el siguiente:
Puesto que tiene tres capas para formar un píxel utiliza tres celdas, alineadas en vertical, de modo que cada una de ellas registra la pare correspondiente del espectro visible.
Consiguen un captación cromática muy precisa, y sobre todo con un mayor poder de resolución, pero necesita el triple de celdas para formar cada uno, lo que conlleva que no tenga tanta resolución con lo los de la competencia. Es decir, que para que FOVEON ofrezca un sensor de 10 megapíxel, tiene que fabricar uno con 30 millones de fotorreceptores o “celdas” y, claro, no podrían comercializarlo al mismo precio que otro sensor estándar con 10 Mp y 10 millones de celdas.
LA MATRIZ DE COLOR DE BAYER
El sensor de tipo Bayer es el más extendido, y por eso se puede afirmar que tu cámara tiene este tipo de sensor.
Estos sensores llevan tres tipos de celdas que captan de forma independiente el rojo, el verde y el azul, produciendo tres tipos de señales diferentes. Pero la matriz de Bayer define un patron o mosaico formado por cuatro celdas, que se propaga a lo largo y ancho del sensor, y al tener tres tipos de celdas en grupos de cuatro, una de ellas se tiene que repetir obligatoriamente, de forma que habrá dos celdas captadoras de ese color. Debido a que la retina de nuestros ojos tiene una sensibilidad claramente mayor al verde, se ha escogido este color por esa razón para la cuarta celda, debido a esto la imagen Bayer tiene más información en este canal:
En la imagen Bayer cada celda sólo registra la información perteneciente a un canal, y que por lo tanto se pierde 2/3 de la información de los otros colores primarios que no se registran en cada celda. Debido a esto podemos decir que el sensor Bayer capta la información con pérdidas desde el mismo momento de la toma.
Por lo tanto la imagen que produce un sensor Bayer es muy extraña.
Esta imagen que se muestra arriba es la imagen de un archivo RAW “por dentro”.
Si separamos los píxeles de cada color en tres imágenes diferentes se verá lo siguiente:
Donde queda claro que falta mucha información debido a las características del sensor Bayer. Todos estos huecos tendrán que rellenarse posteriormente. También se aprecia que uno de los canales tiene más información que el resto, concretamente el doble.
Pero en realidad la imagen RAW no es exactamente como la hemos visto, ya que los píxeles no tienen color en el momento de ser captados por el sensor. Las celdas del sensor llevan un filtro delante que hace una separación de colores dejando pasar unos y deteniendo otros, pero el hecho de que la celda reciba el rojo, por ejemplo, no significa que sea sensible al rojo. Estas celdas son sensibles a todos los colores, así que no distinguen el tono que les llega, aunque un filtro se encargue de que reciban el color apropiado. El siguiente esquema lo demuestra más claramente:
Por eso la imagen RAW se registra realmente en escala de grises. Lo que ocurre es que cuando se empieza a decodificar la imagen inmediatamente se asigna el primario correspondiente a cada celda según su ubicación en la matriz de color Bayer, interpretando así la imagen de un solo canal multicolor.
Pero estos sensores vistos no son los únicos que podemos encontrar en el mercado. Existen otros:
SUPERCCD DE FUJI
CODIFICACION ANALÓGICO DIGITAL
El paso siguiente después de que el sensor capte la imagen es la conversión a digital de la señal analógica.
Se basa en cuantificar la señal y registrarla en formato binario digital. Es decir, que si la señal es nula, se convertirá y guardará como un píxel con valor 0, si es máxima se convertirá en255 y todos los valores intermedios se convertirán en sus correspondientes.
En esta conversión a digital habrá tanta más gama tonal cuanto mayor sea la capacidad del sensor para diferenciar tonos, así como el número máximo de bits que utiliza el ADC.
La mayoría de compactas trabaja a 8 bits/canal, mientras que la mayoría de las réflex trabajan a 12 bits/canal. Esta producirá 4096 matices diferentes en cada canal, lo que supone una gama 16 veces superior al de 8 bits.
Ya hay modelos que trabajan a 14 algunos respaldos ya lo hacen a 16 bits.
No se debe confundir la gama de matices que ofrece una codificación con más bits con una mayor gama de color. la gama de colores de una cámara no mejora por el hecho de que se le incorpore un ADC mejor, porque eso sólo depende del propio sensor. Es decir, que cuando decimos que aumenta la gama tonal nos estamos refiriendo a que aumenta el número de matices intermedios, y no a que aumenta la saturación de los colores más puros que contiene esta gama. Cuando esta saturación aumenta se suele decir que lo que aumenta es el “gamut”.
Hay que aclarar que el sensor responde a la lux de forma lineal, y tomando como premisa la correspondencia linear entre la iluminación recibida, y por otro la gama numérica máxima con 12 bits, se puede decir que el primer diafragma captado abarcará 2048 valores numéricos. Todo ello nos lleva a deducir que con 12 bits, la escala numérica en potencias de dos será la siguiente:
1+2+4+8+16+32+64+128+256+512+1024+2048 = 4095
A cada uno de estos sumandos corresponde un diafragma de la escena porque todos son el doble que la anterior y la mitad que el siguiente.
El ruido se encarga de ensuciar los diafragmas más bajos, provocando que sólo se puedan aprovechar unos ocho o nueve diafragmas.
Los más bajos son registrados con valores numéricos tan pequeños que no tienen suficientes pasos para registrar todos los matices tonales. Podríamos decir que por lo menos necesitaríamos 8 valores tonales diferentes para registrar mínimamente bien un diafragma; con los cuatro primeros diafragmas con valores 1, 2 y 4 no serían adecuados.
La otra razón por la que sólo se llegan a captar 12 diafragmas es la aparición de ruido. Este ruido que todos los sensores tienen en mayor o menor medida, y que plaga los píxeles de toda la imagen, ocupa los valores numéricos más bajos, manchando siempre los 4 ó 5 primeros diafragmas de imperfecciones.
El ruido es independiente de la exposición recibida, aunque no de la sensibilidad ISO. Esto significa que el ruido siempre ocupará esos valores numéricos bajos que representan las sombras más oscuras., y no se puede reducir modificando la exposición, tanto si se sobreexpone como si se subexpone.. El ruido no depende de ella, así que siempre está ahí, y siempre es igual, (en cantidad y tipo) para una misma sensibilidad ISO.
EL REVELADO
El revelado o “post-procesado” es el conjunto de modificaciones que, aplicadas al RAW consiguen darle un formato de imagen estándar, como es JPEG o TIFF.
METADATOS
Son datos acerca de datos. Existen tres tipos de datos:
1- Se generan e insertan automáticamente en cada archivo por la propia cámara, sin necesidad de tener que hacer nada para ello. Contienen información de:
- El modelo de la cámara y todos sus ajustes.
- El objetivo utilizado y sus ajustes.
- Flash
- La imagen
La inmensa mayoría de las cámaras graba estos metadatos según un estándar que se conoce como EXIF (EXchangable Image file Format), el cual permite que la mayoría de programas lo reconozcan.
2- Son los que se utilizan para describir lo que muestra la imagen, su contexto geográfico, datos del autor y copyright. Se pueden introducir después de tomar la foto y contiene la siguiente información:
- Descripción, pie de foto, título, copyright,...
- Palabras clave.
- Categorías.
- Origen.
- Créditos
Estos metadatos se utilizan gracias al estándar IPTC (International Press Tlecomunications Council).
3- Son los utilizados para realizar una valoración subjetiva, es decir, para etiquetar fotos como “malas”, “regulares” o ”muy buenas”. También “seleccionadas” o “pendientes de retocar”. Se puede realizar mediante:
- Estrellas.
- Colores.
Estos datos se guardan según un estándar XMP, (versión mejorada del IPTC).
FORMATOS. ¿DONDE ESTAN LOS ARCHIVOS RAW?
Estos archivos no los vas a encontrar en la tarjeta porque no tienen esta extensión. Cada fabricante usa la suya: “.NEF”, “.CR2”, “.RAF”, “.ORF”,...
Esto es uno de los grandes inconvenientes del formato RAW: la falta de acuerdo, por el momento, de un estándar en el formato RAW para todas las marcas de cámaras de fotos. Esto es debido a que el formato RAW es como un “pastel” al que todos quieren hincarle el diente: fabricantes y terceros. El RAW ofrece una gran calidad pero se necesita un software para sacarle partido..los mejores son los de terceros, pero los fabricantes no aportan ninguna información de cómo es por el interior el formato RAW, ya que algunos de ellos venden su propio software para el revelado de dicho RAW. Así pues cada vez que un fabricante saca un modelo de cámara, comienza la carrera por sacar actualizaciones para los programas con el fin de que reconozcan el formato del nuevo modelo.
A medida que pasa el tiempo cada vez existen más formatos RAW y algunos programas de revelado RAW empiezan a perder compatibilidad con algunos RAW antiguos.
ADOBE DNG
Existe una pequeña luz al fin del túnel: la estandarización de y documentación de un RAW único y universal. Se trata de crear un
estándar flexible, abierto y bien documentado. Pues más o menos esto es lo que hizo Adobe en septiembre de 2004: crear el formato DNG, libre de Royalties. Este formato pretende crear un estándar y evitar que se sigan propagando cientos de formatos diferentes.
Una de sus ventajas es que permite llevar en su interior los metadatos relativos a la descripción y valoración de la foto, cosa que evita los archivos sidecar. Además del formato; Adobe presentó el programa DNG converter, totalmente gratuito, que permite trasformar casi cualquier RAW existente en un DNG. Algunas cámaras que ya producen el formato DNG en vez de su RAW propietario. A pesar de las soluciones el formato DNG también presenta algunos problemas:
- Algunos metadatos se pierden durante la conversión, (las marcas de autenticidad que sirven ante un juez para demostrar que no se ha alterado se esfuman en la conversión.
- Aunque varios programas ya son compatibles con DNG, sólo reconocen aquellos DNG que provengan de cámaras que ya reconoce el propio programa.
- Los metadatos que se crean en el revelado en ACR son completamente ignorados por otros programas.
- Han ido apareciendo diversas actualizaciones del formato DNG que han provocado que versiones antiguas de PS, (CS3 y anteriores) tengan algunos problemas para abrirlos o ignoren la mayoría de los ajustes.
¿8 o 16 BITS?
¿Cómo es que el revelado puede producir archivos de 16 bits/canal si el conjunto sensor-ADC trabaja normalmente a 12?
La mayoría de archivos que un fotógrafo maneja están basados en estándares y sólo pueden tener dos profundidades de color: 8 y 16 bits/canal. Esto es debido a una limitación informática arrastrada hace tiempo , pero que hoy en día pudiendo haber sido subsanada todavía no ha sido así.
Muchas cámaras generan archivos de una profundidad de color de 12 bits y en algunos casos y hasta 16 bits/canal. Salvo estas últimas, el resto debe convertir al alza o ala baja la profundidad de color para poder ser transformada en un archivo TIFF o JPEG. Si es a la baja será de (, si es al alza será de 16. En el primer caso se perderá información, pero, ¿qué ocurrirá en el segundo? Pues que no se pierde información pero sí se desaprovecha capacidad total para guardar información de un archivo de 16 bits; la apariencia será correcta, (la misma que a 12 bits) porque con los valores numéricos existentes se hace un “estirado” para llevar el blanco máximo con 12 bits/canal al máximo con 16 bits/canal. Es decir que todos los valores numéricos estarán espaciados y no contiguos como lo estaban con 12 bits. (Máximo número de tonos con 36 bits,12 bits X tres canales, son 68700 millones, y con 48 bits, 281 billones, frente a los solo 16,7 millones de los 24 bits.
Los archivos RAW pueden guardar cualquier profundidad de color y adaptarse así al contenido, porque no son formatos estándar.