Nota: En este artículo también se toca el tema “Funcionamiento de una cámara de exploración“.

Todas las cámaras de película son simplemente cajas oscuras en las que usted puede insertar el tipo de película que quiera. Es la película que usted escoge la que da colores distintivos, tonos, granulado a las fotografías. Si usted piensa que una película da imágenes que son demasiado azules o rojas, usted puede cambiar a otra película. Con las cámaras digitales, la “película” es permanentemente parte de la cámara, por lo tanto comprar una cámara digital es en parte como seleccionar una película que se va a usar, como la película, sensores de imagen diferentes dan colores diferentes.

La fotografía digital se basa en la captura de una imagen, su almacenamiento en un fichero que se mantendrá inmutable a lo largo del tiempo, con lo que la calidad de la imagen no disminuirá nunca. La reproducción de esa imagen almacenada en un soporte digital puede ser duplicada tantas veces como se desee, produciendo siempre una copia con la misma calidad que la imagen original.

Para su reproducción en otros soportes, se utilizan las impresoras convencionales de computación, u otros mecanismos de reproducción más sofisticados, dependiendo la calidad final alcanzada, de la característica de impresión del dispositivo empleado.

El elemento básico que determina las características de una cámara fotográfica digital es el sensor, dispositivo electrónico-digital que reemplaza a la película, es una matriz de pequeñas celdas perfectamente alineadas en filas y/o columnas. Cada una de esas celdas es un elemento fotosensible microscópico, con la capacidad de producir impulsos eléctricos de distinta intensidad en función de la cantidad de luz que recibe. Cada celda es, entonces, como un pequeño “fotómetro” que producirá un flujo eléctrico variable sobre la base de cantidad de luz que incida en su superficie (figura 6.18).

Figura 6.18: Componentes principales de una cámara digital

Figura 6.18: Componentes principales de una cámara digital

La información que entrega el sensor consiste en diferentes niveles de corriente eléctrica para cada celda. Esta información es procesada por un DAC (Digital-Analog Converter o Conversor Analógico-Digital), donde la señal eléctrica es convertida en datos digitales. Aquí es donde tiene lugar la interpolación. Luego esos datos digitales son archivados en la memoria de la cámara o enviados a la computadora, finalmente son representados como cuadraditos de color individualizados llamados píxeles.

Píxel: Podemos definir el píxel (del inglés “picture element”) como el elemento más pequeño que forma la imagen. Para hacerse una idea visual de su naturaleza, la comparación con los mosaicos formados por pequeñas piedras de colores que conforman una imagen es siempre un ejemplo muy recurrente, vea la figura 6.19. Así, a diferencia de las imágenes vectoriales, las imágenes “rasterizadas” o mapas de bits (generadas a través de un dispositivo digital, como una cámara) están formadas por píxeles. El hecho de que no los percibamos como unidades independientes sino como un conjunto se debe a una limitación de nuestra visión que nos da esa sensación de continuidad. Sólo es cuestión de aproximarse lo suficiente o ampliar la imagen para que podamos llegar a percibir cada uno de estos elementos cuadrados.

Figura 6.19: Imagen con pequeñas piedras que son denominadas píxeles

Figura 6.19: Imagen con pequeñas piedras que son denominadas píxeles

Resolución del sensor de imagen: Como usted ha visto, la resolución de la imagen es una manera de expresar cuan definida o detallada las imágenes son. Las cámaras de menor tecnología tienen resoluciones actualmente alrededor de 640 x 480 píxeles (a veces llamada resolución VGA), aunque este número constantemente se mueve hacia arriba. Cámaras mejores, aquéllas con 1 millón o más de píxeles se llaman cámaras megapíixel y aquéllas cámaras con más de 2 millones se llaman cámaras multi-megapíxel.

Las cámaras digitales profesionales más caras le dan aproximadamente 6 millones de píxeles. Aunque impresionante, incluso estas resoluciones no igualan los estimados 20 millones o más de píxeles en la cámara tradicional de película de 35 mm y los 120 millones en la resolución del ojo humano.

El término “resolución” se introdujo en el mundo de las computadoras como una manera de describir monitores o pantallas. En los primeros días, una pantalla tendría una resolución CGA o VGA. Más tarde se introdujeron otros nombres para describir pantallas con mayor definición. Los términos fueron usados para describir el número de píxeles en la pantalla. Por ejemplo, la pantalla VGA tenía 640 píxeles a lo ancho de la pantalla y 480 hacia abajo (640 x 480). Nadie se preocupaba por el uso del término en el momento que fue introducido.

Sólo cuando la fotografía se volvió digital fue que otro grupo de personas entró en escena con un uso totalmente diferente del término. A los fotógrafos, o cualquiera en la actividad óptica, la resolución describe la habilidad de un dispositivo para discernir líneas como aquéllas encontradas en una carta de prueba. Como usted podría esperar, igual que con todas las otras cosas, los costos se elevan con la resolución de una cámara. La mayor resolución también crea otros problemas, por ejemplo, más píxeles significa archivos de imagen más grandes. No sólo los archivos más grandes son más difíciles de guardar, sino que también son más difíciles de editar, enviar por e-mail, y publicar en la Web.

Resolución óptica e interpolada: se debe tener en cuenta las demandas sobre la resolución de las cámaras y escáneres porque hay dos tipos de resolución : óptica e interpolada. La resolución óptica de una cámara o escáner es un número absoluto porque los píxeles de un sensor de imagen o fotoelementos son dispositivos físicos que pueden contarse. Para mejorar la resolución en ciertos límites respetados, la resolución óptica puede aumentarse usando software. Este proceso, llamado resolución interpolada, agrega píxeles a la imagen para aumentar el número total de los mismos. Para hacer esto, el software evalúa aquellos píxeles que rodean cada nuevo píxel para determinar de qué color debería ser el mismo. Por ejemplo, si todos los píxeles alrededor de un píxel recientemente insertados son rojos, los nuevos píxeles se harán rojos. Lo que es importante tener presente es que la resolución interpolada no agrega nueva información a la imagen, sólo agrega píxeles y hace el archivo más grande. Esta misma cosa puede hacerse en un programa de edición de fotografía como Photoshop al hacer un nuevo muestro de la imagen.

Anuncio

De modo que el tamaño del sensor es tan importante como la tecnología usada para la interpolación de la imagen. En algunas cámaras, este procesado de la imagen puede ser programado -en parte- por el propio usuario, especificando diferentes parámetros de nitidez, tono, contraste, y calidad final.

Profundidad de color: La resolución no es el único factor que determina la calidad de las imágenes. Igualmente importante es el color, cuando usted observa una escena natural, o una impresión de color fotográfica bien hecha, se pueden distinguir millones de colores. Las imágenes digitales pueden aproximar este realismo de color, pero si las mismas pueden hacerlo en su sistema depende de sus capacidades y sus funciones. El número de colores en una imagen se identifica como su profundidad de color, profundidad de píxeles, o profundidad de bit.

La PCs más viejas estaban limitadas a monitores que mostraban sólo 16 o 256 colores. Sin embargo, casi todos los nuevos sistemas pueden mostrar lo que se llama Color Verdadero de 32-bits (32-bit True Color). Se llama Color Verdadero porque estos sistemas muestran 16 millones de colores, casi el número que el ojo humano puede distinguir. ¿Por qué se necesitan 24 bits para conseguir 16 millones de colores? Es aritmética simple. Para calcular cuántos colores diferentes pueden capturarse o pueden ser vistos, simplemente eleve el número 2 a la potencia del número de bits usados para grabar o visualizar la imagen. Por ejemplo, 8-bits le da 256 colores porque 28=256. Vea la tabla 6.1 y observe las posibilidades.

Algunas cámaras digitales (y escáneres) usan a menudo 30 o más bits por pixel y las aplicaciones profesionales requieren 36-bit de profundidad de color, un nivel sólo logrado por cámaras digitales profesional elevadas. (La Canon Pro70 fue la primera cámara del consumo de 30-bit.) Estos bits extras no se usan para generar colores que sean luego visualizados. Son usados para mejorar el color en la imagen cuando se procesa hasta su forma final de 24-bits y luego son descartados.

Sensibilidad: Un número ISO (International Organization for Standardization u Organización Internacional para la Estandarización) que aparece en el paquete de la película especifica la velocidad, o sensibilidad, de una película basada en proceso de plata. Cuanto más alto sea el número, “más rápida” o más sensible es la película a la luz. Al igual que en las películas fotográficas se clasifican en velocidades como 100, 200, o 400. Cada duplicado del número ISO indica un duplicado en la velocidad de la película de manera que cada una de estas películas es el doble de rápida que la anterior.

Los sensores de imagen también usan números ISO equivalentes. Así como con una película, un sensor de imagen con un ISO más bajo necesita más luz para una exposición buena que uno con un ISO más alto. Para capturar mas luz necesita un tiempo de exposición más largo que puede llevar a imágenes difusas o una abertura mayor que le dará menos profundidad de campo. Por lo tanto, es mejor un sensor de imagen con un ISO más alto porque reforzará el congelamiento de imágenes en movimiento disparando con poca luz. Típicamente, los ISOs van de 100 (bastante lento) a 3200 o más alto (muy rápido).

Calidad de la imagen: El tamaño de un archivo de imagen depende en parte de la resolución de la imagen. Cuanto más alta sea la resolución, existen más píxeles para almacenar de manera que más grande se vuelve el archivo de la imagen. Para hacer archivos grandes de imagen más pequeños y más manejables la mayoría de las cámaras los almacenan en un formato llamado JPEG nombre que deriva de su diseñador, el Joint Photographic Experts Group o Agrupación de Expertos Fotográficos Asociados. Este formato de archivo no sólo comprime imágenes, también le permite especificar el grado de compresión de las mismas. Esta es una característica útil porque hay un compromiso entre la compresión y calidad de la imagen. Menos compresión le da mejores imágenes para que usted pueda hacer impresiones más grandes, pero usted no puede guardar tantas imágenes. Más compresión le permite guardar más imágenes y hace las imágenes mejores para publicarlas una página Web o enviarlas como archivo adjunto de e-mail. El único problema es que sus impresiones no serán tan buenas.

Una imagen muy comprimida mostrará un aspecto cuadriculado cuando se agranda más allá de un cierto punto. Una imagen con menos compresión retiene un aspecto definido. En lugar de usar compresión, algunas cámaras le permiten cambiar la resolución como una manera de controlar el tamaño de los archivos de la imagen. Debido a que usted puede almacenar más imágenes de 640 x 480 en un dispositivo de almacenamiento que imágenes de 1024 x 768, puede haber ocasiones en que será preferible cambiar a una resolución más baja y sacrificar la calidad por cantidad.

  https://i2.wp.com/ingenieriaelectronica.org/wp-content/uploads/Figura-6.18-componentes-principales-de-una-cámara-digital.png?fit=475%2C290&ssl=1https://i2.wp.com/ingenieriaelectronica.org/wp-content/uploads/Figura-6.18-componentes-principales-de-una-cámara-digital.png?resize=128%2C78&ssl=1LuisOptoelectrónica

Nota: En este artículo también se toca el tema 'Funcionamiento de una cámara de exploración'. Todas las cámaras de película son simplemente cajas oscuras en las que usted puede insertar el tipo de película que quiera. Es la película que usted escoge la que da colores distintivos, tonos, granulado a...