miércoles, 19 de diciembre de 2012

Características de la imagen digital.

-Al analizar la calidad de una imagen debemos fijarnos en una serie de parámetros.

1.PROFUNDIDAD DE COLOR: se trata de la cantidad de bits dedicados a almacenar información sobre el color de un pixel de la imagen. Un pixel en color se compone de tres pixeles; uno por cada color primario (RGB: Red-Green-Blue)
Si tenemos una profundidad de color de 1 byte por cada color, entonces tendremos una gama de 256 verdes, 256 rojos y 356 azules.
La combinación de todos estos colores nos da una gama de 16 millones de colores. Cuanto mayor es la profundidad del color, mejor se reflejara la realidad.

2.LA RESOLUCIÓN DE LA IMAGEN: es el parámetro que nos relaciona la cantidad de pixeles con las dimensiones de visionado. Se define como el numero de pixeles por unidad de longitud. Se suele mostrar como puntos por pulgada (1 pulgada son 2,54 cm)

3.TAMAÑO DE LA IMAGEN: la imagen digital consta de millones de celdillas organizadas en forma de retícula. El tamaño de la imagen viene definido por el tamaño de dicha retícula: lo definimos como el producto de la cantidad de pixeles de ancho por la cantidad de pixeles de alto de la imagen.
No debemos confundir el tamaño o peso de la imagen con las dimensiones físicas, ya que estas las definimos para visionar la imagen.

RELACIÓN ENTRE EL TAMAÑO, LA RESOLUCIÓN Y EL PESO DE LA IMAGEN.
Estudiadas las principales características que definen una imagen digital, podemos establecer la siguiente tabla resumen, en la que se especifica el tamaño máximo de impresión que permiten las actuales cámaras fotográficas.


Una cámara puede tener tres formatos de archivo: JPEG, TIFF y RAW.
Dependiendo de cada formato, la foto ocupara mas o menos memoria:

1.El formato JPEG es el mas utilizado por las cámaras digitales.
2. El formato RAW solo esta disponible en cámaras profesionales, pues ofrecen la imagen tal y como la capta el foto sensor, sin ningún tipo de compresión.
3. El formato TIFF también se utiliza para transmitir imágenes de paginas completamente escaneadas.

Las cámaras digitales actuales nos permiten ajustar la resolución de captura. Antes de definirla, debemos tener en cuenta el destino final de la imagen que estamos capturando, ya que podemos encontrarnos con fotografías de baja resolución que se van imprimiendo o visualizando en pantallas grandes o por el contrario, con fotos de gran tamaño y peso que van a ser enviadas por Internet.

COMPRESIÓN DE ARCHIVOS


En ciencias de la computación la compresión de datos es la reducción del volumen de datos tratables para representar una determinada información empleando una menor cantidad de espacio. Al acto de compresión de datos se denomina compresión, y al contrario descompresión.

El espacio que ocupa una información codificada (datos, señal digital, etc.) sin compresión es el cociente entre la frecuencia de muestreo y la resolución. Por tanto, cuantos más bits se empleen mayor será el tamaño del archivo. No obstante, la resolución viene impuesta por el sistema digital con que se trabaja y no se puede alterar el número de bits a voluntad; por ello, se utiliza la compresión, para transmitir la misma cantidad de información que ocuparía una gran resolución en un número inferior de bits.

La compresión es un caso particular de la codificación, cuya característica principal es que el código resultante tiene menor tamaño que el original.

La compresión de datos se basa fundamentalmente en buscar repeticiones en series de datos para después almacenar solo el dato junto al número de veces que se repite. Así, por ejemplo, si en un fichero aparece una secuencia como "AAAAAA", ocupando 6 bytes se podría almacenar simplemente "6A" que ocupa solo 2 bytes, en algoritmo RLE.

En realidad, el proceso es mucho más complejo, ya que raramente se consigue encontrar patrones de repetición tan exactos (salvo en algunas imágenes). Se utilizan algoritmos de compresión:
Por un lado, algunos buscan series largas que luego codifican en formas más breves.
Por otro lado, algunos algoritmos, como el algoritmo de Huffman, examinan los caracteres más repetidos para luego codificar de forma más corta los que más se repiten.
Otros, como el LZW, construyen un diccionario con los patrones encontrados, a los cuales se hace referencia de manera posterior.
La codificación de los bytes pares es otro sencillo algoritmo de compresión muy fácil de entender.

A la hora de hablar de compresión hay que tener presentes dos conceptos:
-Redundancia: Datos que son repetitivos o previsibles
-Entropía: La información nueva o esencial que se define como la diferencia entre la cantidad total de datos de un mensaje y su redundancia.

La información que transmiten los datos puede ser de tres tipos:
Redundante: información repetitiva o predecible.
Irrelevante: información que no podemos apreciar y cuya eliminación por tanto no afecta al contenido del mensaje. Por ejemplo, si las frecuencias que es capaz de captar el oído humano están entre 16/20 Hz y 16.000/20.000 Hz, serían irrelevantes aquellas frecuencias que estuvieran por debajo o por encima de estos valores.
Básica: la relevante. La que no es ni redundante ni irrelevante. La que debe ser transmitida para que se pueda reconstruir la señal.

Teniendo en cuenta estos tres tipos de información, se establecen tres tipologías de compresión de la información:
-Sin pérdidas reales: es decir, transmitiendo toda la entropía del mensaje (toda la información básica e irrelevante, pero eliminando la redundante).
-Subjetivamente sin pérdidas: es decir, además de eliminar la información redundante se elimina también la irrelevante.
-Subjetivamente con pérdidas: se elimina cierta cantidad de información básica, por lo que el mensaje se reconstruirá con errores perceptibles pero tolerables (por ejemplo: la videoconferencia).

No hay comentarios:

Publicar un comentario