21
CLASE 4 (16-09) TEÓRICO 1) IMAGEN DIGITAL En la fotografía tradicional, al revelarse la película obtenemos una imagen impresa sobre papel fotográfico. En cambio con la imagen digital tenemos un archivo informático . Vamos a definir entonces qué es una imagen digital y cómo se forma, cuáles son los formatos de archivos más comunes de la imagen digital y qué características tienen, los modos de compresión y cuáles son los programas para su tratamiento. Definiremos también la fotografía digital, qué son los píxeles, los modos de imagen, qué es la resolución de una imagen y cuáles son las resoluciones óptimas según el soporte al que estará destinada. También conoceremos los modelos de color, RGB y CMYK, y cuál es el tratamiento que debe recibir una imagen para alcanzar condiciones óptimas de calidad para un soporte digital. IMAGEN DIGITAL Y SU FORMACIÓN La imagen digital está formada por una serie de matrices numéricas de ceros y unos que se almacenan en una memoria informática y que definen las características de una fotografía. Cuando esta imagen es interpretada por un sistema informático se transforma en una imagen visible a través de la pantalla e imprimible a través de cualquier dispositivo de salida. Existen 2 tipos de imágenes : Vectoriales y Rasterizadas . Las primeras no son la representación de un objeto de la realidad (analógico pasado a digital) sino que tienen el aspecto de un dibujo (digital). Las Rasterizadas son las fotografías típicas, transformación analógica a digital. Trata de información 1

CLASE 3 (02-09) · Web viewLos frecuentes equívocos en el uso de la palabra resolución se resuelven distinguiendo en la imagen tres tipos de tamaño: en píxeles, informático y

Embed Size (px)

Citation preview

Page 1: CLASE 3 (02-09) · Web viewLos frecuentes equívocos en el uso de la palabra resolución se resuelven distinguiendo en la imagen tres tipos de tamaño: en píxeles, informático y

CLASE 4 (16-09)

TEÓRICO

1) IMAGEN DIGITAL

En la fotografía tradicional, al revelarse la película obtenemos una imagen impresa sobre papel fotográfico. En cambio con la imagen digital tenemos un archivo informático.

Vamos a definir entonces qué es una imagen digital y cómo se forma, cuáles son los formatos de archivos más comunes de la imagen digital y qué características tienen, los modos de compresión y cuáles son los programas para su tratamiento.

Definiremos también la fotografía digital, qué son los píxeles, los modos de imagen, qué es la resolución de una imagen y cuáles son las resoluciones óptimas según el soporte al que estará destinada.

También conoceremos los modelos de color, RGB y CMYK, y cuál es el tratamiento que debe recibir una imagen para alcanzar condiciones óptimas de calidad para un soporte digital.

IMAGEN DIGITAL Y SU FORMACIÓN

La imagen digital está formada por una serie de matrices numéricas de ceros y unos que se almacenan en una memoria informática y que definen las características de una fotografía.

Cuando esta imagen es interpretada por un sistema informático se transforma en una imagen visible a través de la pantalla e imprimible a través de cualquier dispositivo de salida.

Existen 2 tipos de imágenes: Vectoriales y Rasterizadas. Las primeras no son la representación de un objeto de la realidad (analógico pasado a digital) sino que tienen el aspecto de un dibujo (digital).

Las Rasterizadas son las fotografías típicas, transformación analógica a digital. Trata de información sobre luz para poder transformarla al sistema binario. El haz de luz puede ser transformado, por ejemplo, en RGB.

FORMACIÓN DE LA IMAGEN DIGITAL

1

Page 2: CLASE 3 (02-09) · Web viewLos frecuentes equívocos en el uso de la palabra resolución se resuelven distinguiendo en la imagen tres tipos de tamaño: en píxeles, informático y

La trayectoria que sigue la cámara para crear la imagen digital es la siguiente:

1) Se saca la foto con una cámara digital.

2) La luz que detecta el objetivo de la cámara llega hasta el sensor de imagen, denominado CCD formado por multitudes de receptores fotosensibles denominados "fotodiodos".

3) La luz incidente genera una señal eléctrica a cada receptor,

4) Posteriormente, la señal es convertida en datos digitales por el conversor ADC, como una serie de cadenas de números ceros y unos, denominados dígitos binarios. Estos números binarios (O,1), se representan como pequeños cuadraditos, en forma de mosaico individual denominados píxeles. Así la fotografía queda almacenada.

EL SISTEMA BINARIO Y SU FUNCIONAMIENTO

La información que procede del sensor de una cámara digital son datos analógicos. Para que estos datos se puedan almacenar en la tarjeta de memoria y que el ordenador pueda interpretarlos se deben convertir a formato binario.

El ordenador reconoce un estado activo que lo representa con el (1) y otro estado inactivo que lo representa con el (0). Las cifras binarias se forman por un número total de ceros y unos. Estos ceros y unos tienen el doble del valor que el primero "potencia de 2", 8, 16 etc.

Un BIT es igual a la unidad mínima de información del sistema binario, siendo el 0 y el 1. Un byte es igual a 8 bits u octeto.

PIXELES: LOS PUNTOS DE UNA IMAGEN

Si comparamos con la fotografía tradicional y analógica, observamos que una película fotográfica está formada por pequeños granitos formados por haluros de plata sensibles a la luz, éstos al encontrarse muy juntos forman la imagen que vemos. Cada uno de estos granitos es la unidad más pequeña que hay en una fotografía tradicional.

Pero en el caso de la fotografía digital, este granito pequeñito es sustituido por el píxel. La imagen que obtenemos ya sea a través de una pantalla, o un escáner o una cámara digital, es un enorme mosaico lleno de millones de píxeles.

Cada píxel "cuadrito" contiene la información del color de esa pequeña porción.

El píxel solo puede ser de color rojo, verde o azul o la mezcla de los tres. Un píxel, solo tiene un color no puede tener dos colores.

Al visualizar todos los píxeles juntos, uno al lado de otro, dan la impresión de continuidad respecto a la tonalidad del color, formando así la imagen.

2

Page 3: CLASE 3 (02-09) · Web viewLos frecuentes equívocos en el uso de la palabra resolución se resuelven distinguiendo en la imagen tres tipos de tamaño: en píxeles, informático y

LA RESOLUCIÓN, CANTIDAD DE PÍXELES

En un sentido amplio, resolución se refiere a la capacidad de una tecnología o un mecanismo para reflejar los detalles de una imagen.

La forma de traducir una fotografía en bits para poder manejarla como archivo informático es dividirla según una malla de filas y columnas. A las unidades resultantes se les llama píxeles: son todos del mismo tamaño y representan áreas cuadradas de la imagen original.

Si dividimos la imagen en pocos píxeles, podremos codificarla con poca información, pero seguramente perderemos mucho detalle, por lo que decimos que tiene poca resolución. Si la dividimos en muchas más partes, éstas llegarán a ser tan pequeñas que no las distinguiremos. La visión de la imagen será mucho mejor y más detallada, pero también mucho más costosa en bits. Un aspecto importante es que, salvo limitaciones en la tecnología que utilicemos, el tamaño y la frecuencia de los píxeles siempre son a voluntad nuestra.

Los frecuentes equívocos en el uso de la palabra resolución se resuelven distinguiendo en la imagen tres tipos de tamaño: en píxeles, informático y superficial.

* Tamaño en píxeles: Obviamente, indica en cuántas filas y columnas se ha dividido la imagen, o bien cuál es el número total de píxeles.

Por ejemplo, decimos que una foto tiene 1600 x 1200 píxeles. También podemos decir que tiene 1.920.000 píxeles, o redondear diciendo que es una foto de 2 megapíxeles. Se redondea tanto que no se tiene en cuenta que nos referimos a un sistema binario, en el que kilo no significa 1000, sino 1024 (la décima potencia de 2) y mega no significa 1.000.000, sino 1.048.576.

* Tamaño informático: Se cuenta en unidades de información como bytes, kilobytes o megabytes, y depende directamente de dos cosas: del número de píxeles y de la cantidad de bytes que gastamos para definir cada píxel.

La profundidad de bits permite diferenciar y aplicar un número más o menos grande de colores. La mayoría de las cámaras digitales utilizan la profundidad de 24 bits del modo RGB, por lo que cada píxel se anota con 3 bytes.

Se calcula rápidamente que cada megapíxel ocupará en memoria 3 megabytes (algo menos, porque la máquina no redondea como nosotros). En las tarjetas de memoria suele ocupar mucho menos, porque los datos se guardan comprimidos.

* Tamaño superficial o de salida: Es lo que ocupará la foto si la imprimimos. Los píxeles son realmente información numérica, así que este tamaño lo decidimos nosotros, indicando cuántos píxeles queremos imprimir en cada centímetro o pulgada de papel.

Todo sería mucho más simple si reservásemos el término "resolución" para expresar esta relación: número de píxeles por unidad de medida lineal, por ej.: 1200x1800.

3

Page 4: CLASE 3 (02-09) · Web viewLos frecuentes equívocos en el uso de la palabra resolución se resuelven distinguiendo en la imagen tres tipos de tamaño: en píxeles, informático y

Podemos cambiarla sin modificar en absoluto la información de imagen. Simplemente, indicando menos resolución (menos píxeles por pulgada) la foto se imprimirá más grande, e indicando más resolución se imprimirá en menos papel porque los píxeles serán más pequeños y concentrados.

La resolución así entendida la podríamos decidir en el momento de imprimir. Para la cámara, no obstante, es obligatorio que el número de píxeles por pulgada figure como dato al crear un formato de archivo como JPEG o TIFF. Se asigna una resolución por defecto, habitualmente 72, 180 ó 300 ppp. No tiene importancia, es un dato que podemos modificar sin estropear nada. En definitiva, el número de píxeles que contenga una imagen depende de cuántos píxeles utilice el sensor CCD de la cámara para captar la imagen.

El término “resolución” se utiliza también para clasificar casi todos los dispositivos relacionados con las imagen digital ya sean pantallas de ordenador o televisión, impresoras, escáneres, cámaras, etc.

EXPRESIÓN DE LA RESOLUCIÓN TOTAL DE UNA IMAGEN

La resolución de una imagen digital se expresa multiplicando su anchura por la altura en píxeles. Por ejemplo la imagen de 1200 x 1200 píxeles = 1.440.000 píxeles, expresado en Mp (megapixel) es igual a 1,4 Mp.

Conviene tener en cuenta que 1 Megapíxels = 1024 píxeles.

No se debe confundir este concepto con la cantidad de pixels por pulgada que requiere cada soporte para una resolución óptima.

Otro factor que incluye en la calidad de visualización de la imagen, según el soporte a emplear, es el tamaño físico del píxel y la distancia promedio desde la que la imagen será visualizada.

PÍXELES O PUNTOS POR PULGADA (ppp - dpi)

Si bien se emplean los conceptos punto y píxel como sinónimo, el primero es más adecuado para referirse a la resolución que ofrece una impresora, el segundo, para la calidad de la imagen en sí.

La resolución expresada en Puntos Por Pulgada (Dot per Inch o dpi) o Pixel por Pulgada (Pixel per Inch o ppi), son los píxeles (puntos) por unidad de longitud, es decir, los píxeles que se alinean (vertical u horizontalmente) por cada pulgada de imagen, que mide 2,54 cm.

La resolución define la cantidad de píxeles que contiene una imagen y la dimensión de estos píxeles expresan de qué forma se reparten en el espacio. La resolución es la relación entre las dimensiones digitales (los píxeles) y las físicas, las que tendrá una vez impresa sobre papel o reconstruidas sobre una pantalla.

Para calcular del tamaño en píxeles a tamaño en centímetros para la impresión podemos aplicar la siguiente fórmula:

* Tamaño de impresión= Número de píxeles/ Resolución (PPP píxeles por pulgada)

4

Page 5: CLASE 3 (02-09) · Web viewLos frecuentes equívocos en el uso de la palabra resolución se resuelven distinguiendo en la imagen tres tipos de tamaño: en píxeles, informático y

La resolución óptima para una imagen depende de las características del soporte en el que será empleada. Como referencia, se recomiendan las siguientes:

* Imágenes para visualizar en pantalla: 72 dpi

* Imágenes para impresora hogareña: 150 dpi como mínimo

* Imágenes para impresión en ofsett color: 300 dpi

RESOLUCIÓN DE PANTALLA

La resolución de pantalla es el número de píxeles que puede ser mostrado en una pantalla tanto en ancho como en alto. Se pueden diferenciar dos tamaños de pantalla diferentes:

* Tamaño absoluto: es el tamaño "real" de la ventana del monitor, medido generalmente en pulgadas en diagonal entre dos ángulos. Depende del monitor. Con el mismo tamaño, cada monitor puede definir una relación de aspecto, 4:3, 5:3, 16:9, etc. El primer número las veces del ancho y el segundo las del alto.

* Resolución o tamaño relativo: viene determinada por el número de píxeles que se muestran en la ventana del monitor, siendo el píxel la unidad mínima de información que se puede presentar en pantalla, de forma generalmente rectangular.

PIXELACIÓN

En la fotografía tradicional se producía el famoso efecto de granulación al realizar una ampliación en la fotografía, en cambio en la imagen digital este efecto es sustituido por el de pixelación.

Si reproducimos una imagen con baja resolución quiere decir que el píxel ocupa más espacio y deforma la imagen con el efecto de pixelación, (píxeles de gran tamaño) aportando poca definición a la imagen. En cambio, si la resolución en ppp, es más alta, existe más detalle y más definición.

Las imágenes con una resolución más alta reproducen más detalle, que las imágenes con resolución más baja. Si se usa una resolución demasiado baja para una imagen impresa se produce entonces el fenómeno de la pixelación, con píxeles de gran tamaño que dan a la imagen un aspecto de poca definición.

COMO GUARDA EL COLOR EL PÍXEL: Profundidad de color

5

Page 6: CLASE 3 (02-09) · Web viewLos frecuentes equívocos en el uso de la palabra resolución se resuelven distinguiendo en la imagen tres tipos de tamaño: en píxeles, informático y

Sabemos que el píxel es una pequeña porción de una imagen y que a su vez guarda en él una pequeña parte del tono de color de esa misma imagen.

La profundidad del BIT o profundidad del píxel o profundidad del color, estima los valores que puede llegar a tener cada píxel que forma la imagen. Si tiene más cantidad de bits por píxel más colores, mayor calidad de imagen y mayor tamaño del archivo.

LA PROFUNDIDAD DEL BIT SE PUEDE MEDIR EN:

La imagen digital puede ser en escala de grises o en color.

* Imagen de 1 Bit: La imagen digital que utiliza un solo BIT para definir el color de cada píxel, solamente podrá tener dos estados de color el blanco y el negro.

* Imagen de 8 Bits / 256 tonos de grises: Con 8 bits se muestra una imagen de 256 tonos de grises diferentes, y comparable con una imagen de las tradicionales en blanco y negro.

Cuantos más bits tenga una imagen mayor número de tonos podrá contener la imagen. Lo normal es 8 0 16 bits. Utilizando los 8 bits sólo existe 256 tonos o estados.

* Imagen de 24 Bits de color: Una imagen digital en color se crea con los parámetros en R G B, por síntesis aditiva, el color rojo, verde y azul.

Si anteriormente necesitábamos 8 bits para captar una imagen de 256 tonos de un solo color, ahora precisamos 24 bits, 8 por canal: * 8 bits de color rojo. * 8 bits de color verde. * 8 bits de color azul; para llegar a representar el tono adecuado a cada píxel de la fotografía en color.

Una imagen de 24 bits de color, mostrará 16,7 millones de colores, los suficientes para mostrar cualquier matiz de color que se necesite. Los 16,7 millones de colores los traduciríamos a 256 tonos de color azul x 256 tonos de verde y 256 tonos de rojo, el resultado de esta operación es lo que da los 16,7 millones de colores.

FORMATOS DE ARCHIVOS

Existen muchas clases de archivos informáticos para almacenar imágenes. La mayoría de ellos cuentan con algún nivel de compresión para reducir el tamaño del archivo.

En este apartado explicaremos algunos de los formatos de archivos de imágenes que utilizan las cámaras digitales, así como los archivos que utilizan diferentes clases de programas de edición y visualización.

6

Page 7: CLASE 3 (02-09) · Web viewLos frecuentes equívocos en el uso de la palabra resolución se resuelven distinguiendo en la imagen tres tipos de tamaño: en píxeles, informático y

TIPOS DE IMÁGENES:

Vectoriales

Las imágenes digitales pueden ser mapa de bits o vectoriales. Las imágenes vectoriales son gráficos formados a base de curvas y líneas a través de elementos geométricos definidos como vectores. La gran ventaja de las imágenes vectoriales es que no sufren pérdida de resolución al producirse una ampliación de los mismos. Se utiliza mucho para trabajos de rotulación, rótulos, iconos, dibujos, logotipos de empresa etc. Esta clase de imagen tiene poco peso como archivo informático, medido en Kilobytes.

Este tipo de archivos lo utilizan programas de dibujo y de diseño tales como: Adobe Ilustrator, Freehand, Corel Draw entre otros. Otra particularidad de esta clase de archivos es que solo pueden visualizarse a través del programa que los creó, sino se transforman en mapa de bits.

Mapa de bits o rasterizadas

Los archivos de imágenes rasterizadas se guardan normalmente en forma de mapa de bits o mosaico de píxeles. Cada píxel guarda la información de color de la parte de imagen que ocupa.

Este tipo de imágenes son las que crean los escáneres y las cámaras digitales. Esta clase de archivos ocupan mucha más memoria que las imágenes vectoriales.

El principal inconveniente que presentan esta clase de archivos es el de la ampliación, cuando un archivo se amplia mucho, se distorsiona la imagen mostrándose el mosaico "los píxeles" y una degradación en los colores llegando al efecto pixelación (definido en el apartado de imagen digital), debido a la deformación de la fotografía.

La imagen de mapa de bits, al ampliar indefinidamente su tamaño pierde nitidez y resolución

COMPRESIÓN DE LOS ARCHIVOS DIGITALES

Los formatos de archivos digitales almacenan la información codificando la imagen, para lo cual toman cada píxel de forma individual, esto ocasiona que el archivo ocupe mucho espacio, aunque no pierda ninguna clase de información.

Las cámaras digitales suelen realizar una forma de compresión del archivo para reducir el tamaño del mismo. Para eso eliminan lo que carece de valor, pero una vez se visualiza de nuevo la imagen, el proceso de compresión se invierte.

La lógica con la que operan es la eliminación de la información redundante o cuya particularidad no alcanza a ser percibida por el ojo humano.

Existen diferentes clases de archivos digitales, unos sufren pérdida de calidad y otros no.

La compresión, en realidad, consiste en sustituir la cadena de datos por otra más corta cuando se guarda el archivo.

Ciertos métodos son reversibles ("lossless", en inglés), porque permiten la reconstrucción exacta del original. Pero con otros, la información original sólo se

7

Page 8: CLASE 3 (02-09) · Web viewLos frecuentes equívocos en el uso de la palabra resolución se resuelven distinguiendo en la imagen tres tipos de tamaño: en píxeles, informático y

recupera aproximadamente, ya que se descarta una parte de los datos ("lossy"), a cambio de relaciones de compresión mucho mayores.

El principio que emplea explota la diferencia que existe entre información y datos. En muchas ocasiones se utilizan como sinónimos, pero no lo son. Los datos son una forma representar la información; así, una misma información puede ser representada por distintas cantidades de datos. Por tanto, algunas representaciones de la misma información contienen datos redundantes.

La compresión de datos se define como el proceso de reducir la cantidad de datos necesarios para representar eficazmente una información, es decir, la eliminación de datos redundantes. En el caso de las imágenes, existen tres maneras de reducir el número de datos redundantes:

* Eliminar código redundante.

* Eliminar píxeles redundantes.

* Eliminar redundancia visual.

FORMATOS SIN PÉRDIDA DE RESOLUCIÓN NI CALIDAD

Las cámaras digitales utilizan un formato que mantiene el archivo de la imagen en su estado virgen, en el cual no realizan ninguna clase de descarte de datos y el archivo se mantiene en su máxima calidad, igual que en el momento que se captó la imagen. Podemos citar el formato RAW y el TIFF

Otros formatos sin pérdida de calidad: BMP,EPS, PSD, PDF.

FORMATOS CON PÉRDIDA DE CALIDAD

En la imagen y archivos digitales, existen formatos de archivo que desechan información que puede considerarse innecesaria o poco relevante al almacenarlas, sufriendo una pérdida de calidad (a veces teórica y en ocasiones evidente, según el nivel de compresión), pero con la ventaja de que obtienen archivos informáticos con menor peso y espacio en las computadoras, haciéndolas más manejables.

Algunos de estos formatos: JPEG, GIF, PNG.

Utilizaremos un formato u otro, dependiendo si el archivo está destinado para la impresión o bien para internet o para guardarlo en el disco duro de nuestro ordenador, etc.

8

Page 9: CLASE 3 (02-09) · Web viewLos frecuentes equívocos en el uso de la palabra resolución se resuelven distinguiendo en la imagen tres tipos de tamaño: en píxeles, informático y

2) SONIDO DIGITAL

Podemos definir al sonido como la interpretación que hace nuestro cerebro de las variaciones de presión que genera un objeto vibrante en determinado medio, habitualmente, el aire, sobre el tímpano del oído. El sonido viaja en forma de ondas y cuando mayor es la onda más fuerte es el sonido.

La onda de las partículas de aire forma una onda de sonido.

VISUALIZACIÓN DE LAS ONDAS DE SONIDO

Si por ejemplo lanzamos un objeto al agua, una piedra, o simplemente el salto de una rana al agua, vemos que se forman unas ondas en el agua. Las ondas se mueven hacia fuera desde el punto que se lanzo el objeto y lo hace a una velocidad constante, a esta velocidad la denominamos "frecuencia" y a una altura determinada por el tamaño del objeto lanzado. El agua se mueve o desplaza por la presión que crea el impacto del objeto lanzado, ese movimiento en el agua son lo que denominaríamos las ondas en sonido.

Para que esa vibración sea audible para un ser humano, la oscilación debe producirse entre 20 y 20 mil veces por segundo. Es decir que nuestro rango de audición va de 20 Hertz (ciclos) a 20 Kilohertz (ó 20.000 Hertz).

CARACTERÍSTICAS: ALTURA, TIMBRE E INTENSIDAD

* ALTURA: (más o menos agudo) determinan si los sonidos son más graves o agudos. Está directamente relacionada con la frecuencia de oscilación. Más ciclos por segundo provocarán un sonido más agudo, menos ciclos, más grave.

* TIMBRE: es lo que permite identificar y reconocer una voz o un instrumento musical. Es consecuencia de que los sonidos naturales con complejos y están compuestos por varias frecuencias que se combinan. La frecuencia más grave de ese sonido complejo se la denomina frecuencia base y es la que determina habitualmente la altura del sonido. El resto de las señales se denominan armónicos y son los que le otorgan identidad al sonido.

* INTENSIDAD: depende de la diferencia entre las presiones máximas y mínimas que puede alcanzar el sonido. Se mide en decibeles y podemos asociarlas a la idea de volumen. Cuanto mayor amplitud de onda, más elevado será el volumen.

9

Page 10: CLASE 3 (02-09) · Web viewLos frecuentes equívocos en el uso de la palabra resolución se resuelven distinguiendo en la imagen tres tipos de tamaño: en píxeles, informático y

LONGITUD DE ONDA Y LA FRECUENCIA

La altura o amplitud de la onda representa su volumen, que queda determinado por la potencia de la fuente de sonido, o la fortaleza de la vibración que creó la onda de presión. Se mide en Db o Decibeles.

Siguiendo el anterior ejemplo de lanzar un objeto al agua, cuando mayor sea el objeto lanzado, mayor serán las ondas que se crearan en el agua.

La extensión de una onda se denomina longitud de onda, y en número de ondas que se recogen en un mismo punto en un espacio de tiempo, se denomina frecuencia de la onda, y esta se mide en Hercios (HZ o KHZ). El oído humano capta un intervalo de frecuencias de 20 HZ y 20.000 HZ.

Las frecuencias bajas de 20 Hz, se denominan infrasonidos y las frecuencias más altas 20.000 Hz, se definen como ultrasonidos.

CONVERTIR EL SONIDO EN DIGITAL

El sonido digital es un poco más complejo que el analógico, ya que no se almacena mediante oscilaciones de onda, sino que se ha de convertir en ceros y unos, lenguaje digital (código binario o máquina).

El proceso de digitalización se compone de dos fases: muestreo y cuantización. En el muestreo se divide el eje del tiempo en segmentos discretos: la frecuencia de muestreo será la inversa del tiempo que medie entre una medida y la siguiente.

Se trata entonces de la grabación de la altura actual de la onda de sonido a intervalos regulares. La longitud de estos intervalos se denomina, tasa de muestreo. Cada nivel o pico es una muestra y cuando las coloca todas juntas ordenadas forman una representación digital de la onda de sonido.

Entonces, la tasa o frecuencia de muestreo es el número de muestras por unidad de tiempo que se toman de una señal continua para producir una señal discreta, durante el proceso necesario para convertirla de analógica en digital.

10

Page 11: CLASE 3 (02-09) · Web viewLos frecuentes equívocos en el uso de la palabra resolución se resuelven distinguiendo en la imagen tres tipos de tamaño: en píxeles, informático y

Como todas las frecuencias, generalmente se expresa en hercios (Hz, ciclos por segundo) o múltiplos suyos, como el kilohercio (kHz), aunque pueden utilizarse otras magnitudes.

El sonido importado a un programa se representa como onda de sonido. Los picos representan la amplitud o intensidad del sonido durante un espacio de tiempo.

A la conversión del sonido de analógico a digital, se denomina Analog Digital Conversión o Conversión Analógico Digital.

En el momento de la toma de la muestra se realiza la cuantización , que, en su forma más sencilla, consiste simplemente en medir el valor de la señal en amplitud y guardarlo.

Será mayor la fidelidad de esa captura cuanto mayor sea sensibilidad de la escala, que está determinada por la cantidad de bits

Cuantificación entonces es el número de niveles habrá en cada espacio de tiempo.

Las muestras de cada inervarlo se convierten en un nivel. Dependiendo de la cantidad de información que haya en cada muestreo, existirán más o menos niveles.

Es evidente que cuantos más bits se utilicen para la división del eje de la amplitud, más "fina" será la partición y por tanto menor el error al atribuir una amplitud concreta al sonido en cada instante.

Por ejemplo, una señal muestreada a 8 BITS OFRECEN 256 NIVELES DE CUANTIZACIÓN Y A 16, ENTREGA 65536 NIVELES. El margen dinámico de la audición humana es de unos 100 dB. La división del eje se puede realizar a intervalos iguales o según una determinada función de densidad, buscando más resolución en ciertos tramos si la señal que se trata tiene más componentes en cierta zona de intensidad, como veremos en las técnicas de codificación. El proceso completo se denomina habitualmente PCM (Pulse Code Modulation)

Un ejemplo es el de los CD DE MÚSICA, presentan un muestreo de 16 BITS, ESTO REPRESENTA 65.536 NIVELES DISTINTOS Y 44.1 KHZ., por segundo.

CLASE

MUESTRA ES INTENSIDAD DE LA SEÑAL EN UN MOMENTO DEERMINADO. ES UN RECORTE QUE PRETENDE SER REPRESENTATIVO DE UN SONIDO. UNA SOLA NO SIRVE, SE NECESITAN SACAR MUCHÍSIMAS, “MUESTRAS REGULARES” QUE COMPONGAN UN MUESTREO . LA CANTIDAD DE MUESTRAS QUE UNO TOMA POR SEGUNDO ES LA TASA DE MUESTREO . ESTO EXIGE DE ANTEMANO ESTABLECER UN REGISTO POSIBLE ( CUANTIZACIÓN ), QUE SON LOS BITS DISPONIBLES PARA CADA MUESTRA, + POSIBILIDADES, UN REGISTRO MÁS FIEL. COMO LAS IMÁGENES CON LOS PIXELES.

TASA DE MUESTREO: PULSOS POR SEGUNDO

La tasa de muestreo se expresa en Hercios, que son las muestras o pulsos por segundo. Por ejemplo si tenemos un archivo de sonido de 40 Khz, hacemos referencia al tiempo

11

Page 12: CLASE 3 (02-09) · Web viewLos frecuentes equívocos en el uso de la palabra resolución se resuelven distinguiendo en la imagen tres tipos de tamaño: en píxeles, informático y

que existe entre muestra y muestra. 40 Khz se traduce en 40.000 hercios, muestras por segundo (Un Khz. equivale a 1000 hercios).

TASA DE MUESTREO RECOMENDABLE

En audio, la máxima audiofrecuencia perceptible para el oído humano joven y sano está en torno a los 20 kHz, por lo que teóricamente una frecuencia de muestreo de 40000 sería suficiente para su muestreo; no obstante, el estándar introducido por el CD, se estableció en 44100 muestras por segundo. La frecuencia de muestreo ligeramente superior permite compensar los filtros utilizados durante la conversión analógica-digital.

Hay que tener en cuenta que no todas las fuentes sonoras se aproximan a los 20 kHz que corresponden a esta frecuencia máxima; la mayoría de los sonidos está muy por debajo de ésta. Por ejemplo, si se va a grabar la voz de una soprano, la máxima frecuencia que la cantante será capaz de producir no tendrá armónicos de nivel significativo en la última octava (de 10 a 20 kHz), con lo que utilizar una frecuencia de muestreo de 44100 muestras por segundo sería innecesario (se estaría empleando una capacidad de almacenamiento extra que se podría economizar).

El estándar del CD-Audio está fijado en 44100 muestras por segundo, pero esto no significa que esa sea la frecuencia que utilizan todos los equipos. Los sistemas domésticos de baja calidad pueden utilizar tasas de 22050 muestras por segundo o de 11025 muestras por segundo (limitando así la frecuencia de los componentes que pueden formar la señal). Además, las tarjetas de sonido de los equipos informáticos utilizan frecuencias por encima o por debajo de este estándar, muchas veces seleccionándolas en función de las necesidades concretas (sobre todo, en aplicaciones de audio profesional).

Existe una ley descubierta por Nyquist, que dice que si la tasa de muestreo es dos veces la frecuencia más alta que contiene el sonido, este se puede muestrear o samblear sin pérdida de calidad.

Poniendo por ejemplo la frecuencia más alta que podemos escuchar es de 20 Khz. (20.000 hz). Esto se traduce a que si muestreamos un sonido a 40 KHZ, nadie notará la diferencia entre un sonido original a un sonido muestreado. Los discos compactos contienen sonido muestreado a 40 Khz., un nivel máximo de muestreo, dando como resultado una copia digital perfecta.

EDICIÓN DE AUDIO DIGITAL

El archivo de audio digitalizado y almacenado en un disco regrabable puede ser modificado y se le pueden aplicar diferentes efectos, generalmente llamados filtros. Es posible realizar desde sencillas operaciones como sacar una parte de audio, repetir tramos, cambiar el volumen, hasta otras más compleja como destacar sonidos o disimularlos.

Hay una gran cantidad de programas disponibles como el SoundForge o el CoolEdit. Sin embargo el Audacity, un editor de descarga y uso gratuito, muy completo y apto para casi todo tipo de procesamiento del audio.

12

Page 13: CLASE 3 (02-09) · Web viewLos frecuentes equívocos en el uso de la palabra resolución se resuelven distinguiendo en la imagen tres tipos de tamaño: en píxeles, informático y

El Audacity permite editar y mezclar varios canales simultáneamente, en un entorno gráfico, intuitivo y amigable.

TAMAÑO DEL SONIDO DIGITALIZADO SIN COMPRESIÓN

Si muestreamos 3 minutos de un sonido a 44100 muestras por segundo con una profundidad de 16 bits por canal ocuparemos el siguiente espacio en archivo de computadora:

3 minutos x 60 segundos = 180 segundos

180 seg x 44100 muestras por seg. = 7.938.000 muestras

7.930.000 muestras x 16 bits = 127.008.000 bits 1

27.008.000 x 2 canales = 254.016.000 bits

254.016.000 bits / 8 bytes = 31.752.000 bytes

31.752.000 bytes = 31 Mb aprox.

TASA DE TRANSFERENCIA O BITRATE

Se trata de la cantidad de bits que se pueden transmitir o procesar durante un tiempo determinado. Habitualmente se mide por segundo. Así, podemos mencionar que existen tasas de transferencia para enlaces de internet, por ejemplo, de 512 kbps (kilobits por segundo).

En el caso de los archivos de audio o video, la tasa de transferencia determina la calidad con la que podrá ser reproducido el archivo.

En el ejemplo anterior, será necesaria una tasa de transferencia de 1411kbps, que surge de:

44.100 muestras por segundo x 16 bits= 705.600 bits por segundo

705.600 bits por segundo x 2 canales= 1.411.200 bits por segundo

1.411.200 bps = 1.411 kbps = 1,41 Mbps

De modo que, por ejemplo, para ser transmitido ese archivo por internet sin interrupciones se requeriría de una conexión de al menos 2 Megas (2Mbps)

FORMATOS DE ALMACENAMIENTO DE AUDIO DIGITAL

* WAV: almacena todo los bits que se han digitalizado. Es un formato de compresión sin pérdida. Para este tipo de archivos, el sonido es uno solo. Es decir que aunque provenga de fuentes diversas, y luego el oído humano pueda reconocerlas, para la codificación digital es un único sonido

* MIDI: En lugar de almacenar un muestreo del sonido digital, almacena las instrucciones para que una computadora interprete y reproduzca sonido. Se puede equiparar con la noción de partitura. La calidad final ependerá de la capacidad de la máquina para reproducir la complejidad del sonido.

13

Page 14: CLASE 3 (02-09) · Web viewLos frecuentes equívocos en el uso de la palabra resolución se resuelven distinguiendo en la imagen tres tipos de tamaño: en píxeles, informático y

Comunicación 3 – Sonido digital | /MP3 7

Es pequeño y mucho más editable porque se puede descomponer la interpretación de cada instrumento.

* MP3: funciona con la lógica del WAV pero comprime aprovechando los límites de la capacidad de audición humana. Hay pérdida de calidad. Hay diferentes calidades de compresión.

MP3

MP3 es un formato de datos que debe su nombre a un algoritmo de codificación llamado MPEG 1 Layer 3, el cual, a su vez, es un sistema de compresión de audio que permite almacenar sonido con una calidad similar a la de un CD y con un índice de compresión muy elevado, del orden de 1:11. En la práctica, esto significa que en un CD-Rom se pueden grabar unos 11 CD de audio, es decir, unas 150 canciones aproximadamente.

El sistema de codificación que utiliza MP3 ES UN ALGORITMO DE PÉRDIDA. Es decir, el sonido original y el que obtenemos posteriormente no son idénticos. Esto se debe a que MP3 aprovecha LAS DEFICIENCIAS DEL OÍDO HUMANO y elimina toda aquella información que no somos capaces de percibir. Se han realizado multitud de estudios de percepción acústica descubriendo que hay una serie de efectos que pueden ayudar a la codificación del sonido con el objetivo de reducir todo lo posible la cantidad de información inútil o redundante.

Los más importantes son:

LOS LÍMITES DE AUDICIÓN. Nuestro oído solo trabaja con frecuencias que van entre los 20 Hz y los 20 Khz aproximadamente, con lo que las frecuencias restantes son descartables.

EFECTO DE ENMASCARAMIENTO. Es aquel que se produce cuando dos señales de frecuencia similar se superponen. Entonces solo podemos percibir aquella que posee más volumen y, por lo tanto, la de volumen menor es susceptible de ser eliminada.

REDUNDANCIA DE ESTÉREO. Existen redundancias entre los componentes tonales y no tonales del sonido en los dos canales estéreo, y, además, por debajo de una cierta frecuencia el oído humano no es capaz de percibir la direccionalidad del sonido, por lo cual por debajo de estas frecuencias es posible incluso codificar un solo canal, junto con información complementaria para restaurar la sensación espacial para el otro canal.

La digitalización de la señal mediante PCM es la forma más simple de codificación de la señal, y es la que utilizan tanto los CD como los sistemas DAT. Como toda digitalización, añade ruido a la señal, generalmente indeseable. Como hemos visto, CUANTOS MENOS BITS SE UTILICEN EN EL

Comunicación 3 – Sonido digital | /MP3 8

MUESTREOY LA CUANTIZACIÓN, MAYOR SERÁ EL ERROR al aceptar valores discretos para la señal continua, esto es, mayor será el ruido.

14

Page 15: CLASE 3 (02-09) · Web viewLos frecuentes equívocos en el uso de la palabra resolución se resuelven distinguiendo en la imagen tres tipos de tamaño: en píxeles, informático y

Para evitar que el ruido alcance un nivel excesivo hay que emplear un gran número de bits, de forma que a 44,1 Khz. y utilizando 16 bits para cuantizar la señal, uno de los dos canales de un CD produce más de 700 kilobits por segundo (kbps). Como veremos, gran parte de esta información es innecesaria y ocupa un ancho de banda que podría liberarse, a costa de aumentar la complejidad del sistema decodificador e incurrir en cierta pérdida de calidad. El compromiso entre ancho de banda, complejidad y calidad es el que produce los diferentes estándares del mercado.

Los números de esta tabla hacen referencia a los formatos de audio sin compresión. Cuando aplicamos una compresión como la que genera MP3 la tasa de transferencia o bitrate funciona como parámetro para indicar la calidad de la compresión.

De ese modo, el programa de compresión establece una relación entre la tasa de transferencia que le vamos a indicar y la calidad final del sonido del archivo una vez comprimido.

Los estándares de uso indican que se puede establecer la siguiente relación entre la tasa de transferencia (o Bitrate) y la calidad final para la compresión en MP3:

4 Kbps es el mínimo del estándar

8 Kbps es la calidad telefónica

32 Kbps corresponde a la calidad de radio AM 9

6 Kbps corresponde a la calidad de radio FM

128 Kbps es la calidad cercana al CD, muy común en MP3

192 Kbps corresponde a la calidad CD en formato MP3

320 Kbps es la máxima calidad para el formato MP3

15