21
TECNOLOGÍA DE LOS MEDIOS AUDIOVISUALES CÁMARAS Diferentes tipos de cámaras Vamos a comenzar hablando de la cámara. Hay diferentes tipos de cámaras, las cuales se agrupan en tres tipos: las E.N.G., las E.F.P. y las cámaras de estudio. La utilización de uno u otro tipo de cámara lo haremos en base a la producción que queramos realizar. Va a ser por lo tanto el propio producto, el producto final, quien nos va a condicionar al utilizar un tipo de cámara u otro. Así, y como hemos mencionado anteriormente, encontramos tres garndes grupos: La cámara de estudio Las cámaras de estudio son normalmente utilizadas en la produción de programas eb grandes platós profesionales o en retransmisiones de grandes acontecimientos. Son generalmente estáticas y suelen estar instaladas sobre complicados sistemas (trípodes, grúas,...). Contienen de forma compacta en la misma cámara los sistemas oportunos de motorización, generadores,..., además de una óptica (zoom) compleja y con un amplio margen de variación. Cámaras E. F. P. La configuración E. F. P. Se utiliza normalmente en producciones de programas más sencillos, por lo que resulta una cámara más simplificada en su construcción interna y con posibilidades más limitadas en su aplicación. Se usan generalmente en platós de pequeñas dimensiones o en retransmisiones de actos en espacios físicamnte limitados. Tanto la configuración E. F. P. como la de estudio están pensadas para funcionar bajo un sistema de realización. Cámaras E. N. G. Son cámaras ligeras, con un equipo ligero, transportable a casi cualquier sitio. Se utilizan para producciones rápidas o con poca necesidad de grandes despliegues. Actualmente, las E.N.G. incorporan el magnetoscopio dentro del cuerpo. Son ligferas y fáciles de manejar, lo que permite que una sola persona haga todas las operaciones necesarias para poder grabar las imágenes que necesite. Como hemos podido observar, y a tenor de las distintas definiciones, son los productos y los espacios los que nos van a exigir un tipo u otro de cámara. En general, podemos decir que son las cámaras de estudio las que más prestaciones proporcionan y también las de más calidad, seguidas por la E. F. P. y por la E. N. G.. En cualquier caso, las imágenes grabadas con cámaras E. N. G. profesionales dan una calidad más que suficiente como para poder ser emitidas. Aunque efectivamente existen diferencias entre los distintos tipos de cámaras, la base de todas ellas es la misma, y también los elementos y los ajustes que debemos hacer. Por lo tanto, y para explicar cuáles son los elementos fundamentales a tener en cuenta cuando tenemos una cámara entre manos, vamos a utilizar como ejemplo la E.N.G. 1

Audiovisual Es

Embed Size (px)

Citation preview

Page 1: Audiovisual Es

TECNOLOGÍA DE LOS MEDIOS AUDIOVISUALES

CÁMARAS

Diferentes tipos de cámaras

Vamos a comenzar hablando de la cámara. Hay diferentes tipos de cámaras, las cuales se agrupan en trestipos: las E.N.G., las E.F.P. y las cámaras de estudio.

La utilización de uno u otro tipo de cámara lo haremos en base a la producción que queramos realizar. Va aser por lo tanto el propio producto, el producto final, quien nos va a condicionar al utilizar un tipo de cámara uotro.

Así, y como hemos mencionado anteriormente, encontramos tres garndes grupos:

La cámara de estudio

Las cámaras de estudio son normalmente utilizadas en la produción de programas eb grandes platósprofesionales o en retransmisiones de grandes acontecimientos. Son generalmente estáticas y suelen estarinstaladas sobre complicados sistemas (trípodes, grúas,...). Contienen de forma compacta en la misma cámaralos sistemas oportunos de motorización, generadores,..., además de una óptica (zoom) compleja y con unamplio margen de variación.

Cámaras E. F. P.

La configuración E. F. P. Se utiliza normalmente en producciones de programas más sencillos, por lo queresulta una cámara más simplificada en su construcción interna y con posibilidades más limitadas en suaplicación. Se usan generalmente en platós de pequeñas dimensiones o en retransmisiones de actos enespacios físicamnte limitados. Tanto la configuración E. F. P. como la de estudio están pensadas parafuncionar bajo un sistema de realización.

Cámaras E. N. G.

Son cámaras ligeras, con un equipo ligero, transportable a casi cualquier sitio. Se utilizan para produccionesrápidas o con poca necesidad de grandes despliegues. Actualmente, las E.N.G. incorporan el magnetoscopiodentro del cuerpo. Son ligferas y fáciles de manejar, lo que permite que una sola persona haga todas lasoperaciones necesarias para poder grabar las imágenes que necesite.

Como hemos podido observar, y a tenor de las distintas definiciones, son los productos y los espacios los quenos van a exigir un tipo u otro de cámara.

En general, podemos decir que son las cámaras de estudio las que más prestaciones proporcionan y tambiénlas de más calidad, seguidas por la E. F. P. y por la E. N. G.. En cualquier caso, las imágenes grabadas concámaras E. N. G. profesionales dan una calidad más que suficiente como para poder ser emitidas.

Aunque efectivamente existen diferencias entre los distintos tipos de cámaras, la base de todas ellas es lamisma, y también los elementos y los ajustes que debemos hacer. Por lo tanto, y para explicar cuáles son loselementos fundamentales a tener en cuenta cuando tenemos una cámara entre manos, vamos a utilizar comoejemplo la E.N.G.

1

Page 2: Audiovisual Es

El camascopio

En la actualidad, la mayoría de las cámaras E.N.G. son camascopios. En ocasiones oiremos que se llamatambién camcorder (versión inglesa).

El camascopio consta esencialmente de dos secciones básicas: cámara de vídeo en color y magnetoscipio.Hasta hace muy poco tiempo, estos dos elementos eran diferenciados; en la actualidad, y gracias a losadelantos de la industria videográfica, éstos van unidos, lo que proporciona mayor facilidad en su manejo.

La cámara es la encargada de recoger la imagen, y el magnetoscopio es el que nos permite grabar esa imagenrecogida previamente por la cámara para después reproducirla y, por tanto, poder utilizarla, manipularla.

La cámara

Como hemos señalado, la cámara es la encargada de recoger la imagen. En realidad el proceso que sigue lacámara es similar al que siguen nuestros ojos, al igual que su función, que es la de recoger imágenes delentorno que nos rodea. Pero ¿qué son las imágenes?

Las imágenes son en realidad diferentes intensidades de luz, por lo que las imágenes son luz. La luz pasa através de la lente llamada cristalino. Esta luz es percibida como imagen por el cerebro, que actúa así depelícula o material sensible. Pero el cerebro humano no está capacitado para leer los rayos de luz, necesita quepreviamente alguien se los envíe a través de un cable llamado nervio óptico. De eso se ocupa la retina.

Esta retina posee dos tipos de elementos sensibles a la luz: los bastones y los conos. Los bastones nospermiten ver el brillo de la luz, es decir, es como si mandaran la señal en blanco y negro. A esta característicala llamamos luminancia, y su símbolo es la Y.

Los conos son los que mandan la señal en color al cerebro. Los conos tienen una sensibilidad que varía segúnel color que percibimos. La sensación de color la definen dos parámetros: el matiz y la saturación:

− El matiz es el que nos permite clasificar un color: el que nos permite diferenciar entre los diferentes colores(amarillo, rojo, azul,...).

− La saturación es la cantidad de color puro que posee lo que percibimos. Por ejemplo, si a un rojo intenso leañadimos un rayo de luz blanca, rebajamos su saturación.

Visto esto, podemos decir que la cámara tiene dos elemntos fundamentales: El objetivo, que sería elequivalente a la lente cristalino, y el tubo o tubos de cámara (o actualmente el sensor o sensores de imagenCCD), que convierte la señal luminoa en señal eléctrica, dando así origen a la señal de vídeo, siendo estos loselemntos que actúan como la retina.por último, encontramos al cerebro, que se correspondería con el monitor.Este monitor o televisión cuenta con una placa de fósforo que convierte la señal eléctrica proveniente delsensor de imagen otra vez en señal luminosa, de manera que podamos percibir la imagen.

Por lo tanto, las imágenes son señales luminosas que se convierten en señales eléctricas para después volver aconvertirse en señales luminosas y así poder ser vistas o percibidas.

El CCD

Actualmente, todos los camascopios están equipados con sensores de estado sólido y también, cada vez más,las cámaras de estudio, ya que ofrecen sustanciales ventajas frente a sus antecesores, los tubos de cámara

El sensor de imagen o CCD covierte una señal lumínica en una señal eléctrica. La conversión se realiza

2

Page 3: Audiovisual Es

analizando punto por punto la imagen óptica que se forma en la zona sensible del sensor de imageneste sensorde imagen de estado sólido podría coompararse a un mosaico formado por una multitud de puntos elementaleso pixels. Los pixels son elementos sensibles a la luz, es decir, fotoeléctricos que al recibir la luz dan origen ala formación de cargas eléctricas. Los pixels están situados en la interesección de una retícula de líneasverticales y horizontales. El mosaico tiene una relación de aspecto 4:3,relación entre la altura y la anchura.Los puntos elemntales son analizados y explorados a través de líneas sucesivas y paralelas, pero ¿cuántaslíneas?

El número de líneas dependerá del tipo de sistema televisivo utilizado. Serán 625 líneas para los sistemas PALy SECAM y 525 líneas para el sistema NTSC o americano. El número de líneas verticales dependerá deldiseño de cada CCD.

Hemos dicho que en cada intersección está situado un pixel, y cuantos más pxels contenga mayor calidadobtendremos, por lo que cuantas más líneas verticales, mayor número de pixels y mayor calidad.

Formación de la imagen

La formación de imagen en cine es instantánea, pero en vídeo es secuencial, se analiza a través de las líneashorizontales. Estas líneas se analizan de izquierda a derecha y de arriba abajo (igual que la lectura de unapágina), pero lo suficientemente rápido como para que nuestro ojo perciba una imagen completa.

Para percibir la sensación de movimiento, en cine se utilizan 24 imágenes o fotogramas por segundo, mientrasen vídeo se usan 25 imágenes, cuadro o frames por segundo.

Si la lectura se hiciera desde la primera línea hasta la 625 seguida, pasando por todas ellas, se detectaría ciertoparpadeo. Para evitarlo, cada cuadro se descompone en dos campos, esto es, la exploración se realiza en dossecuencias. En primer lugar se analizan las líneas impares, y luego las pares. La exploración completa de laimagen se obtiene por un entrelazado de los dos campos. La exploración completa de la imagen o cuadro oframe (terminología inglesa) que está fomada por el entrelazado de los campos par e impar se realiza en 1/25de segundo, por lo que en 1 segundo hay 25 imágenes completas. Gracias a que la lectura se hace tan rápida,tenemos la sensación de movimiento

Para que coincida la imagen de la pantalla con la del sensor de imagen, cada vez que acaba de explorar unalínea se produce un impulso de sincronismo horizontal para que pase a la línea siguiente, y cada vez quetermina de explorar un campo, se produce un impulsode sincronismo vertical para que vuelva hacia arriba yasí poder iniciar la lectura del siguiente campo, y así sucesivamente.

El rojo, el verde y el azul son la base de la televisión en color. Gracias a estos tres colores (y a la mezcla endiferentes proporciones de los mismos)se consiguen absolutamente toos los colores. Son los llamados coloresprimarios.

La luz pasa a través del objetivode la cámara e incide sobre un elemento separador del color formado por dosespejos dicróicos, los cuales tienenla propiedad de reflejar un solo color a la vez que permiten el paso de losotros dos. También hay dos espejos convencionales.

De este modo, la luz, al incidir sobre el primer espejo dicróico, preparado para la longitud de ondas azules,refleja el color azul y transmite los colores verde y rojo. Por medio de un espejo convencional, los rayosazules son reflejados hacia el CCD correspondiente.

Lo mismo ocurre con el color rojo; el espejo dicróico correspondiente a este color lo desvía a un espejonormal, y éste a su vez hacia su CCD correspondiente, mientras deja pasar el color verde.

3

Page 4: Audiovisual Es

El color verde, que no ha sido reflejado por ninguno de los dos espejos dicróicos, incide directamente sobre suCCD correspondiente. Así, se han formado tres señales eléctricas distintas, una para cada color.

Una vez llegados a este punto, debemos saber que cuando en 1953 nació la televisión en color, lo hizo con elcompromiso de que la señal de color debería estar estructurada de tal modo que pudiera ser recibida einterpretada indistintamente por receptores de color o receptores de blanco y negro en condiciones aceptablesde calidad para los dos.

Esta condición de compatibilidad que hoy en día nos puede parecer innecesaria bajo la óptica actual de unavirtual innexistencia de receptores monoicromos, no lo fue en su momento, puesto que entonces todos losreceptores eran de blanco y negro y cabía esperar que se tardaría mucho tiempo hasta que la gran mayoríua deusuarios/as cambiaran sus receptores por aparatos de color. En definitiva, que los receptores en blanco ynegro ignoran la información de crominancia relativa al color y aprovechan tan solo la señal de brillo oluminancia, que es la única que necesita para su funcionamiento.

La señal de luminancia en las cámaras de color se obtiene restando parte de señal a la salida de los tubos oCCDs. Restando, sí, pero ¿cuánto? :

30% de rojo

59% de verde + = LUMINANCIA

11% de azul

La diferente proporción de los tres colores primarios es debido a que el sentido de la visión no responde deigual modo ante el estímulo de los tres primarios (R, V y A), siendo más sensible a la energía de la luz verde,un poco menos a la del rojo y mucho menos a la del azul. Por ello, para adecuar la sensibilidad del ojo a losniveles de energía de los tres primarios, es necesario obtener un porcentaje distinto de cada uno de ellos quesea equivalente a la sensibilidad del ojo frente a estos tres primarios, que según las leyes de la visión en colorson los siguientes:

Luminancia = 30 % rojo + 59 % verde + 11 % azul. O lo que es lo mismo:

Luminancia = 0, 30 rojo + 0, 59 verde + 0, 11 azul

Así se han formado tres señales eléctricas distintas, una para cada color, que se canalizan hacia una matriz quenos da, por una parte, la luminancia y, por otra, las componentes de color.

Las componentes de color se envían a otro codificador donde se mezclan, generando así la croma que contienela información de matiz y saturación mezcladas en un solo cable.

Una vez llegados a este punto, y dependiendo del diseño de la cámara, podemos enviar estas dos señales, la deluminancia y la de crominancia, bien juntas, bien separadas. Para mezclarlas tenemos un dispositivo llamadosumador que recoge en un solo cable las informaciones de luminancia y crominancia.esta señal es ladenominada vídeo compuesto.

Si decidimos enviarlas por separado, esto es, por una parte la luminancia y por otra la crominancia, sería laseñal de video separado.

Existen dos sistemas para hacer el proceso que acabamos de describir: los tubos de cámara y el CCD osensor de imagen. Veamos cuáles son algunas de las ventajas del CCD con respecto a los tubos de cámara.

4

Page 5: Audiovisual Es

LA LIGEREZA: El CCD tiene un tamaño más reducido. Prácticamente un sensor CCD ocupa un volumen600 veces inferior al de un tubo de cámara, por lo que pesa menos y se hace más fácil su manejo.

VIDA ÚTIL: El tubo de cámara tiene una vida útil de unas 1.000 horas. El CCD tiene una vida útil deaproximadamente 7.000 horas. Además, durante su vida de servicio, las características funcionalespermanecen inalterables.

PRECISIÓN: La exploración de la capa fotoconductiva del tubo de cámara se realiza de una forma perfecta enla zona central, pero presenta dificultades en las esquinas, creando en ocasiones distorsiones geométricas. Estedefecto no se presenta en los sensores CCD.

LA LUZ

Hemos visto como se consigue la imagen en color. Hemos dicho que en realidad las imágenes son diferentesintensidades de luz, pero sabemos que dependiendo del tipo de luz que tengamos, percibimos los colores deuna forma u otra. , es decir, que según el tipo de iluminación ambiente que tengamos percibimos el color deun modo u otro.

El cerebro lo hace automáticamente; sin embargo, la cámara hay que adecuarla al tipo de iluminaciónambiente que tengamos para conseguir una aproximación lo más fiel posible a la realidad.

Veremos cuáles son esos ajustes necesarios, pero antes necesitamos hacer un análisis de la naturaleza de laluz. Según su propia definición, la luz es una radiación electromagnética de intensidad y longitud de ondavariables. A cada longitud de onda corresponde un color determinado. La longitud de onda de los diferentescolores está comprendida entre 370 y 780 nm (nanómetros o milmillonésima de metro).

La luz que irradian la mayoría de las fuentes luminosas está compuesta por varios colores lumínicos, que sonexactamente el rojo, el verde y el azul, y con la mezcla de éstos, se consigue el resto de los colores. Pero paraconseguir distintos colores se mezclan diferentes proporciones, lo que motiva una dominante de color.

Dominante de color

Se diferencian dos tipos de iluminación ambiente:

− Iluminación natural.

− Iluminación artificial.

La iluminación natural es aquella cuyo origen está en la luz solar, y la iluminación artificial es la que ha sidocreada por el ser humano, y va desde una simple vela hasta los focos de grandes potencias de luz.

Cualquier fuente luminosa, ya sea natural o artificial, tiene una dominante de color. Así, la luz de unabombilla tiene una tonalidad amarillenta o rojiza, y la luz solar tiene una fuerte dominante azulada.estasvariaciones de color que pasan desapercibidas para la visión humana, se evidencian perfectamente enfotografía y en videografía. En fotografía existen básicamente dis tipos de películas de color: las diseñadaspara tomar fotografías con luz exterior y las diseñadas para tomar fotografías con luz interior. Cada una deéstas está concebida para una dominante de color específica.

Así, si se utiliza una película de luz exterior para tomar escenas luminosas con luz incandescente o de interior,las fotografías tendrán una marcada tonalidad amarillenta. Por elcontrario, si se utiliza una película de luzinterior para tomar una escena iluminada con luz solar, las fotografías tendrán una tonalidad azulada.

5

Page 6: Audiovisual Es

Un fenómenbo parecido ocurre cuando utilizamos una cámara.es por esto por lo que las cámaras contienen undispositivo que compensa las dominantes de color de la escena.es necesario conocer la dominante de colorpara ajustar la cámara. Para evaluar la dominante de color de una fuente luminosa se utiliza la escala detemperatura de color.

Temperatura de color

En la visión humana, las variaciones de las dominantes de color quedan compensadas automáticamente por elcerebro, pero cuando tenemos una cámara entre manos debemos adecuarla, y para ello, debemos conocer ladominante de color. Para conocerla se utiliza la escala de temperatura de color, que se mide en grados Kelvin(abreviadamente K, impropiamente ºK).

La relación entre grados Kelvin y grados centígrados es 0K = −273 ºC.

La temperatura de color no se mide con un termómetro sino que ese utilkiza un termocolorímetro.de todosmodos, existe un nexo de unión entre la temperatura y el color:

Al calentar un pedazo de hierro, éste pasa por toda una gama de colores que va desde el rojo oscuro al naranjaincandescente. Cda incremento de temperatura va emparejado con un aumento de la energía radiante emitida.Para establecer una relación más precisa entre temperaturas y color, se toma como patrón un cuerpoperfectamente negro. La temperatura a la que debe llegar a fin de que emita una luz similar a la de la fuente deluz en examen se identifica con el término de temperatura de color.

Cada fuente luminosa tiene su propia temperatura de color.la luz natural del mediodía tiene una temperaturade color de 5.500 K; esto sgnifiica que un cuerpo negro habría de calentarse a 5.500 K para que emitiese unaluz del mismo color.

Filtros

Las cámarss disponen de sistemas de filtros para distintas temperaturas de color. Estos sistemas permitencolocar distintos filtros entre el sistema de lentes y el bloque dicróico de la cámara, gracias a los cualesconseguimos colores fieles a la realidad.

La mayoría de las cámaras están ajustadas en el proceso de fabricación para operar con iluminación en unestudio (3.200 K), y al utilizarlas en exteriores, se cambia el filtro para poder compensar la diferencia detemperatura de color. La mayor parte de las cámaras profesionales dan, al menos, tres posiciones de filtro,indicado en los números 1, 2 y 3.

1. − 3.200 K luz interior.

2. − 5.200 K luz exterior

3. − 5.200 K ND luz exterior cuando hay mucha luz.por ejemplo, un día muy soleado y estamos grabando enla playa o en una estación de esquí. ND significa filtros neutor de densidad, que se utilizan para tomas fuertesde sol, evitándose así la sobreexposición de la película o que la imagen aparezca quemada.

Balance de blancos

Una vez colocado el filtro adecuado a las condiciones lumínicas no se resuelve totalmente el problema, ya quelas nubes, las sombras, reflexiones y otras condiciones influyen en la temperatura de color. Para ajustar lacámara a ésta, es necesario lo que se denomina balance de blancos cada vez que se emplean nuevascondiciones de iluminación. Electrónicamente, la cámara establece la combinación de color apropiada para

6

Page 7: Audiovisual Es

unas condiciones de luz determinadas.

La operación de balance de blancos es muy sencilla: basta con enfocar hacia un papel blanco y pulsar el colorcorrespondiente. Pero ¿por qué blanco?.

Se debe a que el blanco se consigue a través de la mezcla en las mismas proporciones de los colores primarios(rojo, verde y azul), por lo que ajustando el blanco ajustamos también los colores primarios y, enconsecuencia, toda la gama de colores.

LA ÓPTICA DE TELEVISIÓN

El objetivo

El objetivo capta los rayos luminosos provenientes del tema encuadrado, y los concentra sobre el mosaicofotosensible del sensor sólido de imagen o CCD, o en su caso, del tubo de imagen.

El objetivo tiene una forma exterior de un cilindro metálico. En su interior, dispone de una agrupación delentes junto con un sistema mecánico que posibilita su desplazamiento a fin de obtener una imagennítida.estas lentes son tanto convergentes o positivas como divergentes o negativas. Las lentes positivas hacenconvergir en un punto y las divergentes hacen que se separen los diferentes rayos de luz.

En la parte delantera del objetivo, aparecen distintas cifras que expresan en mm. la distancia focal delobjetivo, que puede ser fija o variable (zoom). Éste último se representa con dos cifras, que indican el granangular y el teleobjetivo.

La segunda anotación que aparece es la luminoisidad, que hace referencia a la cantidad de luz que dejamosentrar en nuestro objetivo. De controlarla se encarga el diafragma.

El diafragma

El diafragma es el elemento mecánico que sirve para graduar la cantidad de luz que pasa por el objetivo. Eldiafragma aparece con unas cifras que pueden ir desde el 1 al 22. Los objetivos tienen también una escalagraduada en metros que sirve para regular el enfoque del tema encuadrado

El diafragma está compuesto por unas láminas superpuestas que pueden abrirse o cerrarse (formando uncírculo), dejando pasar más o menos luz. La apertura del diafragma se realiza desde el propio objetivo, yconsta de unos números F, que están marcados en un anillo exterior situado en la montura de la óptica.

El objetivo más luminoso tiene la posibilidad de apertura de hasta el 1, aunque las aperturas más corrientessuelen estar entre el 5,6 y el 8. El paso o salto de una apertura a otra permite la entrada de la mitad de cantidadque la de la apertura anterior.

Es imprescindible utilizar el diafragma adecuado: si dejamos pasar excesiva cantidad de luz, las imágenesaparecerán quemadas o sobreexpuestas; si no abres lo suficiente el diafragma, la imagen aparece gris y oscura.Por eso, es conveniente tener un diafragma automático, aunque no suelen ser exactos porque aparecen con lamedición de luz general.

Los profesionales suelen controlar de forma manula el diafragma, regulando a medida que ves el objeto por elvisor de la cámara. El diafragma automático se utiliza para filmar con rapidez y agilidad, corriendo el riesgode que las imágenes no aparezcan con fidelidad.

El enfoque

7

Page 8: Audiovisual Es

Al enfocar una cámara lo que hacemos es ajustar el objetivo para reproducir con la mayor definición laimagen del sujeto u objeto.

Cuando utilizamos una cámara E.N.G., El enfoque se realiza girando el anillo de foco situado en el ejegiratorio de la lente hasta conseguir la imagen con la mayor nitidez.

Cuando el operador de cámara ha de mantenerse en movimiento con una cámara sostenida con su propiamano, tiene que concentrarse en la dirección que ha de seguir y en mantener al sujeto dentro del plano, por loque el enfoque automático puede ser una buena solución. Aún así, tiene sus problemas, ya que si el sujeto noestá en el centro de la imagen, el enfoque automático puede no enfocarse con nitidez.

Diferentes tipos de objetivos, distorsiones y el zoom

− Es considerado objetivo normal en cámara de video aquel cuya distancia focal es de 25 mm. Tiene unángulo de visión que abarca entre 20 y 30º, que dependen normalmente de los mecanismos propios de lacámara.

− Un gran angular es aquel que tiene más de 30º.

− Un teleobjetivo es el que tien menos de 20º.

TELEOBJETIVO

Es un objetivo de ángulo estrecho y de ampia distancia focal. Cubre solo un estrecho sector de la escena. A laimagen que captamos con el teleobjetivo le lamamos vista telescópica.

Puede ser utilizada cuando la cámara no se puede acercar al sujeto debido a obstrucciones física (por ejemplo,los reporteros sensacionalistas). También cuando el sujeto está fuera del alcance o cuando no hay tiempo paradesplazarse hasta el sujeto. Incluso cuando la cámara está fija yel teleobjetivo es el único medio para obtenerimágenes de objetos distantes de fuera del estudio.

Efectos de distorsión:

La profundidd aparece notablemente comprimida y la distancia desde el primer plano hasta el fondo parecemucho más corta de lo que es en realidad. Los objetos aparecen como aplastados, distantes, parecen de grantamaño y cercanos.

Otro objeto de distorsión es que los objetos parecen avanzar hacia la cámara muy lentamente. Cuandohacemos tomas con objetivos de 5º ó 10º, se aprecian unos rasgos dasegradablemente aplastados y con unadisminución general de los contrastes.

En general, el teleobjetivo supone bastantes problemas para el operador/a de cámara. A medida que seaumenta la distancia focal o se reduce el ángulo de enfoque, se hace progresivamente más difícil realizartomas estáticas ya que la sensación de movimiento de la cámara es mayor.

Además, el seguimiento de un sujeto en movimiento en un plano corto es muy difícil, y en días de muchocalor, los objetos distantes aparecen desfigurados.

GRAN ANGULAR:

Es un objetivo de distancia focal corta pero de ángulo de amplitud amplio. Las características del gran angularson las opuestas a las de las lentes de ángulo estrecho.

8

Page 9: Audiovisual Es

Efectos de distorsión:

Son los opuestos a los efectos del teleobjetivo. Con el gran angular, la profundidad de campo y el espacio sonacentuados en exceso; las cosas parecen estar más lejos de lo que están en realidad. Además, la persona que seacerca o leja con respecto de un gran angular parece que se desplaza con mayor rapidez de la normal.

La ventaja del gran angular es que nos da unos planos amplios aunque lo sujetos estén muy cerca. El granangular también puede ser una ventaja cuando nos movemos en espacios físicamente muy reducidos

Con el gran angular se producen distorsiones irreales y estrafalarias, aunque a veces éstas son buscadas.Aparecen, sobre todo, cuando los objetos son geométricos y cuanto más ancho es el ángulo de la lente

En el gran angular, a diferencia del treleobjetivo, el movimiento de cámara es menor, y dispone la primeradeuna mayor profundidad de campo.

OBJETIVO NORMAL

Es un objetivo ideal para los estudios de vídeo y tv. No genera distorsiones de perspectiva y no precisa deespacios con características especiales para conseguir buenos planos. Teniendo en cuenta que el ángulo devisión es de 24º, el objetivo normal satisface este campo angular, se acerca a la visión humana.

El teleobjetivo aplana y el gran angular da relieve, pero el objetivo normal no modifica los rasgos de la caraen los primeros planos.

Zoom:Es el objetivo de distancia focal variable con el que podemos pasar del objetivo normal al teleobjetivoy al gran angular. El zoom tiene muchas ventajas prácticas, pero el principal inconveniente es que tienemenoscalidad que las imágenes de distancia focal fija.

El movimiento de zoom se llama zoom in si se utiliza hacia delante, y si se hace hacia atrás, se denominazoom out.

Cada vez que se realiza un zoom conviene empezar en un plano fijo y terminar con otro fijo a fin de dar unreposo anterior y otro posterior. No es conveniente meter dos zoom seguidos porque no queda bien y porquees una fiorma estupenda para desconcertar al espectador.

La realización

Trata de adquirir un dominio sobre los recursos del lenguaje televisivo y cinematográfico con el fin de poderexpresar con fluidez unas ideas a través de imagen y sonido. Se trata, en definitiva, de un conjunto de reglas yfórmulas que, estando en contínua evolución, posibilitan el control del medio.

La televisión incorpora ennla realización variantes propias del medio de comunicación: las dimensiones de lapantalla, las diferencias en la base electrónica de esta pantalla,... etc.De todos modos, en cualquiera de los dosterrenos, es necesaria una minuciosa planificación del proyecto que comineza con la plasmación técnica de lasideas en un guión, pero tenemos que elaborar un plan de rodaje, que estará en función del tipo de programa enel que vayamos a trabajar (informativo, magazine,...).

Todos ellos se planifican sobre una idea núcleo, sobre la que se estructura todo el programa. Para plasmar lasideas será, pues, el guión, y la unidad básica de trabajo para crearlo será el plano

El plano tiene dos acepciones:

9

Page 10: Audiovisual Es

1ª. − Es una toma, con sentido más secuencial y temporal.

2ª. − Como encuadre, al límite espacial, parte de la realidad seleccionada.

El plano entendido como toma, será todo loo registrado por la cámara desde que apretamos el rec hasta que laparamos. A la vez, cuando hablamos de plano, nos referimos a la unidad de significación más pequeña en unprograma, es decir, la mínima unidad espacio − temporal en que puede fragmentarse la narrativa.

También refiriéndonos al plano, puede decirse que su duración es ilimitada

Otro concepto referido al plano es que tiene valor polisémico.es decir, que su significación es abierta,pudiendo interpretarse de forma diferente en el contexto en el que se incluye

El tiempo de la realidad es secuencial, por lo que los acontecimientos se suceden unos a otros. Las técnicasaudiovisuales, a fin de reflejar esta realidad, pueden comprimirla o expandirla, esto es, una realidad de 15minutos se puede pasar a 5 minutos o a 1 hora. Estas condensaciones o expansiones las hace el realizador abase de segmentar la realidad en planos que, una vez entrelazados, permiten que los espectadores hagan surecomposición. Así, el realizador sintetiza la realidad durante la planificación o proceso de agrupación deplanos, que lleva al resurgimiento de una nueva realidad (ordenando elementos dispersos).

Al referirnos al plano como encuadre, nos estamos remitiendo a la cantidad de información que aparece en lapantalla. Los planos generales o largos servirán para establecer el ambiente y para mostrar el escenario dondeva a transcurrir la acción. Los planos cortos poseen un carácter más dramático, es decir, muestran los detalles.

La composición es un concepto muy importante en la edición, la producción y la realización.

La composición es el arte de disponer todos los elementos de una escena con el fin de destacar el centro deinterés. La base de la composición es la estructura artística, a la que se le suma mucha intuición. El planodirige la mirada hacia un punto, exactamente hacia esa base.

Es muy importante el gusto estético del operador de cámara aunque le demos unas reglas. La funciónfundamental de este operador será la de procurar equilibrar la imagen, a través de la cual el espectador capta elobjeto principal del plano, por lo que el plano tiene que ser equilibrado, lo que no quiere decir que tenga queser simétrico. El equilibrio tiene mucho que ver con el contexto. Lo que está claro es que debemos eliminarespacios vacíos o detalles perturbadores que distraigan la atención del espectador.

La relación que se establece entre la horizontalidad y la verticalidad es básia para el ser humano, sobre todo ala hora de componer y visualizar. Esta relación está unida con el equilibrio.

Al contrario de la fotografía, en vídeo no nos podemos concretar en una sola imagen, sino que debemos darsensación de movimiento. Por esto, el proceso de composición será uno de los aspectos más importantes atener en cuenta por el operador de cámara.

Horizontalidad

En vídeo, los detalles no se aprecian en los planos generales aunque los distintos elementos de la escena hande guardar un orden para buscar una imagen equilibrada que resulte atractiva. Al hablar de equilibrio, serecomienda no utilizar la simetría ya que no proporciona resultados satisfactorios

Cuando hacemos una toma del horizonte, no conviene grabarlo en el centro de la pantalla, sino que hay quesituarlo un poco más arriba o abajo, pero nuca en el centro. Se recomienda que para obtener un efectoagradable, se divida la pantalla en tres partes horizontales iguales. Si el horizonte ocupa dos partes,

10

Page 11: Audiovisual Es

destacaríamos el horizonte. Con los ojos ocurre lo mismo; los debemos colocar en la parte superior de lapantalla.

Regla de los tercios

Esta regla viene ya desde la antigua Grecia, y todo videógrafo / a debe conocerla

Esta regla trata de dividir la composición en una rejilla de líneas verticales y horizontales que dividen lapantalla en 9 partes iguales. Dentro de esta rejilla, se originan 4 puntos, que son considerados centros deinterés de la imagen. Si nosotros ubicamos un objeto en el centro de la pantalla, no damos al observador unaidea de la dirección en la que tiene que seguir mirando, por lo que vemos que el centro de la pantalla es lazona que resulta menos atractiva para el espectador. Por ejemplo, en algunos informativos, vemos alperiodista en un lado de la pantalla, generalmente en el derecho, mientras que en el izquierdo aparece unapantalla que nos lleva al tema tratado.

Es necesario situar los temas clave de la composición en los puntos de intersección de la regla de los tercios,porque estos puntos invitan al espectador a explorar el centro de la escena. No es una regla obligatoria, sinoque es un punto de referencia para la imagen. Luego, el videógrafo tiene que aportar imaginación.

El encuadre de los ojos

Nunca conviene encuadrar los ojos en el punto medio de la imagen. Si los ojos se encuentran a 2/3 a la alturade la cara y nosotros los ubicamos en la mitad de la imagen, haríamos una composición extraña para elcerebro. El lugar más adecuado sería entre ½ y los 2/3.

Al hablar de los ojos, tenemos que tener en cuenta que son el centro de interés del personaje. A través de ellos,podemos expresar sus estados de ánimo: sorpresa, alegría, cansancio,... etc. Cuando contemplamos un primerplano, lo primero que se mira son los ojos y después, por ejemplo, los labios, la nariz,... etc.

El aire o el margen espacial

En general, siempre hay una zona de fondo tras el sujeto. Este espacio, en el caso de la cabeza del sujeto setrata del borde superior de la pantalla, lo vamos a llamar aire o margen espacial.

Si este espacio es demasiado pequeño, la imagen será incorrecta y nos dará la sensación de que el sujeto estácomprimido. Si es excesivo es espacio, aparecerá una sensación de pesadez en la parte inferior

Por otro lado, siempre que un sujeto mire hacia un lado del plano, es necesario dejar cierto margen entre losojos del sujeto y el extremo del encuadre hacia el que dirige la mirada. Asimismo, cuando haces elseguimiento de un sujeto con panorámica o travelling, es necesario dejar aire delante del sentido de la cámara.

Preferencia perceptiva

Es la zona a la que se dirige el ojo humano al visualizar una composición en una pantalla de cine o televisión.Se trata de la zona interior derecha del campo de visión a la que preferiblemente se va o se decanta.

Objetos perturbadores

Es necesario evitarlos. Por ejemplo, sacar a una persona con una maceta en su cabeza porque detrás de ellahay un balcón con flores, o que sobresalga un poste,... etc. A veces te olvidas de estos detalles y no te dascuenta porque te fijas exclusivamente en la acción.

11

Page 12: Audiovisual Es

El movimiento

El movimiento es un concepto básico del vídeo, y lo estático de la fotografía. El antecedente del vídeo es lacinematografía, y el de ésta, la fotografía, que congela los movimientos. Éste (el movimiento) puede ser decámara o de sujeto.

Cámara fija y sujeto en movimiento

La cámara permanece fija (se establece un espacio en el que se va a originar y desarrollar la historia). Estazona será el escenario en el que van a estar los sujetos.

La cámara fija está relacionada con el teatro, donde el espectador está fijo y la historia se desarrolla a travésdel movimiento. De hecho, en las primeras poelículas se usa un escenario similar al del teatro, donde sedesarrollan las historias, pero al avanzar la técnica (cámaras más ligeras,...), aumenta también la creatividad.

Cámara en movimiento

La cámara se mueve gracias al avance de la técnica cinematográfica. El movimiento de la cámara se utiliza através del empleo de la panorámica y del travelling.

La panorámica

Se obtiene cuando la cámara gira alrededor de uno de sus ejes (horizontal o vertical) sin desplazarse en elespacio. Es decir, el trípode permanece fijo y sólo gira la cámara con uno de sus ejes.

La panorámica se emplea para describir una acción o un escenario que no puede abarcarse de una sola vezmediante un solo encuadre fijo. Su efecto práctico es muy similar al que se produce cuando giras la cabeza.

Un ejemplo práctico de su necesidad es la contemplación de una montaña: Vamos recorriendo con la cámaradesde la parte inferior hasta la superior.

La panorámica puede realizarse en todos los sentidos: vertical, horizontal,... e, incluso, si el guión lo exige,puede ser oblícua. Las panorámicas horizontales pueden llegar a los 360º, aunque las verticales estánlimitadas a un cierto ángulo.

Uno de los requisitos de la panorámia es hacerla consuavidad, sin brusquedad, sin interrumpir la acción enseco.

Tipos:

− Panorámica horizontal de seguimiento: Este movimiento de cámara es el más cómodo. La panorámica haceun seguimiento al sujeto que se mueve.

En las tomas de mayor tiempo, el espectador se suele dar cuenta de la relación del sujeto con el entorno.

En los planos cortos, el fondo se convierte en algo accidental que generalmente aparece como borroso eindescifrable.

− Panorámica horizontal de reconocimiento: La cámara hace una panorámica lenta por la escena para permitiral espectador que se fije en todos los detalles del paisaje, la multitud,... etc. El movimiento de la cámara puedecrear mucho dramatismo y espectación (a la vez que decepción). Por ejemplo, el fugitivo se vuelve para atrásporque ha oído un ladrido, se da la vuelta y.. sólo es un perrito faldero.

12

Page 13: Audiovisual Es

− Panorámica horizontal interrumpida: Es un movimiento largo y suave que se detiene de repente para crearun contraste visual. Esta técnica se puede usar en situaciones dramáticas o cómicas.

− Panorámica horizontal en barrido: Es una panorámica rápida. El barrido produce una serie de imágenestransitorias que generalmente son borrosas porque no le da tiempo a la cámara a recoger con nitidez las cosas.

El barrido trata de atraer nuestra atención rápidamente hacia la imagen siguiente, produciedo generalmenteuna relación dinámica o de cambio comparativo.

El barrido puede ser utilizado con las siguientes finalidades:

− Une diferentes aspectos de la misma escena.

− Proporciona continuidad de interés, conectando entre sí a una serie de sujetos o temas similares.

− Cambia los centros de atención; de un área de concentración se pasa a otro.

− Puede mostrar la causa y el efecto. Por ejemplo, dispara un cañón y una pared cae destruida.

− Contrasta o compara, relacionando situaciones extremas (nuevo − viejo, grande − pequeño, rico − pobre,...etc.).

− El barrido traslada el tiempo y el espacio. Por ejemplo: Despega un avión, le haces una toma estática, cortasy haces un barrido de cómo aterriza.

− Realiza un cambio dramático de dirección, dando al tema un apogeo repentino.

− El barrido sigue el ritmo entre dos escenas de acción rápida.

− Puede crear un puente entre una escena rápida y otra lenta.

Al hacer un barrido hay que ser siempre muy preciso y apropiado para que el resultado sea bueno. Para evitarproblemas de precisión en un barrido en su punto final, se realiza el siguiente truco: Se hace una toma estática,se edita un barrido y luego otra toma estática. Las tres partes se juntarán en el master.

3.6.2.) El travelling

Toma su nombre del aparato mecánico que se aplica para obtenerlo y que esutilizado para el desplazamientode la cámara.

El travelling consiste en el desplazamiento espacial de la cámara con respecto a su posición inicial. Lo normales que la cámara se deslice por unos carriles previamente instalados, aunque en algunas ocasiones, la cámaraviaja sobre un coche (cámera − car) o sujetadas por grúas.

El movimiento originado al desplazar la cámara proporciona una ilusión de solidez y profundidad, y unaimpresión de realismo que no se puede lograr a través de una cámara estática que realiza un zoom.

Tipos:

−El travelling avante: Es el que se acreca al sujeto y el que refuerza la atención. Una vista demasiado cercanaal sujeto puede resultar desconcertante y, por tanto, de poco interés.

13

Page 14: Audiovisual Es

−El travelling retro: Normalmente se utiliza para hacer bajar el interés, a la vez que puede relajar la tensión, ano ser que al realizar el movimiento hacia atrás se revelen objetos que no se veían y se despierte nuevamentela espectación. En este último caso, la atención tendería a irse hacia los lados.

−El travelling en arco: Se establece realizando un recorrido en círculo alrededor de un sujeto u objeto, con laintención de verlo desde distintos ángulos y puntos.

Este tipo de movimiento tiende a ser de exploración, y al hacer el cambio de posición, podemos lograr que unpersonaje que estaba tapado aparezca en imagen.

En general, este tipo de travelling tiene que estar muy controlado, realizándolo con suavidad y a unavelocidad adecuada porque, de lo contrario, puede resultar una toma desconcertante y molesta.

−El travelling lateral: Es un movimiento transversal a lo ancho de la escena. A través de este travelling, secrea una fuerte ilusión de profundidad ya que los objetos más próximos a la cámara, por efecto delparalelismo, dan la sensación de que se mueven con más rapidez.

Durante la realización de un travelling, existe una modificación de la distancia entre la cámara y el objeto. Portanto, es preciso ajustar de forma constante el enfoque (manual) para mantener al sujeto dentro de los límitesde la profundidad de campo. El enfoque manual es una tarea muy complicada que requiere mucha práctica yexperiencia

El número de ajustes que hay que realizar para que permanezcan perfectamente enfocados dependerá de dosfactores:

−De la distancia focal del objetivo.

−De la distancia que ha de recorrer la cámara en su recorrido.

Cuando usemos un teleobjetivo, los ajustes que tengamos que hacer a la cámara deberán ser mucho másprecisos porque el teleobjetivo tiene menor profundidad de campo que, por ejemplo, el gran angular.

Es importante en el travelling la apertura del diafragma: cuanto más cerrado esté mayor será la profundidad decampo, por lo que procuraremos, si nuestro objetivo es filmar con profundidad, que el diaframa esté lo máscerrado posible. Por supuesto, para cerrar el diafragma deberemos contar con una buena iluminación si noqueremos que nuestras imágenes aparezcan oscuras.

Elñ travelling y la panorámica puede combinarse entre sí, dando mayor flexibilidad a los encuadres. Engeneral, tanto el travelling como la panorámica pueden realizarse a mano, obteniéndose una mayorespontaneidad que sacrifica la estabilidad y la fijeza del encuadre. El estilo de realizar a mano se ha impuestoen los reportajes callejeros, aunque está muy de moda en los reportajes musicales.

Desde el punto de vista expresivo, las panorámicas y el travelling acentúan la sensación de movimiento,incidiendo en las cualidades de la expresión televisiva. Podemos decir, pues, que son unos temas muyaconsejables, pero siempre moviéndonos dentro de unos límites racionales.

3.7.) Los ángulos de toma

Es el ángulo que forma el eje óptico del objetivo con el eje horizontal de referencia. Es, en definitiva, elángulo que forma la cámara con la horizontal.

Si el ángulo de toma es nulo, hablamos de una toma normal, de ángulo cero.

14

Page 15: Audiovisual Es

Si es positivo este ángulo, será un contrapicado.

Si es negativo, hablamos de una toma en picado.

La utilización de distintos ángulos de toma en la expresividad

El ángulo de toma influye considerablemente en la actitud del espectador, que realmente no se da cuenta deésta.

−En la toma normal, el objetivo de la cámara está a la altura de los ojos del sujeto, y si se trata de un objeto, sesupone que la cámara está en horizontal.

Como mantener de forma constante la altura durante toda la filmación puede resultar de poco interés visual,resulta aconsjable variar o modificar dentro de ciertoslímites la altura de la cámara ya que lo estático nosaburre.

−El contrapicado, o vista de la rana, filma al sujeto de abajo hacia arriba, reforzando considerablemente suimportancia. Se trata de una toma que contribuye a enfatizar, enorgullecer o ennoblecer.

−El picado, o vista de pájaro, filma de arriba abajo. El valor expresivo contribuye a empequeñecer, ridiculizaro mostrar un sujeto vulnerable.

Picado = Dominado, Contrapicado = Dominante.

3.8.) Profundidad de campo

Cuando enfocamos un objeto, se ajusta la distancia a la que aparece con mayor nitidez. Cuanquier cosa queesté antes o después de ese objeto enfocado irá apareciendo progresivamente desenfocado.

El campo de distancia entre los cuales los sujetos tienen una buena definición se llama profundidad de campo.

La profundidad de campo puede variar de tres formas:

− Cuando se mantiene constante la distancia focal del objetivo y la distancia de enfoque (distancia entre lacámara y el sujeto), y se cierra el diafragma, por lo que cuanto más se cierra, mayor profundidad de campoexistirá.

− Variando la distancia focal, cambiando el objetivo. La profundidad de campo aumenta cuando aumenta ladistancia focal.

− Variar la distancia entre la cámara y el sujeto. A medida que aumentamos esta distancia entre la cámara y elobjeto, crece la profundidad de campo.

4) LOS PRINCIPIOS DE LA GRABACIÓN DE VÍDEO O AUDIO

Cuando surgió la televisión, había sistemas de grabación de audio. Para grabarlo, se usaba el magnetismo, y seintuía que la grabación de imágenes, que aún no existía, vendría dada por este magnetismo. No obstante, lagrabación y la reproducción de la imagen presentan mucha más complejidad que la del audio, por lo que seretrasa en unos años la aparición del magnetoscopio.

El principal problema de la grabación de vídeo está en el enorme ancho de banda* que se necesitaríaaplicando el mismosistema que para la grabación de audio, ya que el ancho de banda viene determinado por la

15

Page 16: Audiovisual Es

cantidad de elementos a transmitir.

En un sistema de televisión de 625 líneas, se requiere un ancho de banda de 5 MHz (5.000.000), y en el casodel sonido, oscila entre los 8 KHz y los 20 KHz (8.000 − 20.000). Esta enorme diferencia es lo que provocaprincipalmente la tardanza en la aparición de la grabación magnética de imágenes.

4.1.) Grabación de vídeo

Para obtenerlas, las imágenes que pasan por el objetivo de la cámara actúan sobre los CCD (sensores deimagen de estado líquido). Estos sensores eran como un mosaico formado por puntos elementales o pixels.Los pixels son elementos sensibles a la luz que, al recibirla, crean cargas eléctricas.

Los CCD transforman la luz en señal eléctrica. Cuando hablamos de los CCD, nos referimos a las cámaras yno a los estetoscópios. El proceso de paso luz a señal eléctrica que se realiza en la cámara va a serfundamental en el proceso de grabación de imágenes, porque antes de grabar hay que transformar lasimágenes en señales eléctricas

De este modo, la cámara transforma la luz en señales eléctricas y éstas serán grabadas en el soporte magnético(señales eléctricas − campo magnético). Estos campos magnéticos afectan a un material feromagnético que seencuentra en la cinta de grabación, y establece en él na huella permanente.

El proceso de reproducción de imágenes es inverso.

4.2.) Cómo es el proceso de grabación

Toda corriente eléctrica genera un campo magnético, y viceversa. El material ferromagnético, que se encargade recoger los campos magnéticos, está constituido por materiales como el hierro, el niquel, el cobalto, elcromo,..., o aleaciones de los mismos. El campo magnético que se genera es proporconal a la señal de vídeo.

Todos estos materiales tienen la capacidad de quedar imantados.

La cinta magnética consiste en una sucesión de partículas ferromagnéticas que se desplaza frente a la cabezade grabación, imantándose secuencialmente según el magnetismo que en ese instante esté produciendo laseñal de vídeo, adquiriendo mayor o menor grado de magnetización según sea mayor o menor la corriente quelo provoca.

En la 2ª fase del proceso, se recupera la señal eléctrica a partir del registro magnético. Si un campo magnéticose mueve a lo largo de un conductor (cabeza de registro − elemento captador de campo magnético), en dichoconductor aparece una corriente eléctrica, es decir, hacemos una cinta.

La condición necesaria para que entre un campo magnético y un conductor se genere una corriente eléctrica esque exista un movimiento relativo entre ambos

En la reproducción de las cintas magnéticas de vídeo se utiliza la última posibilidad; es decir, la cinta y elcabezal se mueven. Mientras, en las de audio, se utiliza la segunda opción, en la que la cinta se mueve a lolargo de la cabeza estática. El hecho de que sean los dos elementos los que se mueven ha hecho posible lacreación del magnetoscopio, ya que con este sistema de movimiento doble se palían los problemas del anchode banda de los que hablábamos al principio.

Para evitar este problema, se hace desfilar a la cinta a una elevada velocidad lineal (hasta 57 metros possegundo). Al hacerlo tan rápido, se acumula más información. Para ahorrar metros de cinta magnética, se hacegirar a las cabezas de grabación a la par que se desplaza longitudinalmente la cinta.

16

Page 17: Audiovisual Es

Existen dos sistemas que hacen posible la grabación y la reproducción de vídeo:

−La grabación transversal o cuádruplex.

−La grabación helicoidal.

La grabación transversal o cuádruplex

Los problemas tecnológicos del principio para construir el primer grabador de imágenes se soluciona en 1956por MPEX, que construye el primer magnetoscopio profesional que cumplía los requisitos de radiodifusión(broadcast = aparato profesional homologado).

Este primer sistema utilizaba el sistema de grabación transversal, que emplea cuatro cabezas situadas en losextremos de una rueda o tambior desplazadas entre sí 90º. El tambor gira transversalmente, grabando en líneasparalelas el ancho de banda, que tiienen mucha información.

La cinta magnetizada que se emplea es de 2 pulgadas de anchura (50,8 mm.). La cinta se desplaza a 38cm./seg. longitudinalmente, mientras que el tambor gira a 250 revoluciones/seg. Simultaneamente aldesplazamiento de la cinta, se produce un giro del tambor; de este modo, las pistas se graban paralelamentecon una pequeña inclinación (0,50º) con respecto a la vertical. Cada una de estas pistas paralelas contiene lainformación correspondiente a 15,625 líneas de las 625 líneas que componen un cuadro de tv en los sistemasde televisión PAL y SECAM.

Este sistema no puede congelar la imagen porque sólo tiene una parte mínima. Los magnetoscopios dereproducción transversal, al tener un sistema de lectura de 4 cabezas, complican los circuitos, con lo queaumenta el peso y el tamaño de los equipos.

Tiene una ventaja: Ofrece una absoluta compatibilidad entre los aparatos de grabación transversal (nosreferimos a la cinta de 2 pulgadas). Este sistema, dados los problemas de congelación, tiende a desaparecer.

La grabación helicoidal

Las dificultades antes mencionadas fueron solucionadas al decubrirse el sistema que aparece en la década delos 60.

En este sistema, la cinta envuelve a un tambor que gira en el mismo sentido que la cinta. Los cabezales entánen el tambor, y sobresalen a través de una ligera hendidura.

Las cabezas del tambor exploran la cinta de forma oblícua, dando lugar a una disposición oblícua de las pistasmagnéticas grabadas. En este tipo de grabación, cada una de las pistas recoge la información correspondientea un campo de televisión.

Cada pista lleva 312,5 líneas (el cuadro o fotograma tiene 625 líneas), y la velocidad de giro del tambor de doscabezas es de 25 revoluciones/seg. , por lo que se producen 50 campos/seg, obteniendo así 25 frames ofotogramas/seg.

Este sistema de dividir en campos evita el parpadeo. El sistema helicoidal emplea los formatos de 1 pulgada,3/4 de pulgada, 1/2 pulgada y ¼ de pulgada (nosotros utilizamos el de ½ pulgada).

Sistema en Azimut (o doméstico)

Todos los sistemas dejan un espacio entre línea y línea de grabacion para que el cabezal pueda realizar una

17

Page 18: Audiovisual Es

lectura nítida y evitar la diafonía (leer la pista correspondiente más la adyacente o parte de ésta), que alteraríala señal de salida.

En el sistema Azimut, las pistas están juntas, y para evitar la afonía, las pistas se colocan con un ángulodiferente de inclinación y en sentido inverso, mientras en el sistema helicoidal todas las pistas tienen el mismosentido pero con espacios libres.

4.3.) La cinta electromagnética

Pistas mínimas

Las pistas mínimas son una de vídeo y otra de audio. Pueden existir hasta 4 y un contol de track o pista desincronismos, que sirve para regular la velocidad de desplazamiento de la cinta con el objetivo de que seproduzca una perfecta sincronización entre las cabezas lectoras y las pistas magnéticas grabadas en la cinta.

Otra pista necesaria es la pista de órdenes, donde se incluye el Time Code (TC). Esta pista de órdenes es muyútil para hacer la selección de imágenes a fin de realizar la edición.

Cinta electromagnética en general

Las cintas de vídeo están compuestas por una película plástica sobre la que se deposita un metarialferromagnético reducido a particulas que se mezclan con una sustancia aglutinante.

En el proceso de fabricación de las cintas magnéticas, las partículas son orientadas de forma diferente según elsistema de grabación al que vayan orientadas (helicoidal o transversal). Las propiedades magnéticas de lacinta dependerán de la orientación de estas partículas.

En la grabación, las partículas, sometidas a la acción de los acmpos magnéticos, adquirirán grados demagnetización proporcionales a la señal de vídeo aplicada. De esta forma, tras la grabación, la cinta quedadispuesta para la reproducción.

4.4.) La relación señal − ruido

Todos los componentes que integran una cadena de tratamiento de señal (magnetofón, cinta magnética,...etc.), llevan consigo la creación de unas señales interferentes no deseadas, debidas principalmente alcalentamiento de los componentes electrónicos o a los elementos mecánicos móviles. Estas señalesinterferentes reciben el noimbre de ruido.

Éste se encuentra mezclado con la señal útil, y es muy difícil eliminarlo completamente sin dañar la útil. Poresta razón, todos los elementos y aparatos que intervienen en el tratamiento de la señal aportan su propio ruidoa la señal utilizable.

Cuantificar esta señal

Para poder cuantificar la importancia del ruido con respecto a la señal, se compara el máximo nivel que puedealcanzar la señal útil con el máximo nivel que puede alcanzar elruido, por lo que si relizamos el cociente,aparece la relación en deciBelios (dB). Cuanto mayor sea la señal y menor el ruido, mejor será la señal y, portanto, mayor número de deciBelios.

Para los equipos domésticos, es suficiente que esta relación se encuentra entre los 40 y los 43 dB, mientrasque los profesionales tendrán que alcanzar los 55dB.

18

Page 19: Audiovisual Es

Ausencia de señal o Drop Out

Es la pérdida de imagen en determinadas partes de la grabación que se manifiesta a través de rayas, puntos onieve. Esto ocurre debido al desprendimiento de las partículas magnéticas, a su falta de homogeneidad, a laacumulación de partículas de polvo sobre la emulsión, al desgaste de la cinta por un uso excesivo o a lasuciedad de las cabezas del magnetoscopio.

Para que no se produzcan problemas de este tipo y para conservar mejor la cinta, existen unasrecomendaciones básicas:

− Las cintas siempre se colocan en posición vertical.

− Hay que protegerlas del polvo, que es uno de sus peores enemigos.

− El calor excesivo también las puede deformar.

− Se recomienda evitar los rayos solares que inciden directamente.

− La humedad. Evitarla.

4.6.) La narrativa de las imágenes

En la narrativa de las imágenes, vamos a tener en cuenta los siguientes parámetros:

− El orden.

− La duración.

− El ritmo.

− El tiempo de transición entre planos.

El orden

El plano tiene un valor polisémico, es decir, que su significado está condicionado por los planos anteriores yposteriores. Por ello, el orden es importante.

A veces, con los mismos planos aunque variando el orden, podemos contar una historia diferente.

La duración

No se pueden dar unas reglas fijas acerca de la duración de los planos, pero podemos decir que debe existiruna cierta adecuación entre duración y contenido, de forma que cuanto más contenido tenga un plano, mayorduración deberátener a fin de transmitir completamente el mesaje al espectador.

El ritmo

Es un elemento importante para captar l atención de la audiencia. El ritmo es la cadencia (secuencia) de loselementos visuales, temporales y sonoros de un programa, producido por el ordenamiento y yuxtaposición dedichos elementos.

El ritmo está regulado por la duración y combinación de los planos, y está íntimamente asociado con el

19

Page 20: Audiovisual Es

concepto de tiempo, aunque éste en el lenguaje audiovisual pùede tener distintos contenidos (tiempo de acciónen la vida real, tiempo de proyección,... etc.).

El tiempo de transición entre planos

La transición es la forma que se adopta para pasar de un plano al siguiente. Según el mensaje que deseemostranmitir, podemos seleccionar un tipo de transición u otro.

Los tipos de transición los podemos dividir en cuatro:

−El corte.

−El fundido.

−El encadenado o mezcla.

−La cortinilla.

EL CORTE

Es la forma más simple de tranbsición, y sirve, sobre todo, para asociar rápidamente dos situaciones distintas.Produce un cambio rápido y tiene un impacto mayor que el cambio gradual.

EL FUNDIDO

La técnica de transición por fundido permite realizar la desaparición y parición graduales de una imagenpasando por un oscurecimiento de la pantalla.

El fundido puede ser de entrada, de salida o de entrada / salida. El de entrada partiría del color que hemosseleccionado (generalmente es el negro) e iría desapareciendo este color hasta que aparece nítifamente laimagen. En el de salida, por el contrario, el plano terminaría hacia una transición del color. Y finalmente, elfundido de salida /entrada, sería una enlace entre dos secuencias: pasa de un plano al color, y de éste alsiguiente plano. Este fundido se usa en general para conectar secuencias que quieran expresar un cambio detiempo o de lugar.

EL ENCADENADO O MEZCLA

El encadenado se produce cuando desaparece una imagen mientras aparece la siguiente, por lo que hay unmomento en el que las dos están en pantalla.

La mezcla se puede considerar como una transición suave en la que hay un mínimo de ruptura del fluir visual.Las mezclas son en general comparativas, esto es, pueden señalar aspectos similares o diferentes entre dos omás sujetos u objetos. Puede también comparar tiempos o puede ayudar a relacionar áreas visuales.

LA CORTINILLA

Es un efecto visual considerado como una transición decorativa. Se puede realizar de muy distintas manerasque están en función de la operatividad electrónica del sistema de mezclas.

El efecto de la cortinilla puede ser el de descubrir, revelar, cancelar o fragmentar según se aplique, pero hayun aspecto que hay que resaltar: este modo de transición destaca la naturaleza plana de la pantalla detelevisión.

20

Page 21: Audiovisual Es

La cortinilla es usada, sobre todo, en la repetición de imágenes futbolísticas.

Aspectos de la transición

La transición porcorte utiliza dos magnetoscopios (player y recorder), pero cuando tenemos que hacer otrotipo de transición, tendremos que contar con tres magnetoscopios (2 player y 1 recorder), porque si queremoshecer, por ejemplo, una mezcla de dos planos, tendremos que tener en pantalla ambos.

4.7.) El A − B roll

La mesa de realización que cuenta con el sistema necesario para llevar a cabo las mezclas, los fundidos o lascortinillas es el A−B roll. Este sistema cuenta con 2 player y 1 recorder.

Cuando queremos realizar un encadenado, debemos activar la orden MIX e indicar también la velocidad a laque queremos que se dé la transición. Lo mismo ocurre con el findido. Para activar la cortinilla, debemosactivar la orden WIPE.

* Ancho de banda: Es el espacio radioeléctrico que ocupan las informaciones de audio y vídeo en sutransmisión, y el ancho de banda en vídeo es muy amplio debido a las elevadas frecuencias en las que setransmite.

21

21