Camara Video

25
1 LA CÁMARA DE TV Y VÍDEO: ESTRUCTURA Y FUNCIONAMIENTO. 1. Introducción. 2. Bloque óptico. 3. Filtros de cámara. 4. Separación cromática. 5. Sensores (CCD y CMOS). 6. Proceso de luminancia. 7. Proceso de crominancia. 8. Temporalización y control. 9. Interfaz de usuario. 10. La CCU. 11. Cámaras de procesado digital. 1. Introducción. La cámara de televisión es el dispositivo que transforma la imagen luminosa en señal eléctrica, mientras que la señal de salida de la cámara se conoce como señal de video. Actualmente existen cámaras de tamaños y formas variadas, que satisfacen cualquier tipo de aplicación. Los diseños van desde los más sencillos y económicos hasta los más sofisticados y robustos que cumplen las más estrictas normas internacionales de televisión bajo las condiciones más adversas. La primera gran clasificación de las cámaras es: estándar de estudio y portátiles. Las primeras se utilizan en los estudios de televisión o unidades móviles, tienen poco movimiento, son pesadas y robustas, pero profesionales, las características de televisión se diseñan según las aplicaciones. Cámara estándar de estudio. Estas cámaras se componen de dos unidades: La cabeza de cámara (la cámara propiamente dicha). La unidad de control de cámara, unidas por un cable de cámara. La parte visible en el estudio o en el exterior es la cámara, manejada por el operador de cámara para realizar las tomas requeridas por el realizador del programa, incluye también los controles de zoom y foco para llevar a cabo los encuadres. Los componentes de la cabeza de la cámara son principalmente: o Lente zoom con controles de zoom y foco. o Prisma dicroico, separador espectral. o CCD de cámara. o Circuitos electrónicos “preamplificadores, corrección, amplificadores de video, generador de señal de detalle, matriz lineal, compensación de Knee, corrección de gamma....

description

Camara Video

Transcript of Camara Video

Page 1: Camara Video

1

LA CÁMARA DE TV Y VÍDEO: ESTRUCTURA Y FUNCIONAMIENTO.

1. Introducción. 2. Bloque óptico. 3. Filtros de cámara. 4. Separación cromática. 5. Sensores (CCD y CMOS). 6. Proceso de luminancia. 7. Proceso de crominancia. 8. Temporalización y control. 9. Interfaz de usuario. 10. La CCU. 11. Cámaras de procesado digital. 1. Introducción. La cámara de televisión es el dispositivo que transforma la imagen luminosa en señal eléctrica, mientras que la señal de salida de la cámara se conoce como señal de video. Actualmente existen cámaras de tamaños y formas variadas, que satisfacen cualquier tipo de aplicación. Los diseños van desde los más sencillos y económicos hasta los más sofisticados y robustos que cumplen las más estrictas normas internacionales de televisión bajo las condiciones más adversas. La primera gran clasificación de las cámaras es: estándar de estudio y portátiles. Las primeras se utilizan en los estudios de televisión o unidades móviles, tienen poco movimiento, son pesadas y robustas, pero profesionales, las características de televisión se diseñan según las aplicaciones. Cámara estándar de estudio. Estas cámaras se componen de dos unidades:

• La cabeza de cámara (la cámara propiamente dicha). • La unidad de control de cámara, unidas por un cable de cámara.

La parte visible en el estudio o en el exterior es la cámara, manejada por el operador de cámara para realizar las tomas requeridas por el realizador del programa, incluye también los controles de zoom y foco para llevar a cabo los encuadres. Los componentes de la cabeza de la cámara son principalmente:

o Lente zoom con controles de zoom y foco.

o Prisma dicroico, separador espectral. o CCD de cámara. o Circuitos electrónicos

“preamplificadores, corrección, amplificadores de video, generador de señal de detalle, matriz lineal, compensación de Knee, corrección de

gamma....

Page 2: Camara Video

2

La unidad de control de cámara es manejada por el operador de control de video, que manipula los controles electrónicos que ajustan el nivel y la calidad de la señal de video requerida. Los componentes de la sección de control de cámara son:

o Sistema de monitoreo (monitor de imagen, monitor forma de onda y vectorscopio). o Ciscuitos electrónicos (compensador de cable y de contorno, procesador amplificador y otros

circuitos) o Panel de operación de cámara. o Fuente de alimentación.

Cámara Portátil (ENG). Integra en ella misma los circuitos y funciones de la CCU, los de la cabeza de cámara, constituyéndose

en una unidad compacta. Este hecho permite gran movilidad y versatilidad, se puede grabar con ellas en estudio y/o localización.

Page 3: Camara Video

3

Cámara con adaptador para estudio.

Por el elevado precio de las cámaras estándar de estudio es muy común encontrar cámaras portátiles con posibilidades de uso para estudio y localización. Pueden configurarse en versión para estudio, cuando se le integra un adaptador de cámara y se conecta a la sección de control por medio de un cable. A su vez se suelen incorporar otros accesorios como el visor, control remoto para zoom y foco.

Page 4: Camara Video

4

Cámara con grabador de disco duro.

Almacenamiento de la señal de video en soporte magnético (cinta) o en disco duro, soporte óptico, tarjetas.

En la estructura y funcionamiento de una cámara de televisión se pueden identificar cinco bloques que son los que se irán desarrollando a lo largo de la unidad en epígrafes:

- Bloque óptico: lentes, captadores y conversores optoelectrónicos. - El proceso de luminancia: donde se extrae la luminosidad de la escena a partir de las tres

señales primarias. - El proceso de crominancia: donde se produce la mezcla RGB para la obtención de las

señales diferencia de color. - El bloque de control y temporalización: que sincroniza el funcionamiento de los bloques. - El interfaz de usuario, que gobierna la comunicación cámara-operador.

Page 5: Camara Video

5

2. El bloque óptico. Desde el punto de vista óptico, un objetivo está formado por tres conjuntos de lentes:

- Lentes de enfoque: su misión es concentrar el punto focal sobre el motivo a captar. En las cámaras de vídeo domésticas aparece la opción autofocus.

- Lentes de encuadre: el zoom. Se encargan de seleccionar la zona concreta de la imagen que se transferirá a los sensores ópticos.

- Lentes de foco trasero: lente que se ajusta cada vez que se monte el objetivo de la cámara y consigue la máxima calidad del objetivo en su posición de gran angular. (Una vez realizado el ajuste, se procederá a comprobar que para diferentes distancias focales se percibe la imagen nítida sin necesidad de retocar el control de enfoque.

- Entre las lentes zoom y foco trasero se encuentra el diafragma o iris. (En una cámara de estudio, el operador dispone de mandos de control para el foco y el zoom, situados en los brazos del trípode. el control del iris se realiza desde el control técnico, para garantizar que todas las cámaras entregan una señal con niveles de luminosidad semejantes).

3. Los filtros de cámara.

a. Filtro cuarto de onda. Filtro que cambia la polarización lineal múltiple de la luz a polarización circular. Esta polarización circular de la luz se comporta de manera uniforme en los espejos dicroicos y en las superficies reflectantes que posteriormente encontramos en el recorrido de la luz por la cámara.

b. Filtros CC. Son filtros que adaptan la luz incidente, modificando su temperatura color, de forma que los separadores cromáticos reciban una señal luminosa adecuada a la sensibilidad en las diferentes longitudes de onda en que trabajan. Habitualmente se podrá elegir entre 3 y 5 filtros diferentes, dependiendo del modelo de cámara, siendo los más frecuentes los filtros para incandescencia (3200K) o para luz de día, en torno a los 5600K. Es importante seleccionar, en cada situación, el filtro más adecuado a cada iluminación, con el fin de conseguir un correcto balance de blancos y, por lo tanto, una adecuada respuesta cromática de la cámara.

c. Filtros de densidad neutra (ND). Se trata de filtros grises que, sin modificar las características cromáticas de la luz, limitan la cantidad que transfieren. Están calibrados en grados fijos, expresados normalmente en porcentaje de atenuación.

d. Filtro infrarrojos. Filtro que se encarga de limitar las señales de longitud de onda superior a unos 680nm. Es un filtro que se hace imprescindible en las cámaras con sensores CCD, ya que estos tienen una respuesta superior a la del ojo humano. Si se permitiera pasar esta señal infrarroja, invisible al ojo podría falsear la lectura de la luminosidad de la escena.

e. Filtro paso bajo. Con este filtro se garantiza que la longitud de onda más pequeña (azulada) es muestreada por al menos, dos elementos sensores de imagen (imprescindible para la digitalización de la señal: teorema de Nyquist).

4. Separación cromática.

En las cámaras domésticas, la imagen transferida por el objetivo se aplica a un captador de imagen, en cuyo interior existen elementos sensibles a diferentes colores (tradicionalmente cian, verde, magenta y amarillo) y, por matrizado de estas componentes, se obtienen posteriormente las señales de luminancia y

Page 6: Camara Video

6

croma. Esta solución es económicamente interesante, pero su limitada resolución hace inviable su utilización en sistemas profesionales.

Cuando se requiere una mayor calidad en la captación se recurre a dividir la imagen por procedimientos ópticos, extrayendo sus componentes básicas de rojo, verde y azul. Una vez separadas las componentes cromáticas resultantes se muestrearán en tres captadores independientes, por lo que se obtendrá señales eléctricas correspondientes a las tres señales básicas.

El elemento que se encarga de separar la luz en sus componentes básicas en cámaras profesionales es el prisma dicroico, un conjunto de espejos semireflectantes que permiten el paso de los colores principales, reflejando uno. Para formar un filtro dicroico se utilizan dos materiales con índice de refracción diferente, dispuestos en finas capas alternadas, que pueden llegar a ser hasta veinte. La elección de los materiales y el espesor de las capas definirán la longitud de onda que reflejan y cuáles podrán atravesarlo.

Los filtros dicroicos utilizados no reflejarán exclusivamente la longitud de onda correspondiente al color para el que fueron diseñados, por lo que inevitablemente se reflejarán colores que, no siendo expresamente rojo o azul, tienen una longitud de onda cercana a la suya. Para garantizar que a cada sensor le llega únicamente la componente lumínica deseada se incorporan, justo delante de los detectores, unos filtros (7,8 y 9) que transferirán las componentes básicas roja, verde y azul, desechando el resto.

Separación cromática en un prisma dicroico.

En el esquema puede apreciarse el proceso que sigue la luz en el interior del prisma. Así, a través del objetivo llega la información visual, una vez atravesados los diferentes filtros ópticos que incorporan las cámaras, hasta la cara frontal de un semiespejo (1) que permite pasar la luz en la dirección de entrada, en perpendicular a su superficie. La luz incide, a continuación, en la cara oblicua del primer prisma, donde está ubicado un filtro dicroico de reflexión azul (2), por lo que la componente de este color se verá reflejada y conducida de nuevo hacia el exterior del prisma. Sin embargo, como ahora el ángulo de incidencia no es perpendicular, el tratamiento de la superficie provocará una reflexión total de la componente azul (3), que se dirigirá hasta el sensor de imagen correspondiente a ese color (4). El resto de los componentes lumínicas podrán atravesar este primer filtro dicroico y llegar hasta el segundo prisma, que a su vez incorpora un segundo espejo dicroico (5), éste de color rojo, que se encargará de llevar las longitudes de onda mediante una nueva reflexión total (6) hasta el sensor de imagen correspondiente, Si a la imagen original le restamos, a través de estos dos separadores ópticos, las componentes de azul y de rojo, el resto corresponde a las componentes de color verde contenidas en la escena, que habrán logrado

Page 7: Camara Video

7

atravesar las dos superficies dicroicas, y que serán recogidas por un tercer sensor, situado detrás del separador cromático.

Un problema asociado a los separadores cromáticos es el de las imágenes fantasma, generadas cuando la luz se refleja de forma no deseada en las paredes del prisma divisor: en alguno de los sensores aparece un haz luminoso inesperado que se sumará (o se restará, según la diferencia de fases) a la imagen original. La causa más frecuente es una desviación del haz incidente respecto del eje óptico del prisma, provocada por errores en la fabricación del objetivo o los filtros previos. Para evitarlo, se recurre a una combinación de las siguientes técnicas:

Posibles imágenes fantasma y sus soluciones. • Máscaras Opacas.

Situadas en la entrada del prisma delimitarán la zona por la cual se permite el paso de la luz hacia el interior.

• Barreras internas.

Bloquearán los haces de luz procedentes de reflexiones incontroladas, evitando que lleguen a los sensores ópticos. • Recubrimientos interiores.

• De alta absorción óptica en las paredes laterales del prisma, que anularán los reflejos incontrolados

en dichas paredes.

5. SENSORES CCD Y CMOS.

El sensor CCD junto con algunos circuitos electrónicos auxiliares se encuentra encapsulado formando un circuito integrado que se denomina chip CCD. Los sensores CCD utilizan una característica de ciertos materiales de reaccionar ante la luz conocida como efecto fotoeléctrico. Consiste en la liberación de un electrón de la estructura del material a cambio de absorber un fotón. Esta propiedad está presente en algunos metales y

Page 8: Camara Video

8

semiconductores, entre ellos el Silicio. El Silicio en estado muy puro y cristalizado es el material que emplean los sensores CCD. Si un cristal de Silicio, que inicialmente se supone en estado eléctrico neutro, es expuesto a una fuente de luz libera electrones de su estructura. Puesto que los electrones son partículas de carga negativa, el Silicio al perder electrones adquiere un estado eléctrico positivo. Es decir, se ioniza. Colocando el cristal de Silicio en el foco del sistema óptico, éste proyecta la imagen del objeto sobre su superficie. El cristal entonces emite electrones de forma proporcional a la luz recibida en cada zona. Esto da como resultado que inicialmente se forme una replica de la imagen, pero constituida por electrones. Llamaremos a esto imagen latente. Sin embargo, la imagen latente se destruye a medida que se forma debido a que los electrones que la constituyen siguen moviéndose. Es necesario por tanto conseguir un dispositivo que retenga los electrones en sus posiciones de origen. Para lograr inmovilizar los electrones una vez que se han formado se construye una estructura llamada sensor CCD. Básicamente consiste en un mosaico de celdillas, ordenadas en filas y columnas, en el que cada celdilla actúa como una fotocélula. Se parte de una porción de Silicio muy puro al cual, durante el proceso de cristalización se introducen impurezas formando bandas verticales. A esto se le llama dopar el cristal. Las impurezas alteran la estructura del cristal y sus propiedades eléctricas creando un semiconductor tipo P. Este tiene la propiedad de generar un campo electrostático permanente de valor negativo, es decir que repele electrones. Las bandas actúan como un aislante para los electrones impidiendo que estos puedan cruzarlas. Estas bandas se denominan Canales de paro. Sobre esta estructura se coloca una capa de Oxido de Silicio. El Oxido de Silicio es un material transparente pero eléctricamente aislante. Es decir permite el paso de fotones pero impide el de electrones. A continuación se coloca una fina trama de conductores en sentido horizontal denominados electrodos. Los electrodos están agrupados formando tríos. La región que abarca un trío de electrodos y situada entre dos canales de paro se conoce con el nombre de píxel. Todo el conjunto funciona como una trampa electrostática de la forma que veremos a continuación. El sensor CCD así formado se expone a la luz en el plano focal del sistema óptico. Previamente se aplica un potencial positivo a los electrodos centrales de cada píxel. De esta forma los electrones a medida que se liberan se ven atraídos por el electrodo más cercano a su lugar de origen.

No pueden alcanzar dicho electrodo porque se lo impide la capa aislante de Oxido de Silicio. Tampoco pueden recorrer longitudinalmente al electrodo porque se interponen los canales de paro. En estas condiciones los electrones se van acumulando en la proximidad del electrodo formando un paquete o carga de electrones. El número de electrones que integra el paquete es proporcional a la cantidad de luz recibida en la región del píxel.

Esta operación de exponer el sensor y atrapar los electrones formando paquetes o cargas se denomina Tiempo de Integración. El resultado es una imagen latente, pero constituida por un mosaico de cargas de electrones de distintos tamaños. Para que la imagen tenga una resolución suficiente es necesario que exista un gran numero de estos paquetes, es decir, unos cuantos miles de píxeles.

Page 9: Camara Video

9

Al finalizar la fase de integración tenemos la imagen del objeto con sus electrones inmovilizados gracias al potencial positivo de los electrodos centrales del píxel. La siguiente fase consiste en extraer las cargas de electrones del sensor por un procedimiento denominado Transferencia de Carga en el que entran en juego la totalidad de los electrodos. Primeramente se aplica un potencial positivo al electrodo inferior del píxel. Los electrones se ven atraídos ahora, tanto por el electrodo central que continua en positivo, como por el electrodo inferior. Las cargas de electrones se reparten entonces a caballo entre ambos electrodos. A continuación se pone a un valor neutro el electrodo central, con lo que los electrones se sitúan en la posición del electrodo inferior. Después se repite lo mismo pero con el electrodo inferior y el superior del píxel siguiente. Y finalmente con el electrodo superior y central. Al final de este ciclo nos encontramos con que todos los paquetes de carga que integran la imagen han descendido un píxel hacia abajo. Si repetimos el ciclo las veces que sean necesarias podremos desplazar la totalidad de la imagen. La secuencia de potenciales eléctricos que varían la tensión de los electrodos se denomina Clock timing o timing (señales de reloj) y se proporciona desde un circuito integrado externo, especializado para

proporcionar las formas de onda y niveles de tensión correctos. Como resultado de todo esto, las filas de cargas son transportadas hasta la última línea de píxeles. Esta línea es algo diferente a las demás. Inicialmente está oculta a la luz de forma que no genera electrones. Además dispone de electrodos dispuestos en sentido transversal de forma que puede hacer desplazamientos de los paquetes en sentido horizontal usando el mismo procedimiento explicado anteriormente. Este desplazamiento (Desplazamiento

Serie) conduce a las cargas de electrones hasta un dispositivo conocido con el nombre de Nodo Detector de Carga. El Nodo actúa básicamente como un condensador, es decir, acumula electrones y aparece en sus extremos un potencial negativo proporcional al número de electrones que integran el paquete. Actúa como conversor de carga eléctrica en tensión eléctrica. Debido a que la tensión entregada por el Nodo Detector es extremadamente débil es necesario magnificarla previamente mediante un circuito amplificador. Uno de los problemas inherentes a la transferencia de carga del CCD es que si la estructura se mantiene expuesta a la luz mientras se van desplazando las cargas, se va añadiendo una carga adicional remanente a medida que éstas se desplazan hacia el terminal de lectura. El efecto se conoce con el nombre de smear. El procedimiento de captación y lectura de cargas descrito se corresponde con un tipo de CCD denominado Full Frame CCD (de cuadro completo o matricial). En este CCD la lectura ha de realizarse de forma coordinada con la señal de vídeo de salida, lo que impone una restricción: el tiempo de exposición máximo coincide con el periodo de borrado de campo, es decir, 3,2ms. (aproximadamente 1/300 seg., lo que impide exposiciones más prolongadas).

Page 10: Camara Video

10

Además debe incorporarse un obturador mecánico (shutter) que hace que la exposición a la luz tenga la misma duración para todos los píxeles e impide que aparezca el efecto smear. Estos sensores se utilizan a menudo en aplicaciones de captura de imagen en las que no se requiere proporcionar una señal de vídeo en tiempo real, sino un único fotograma (astronomía). Los CCD más usuales en cámaras de vídeo son los de tipo Frame-Transfer (transferencia de cuadro), en los que existe un área de almacenamiento temporal protegida de la luz. Nada más terminar el tiempo de integración, se transfiere muy rápidamente y en paralelo la imagen a dicha zona, donde permanece a la espera de ser leída. Con ello es posible realizar los procesos de adquisición y lectura de cargas simultánea e independientemente. El proceso de lectura es idéntico al descrito anteriormente, pero con una ventaja, los píxeles más alejados de la etapa de salida no son afectados por la luz mientras se leen lo precedentes. El smear depende del tiempo requerido para transferir la carga desde la región activa hasta la zona de almacenamiento; cuanto menor sea este tiempo, menores son sus efectos sobre la imagen. Cabe añadir que existen otros diseños de sensores CCD, de los que destacamos:

• Split Frame Transfer CCD o sensor CCD de transferencia de cuadro divididos. Esta arquitectura es similar a la transferencia de cuadro convencional, con la salvedad de que la parte de almacenamiento está dividida en dos secciones, superior e inferior, quedando la zona central expuesta a la luz. La trasferencia de cargas se reparte entre las zonas de almacenamiento, lo que permite disminuir su duración a la mitad, y por tanto, también el smear.

• Interline Transfer CCD o sensor CCD de transferencia interlínea. La matriz de sensores está formada por estructuras de fotocélulas lineales, en las que se intercalan las filas expuestas a la luz (electrodos receptores) y las protegidas (electrodos de transferencia). Esta configuración permite que el desplazamiento de la carga a la zona protegida pueda hacerse en un único paso, desapareciendo completamente el efecto smear. El problema de esta configuración, comparada con los CCD de transferencia de cuado, es que al intercalar líneas visibles con protegidas puede obtenerse una menor densidad de elementos sensibles y, por tanto, una menor resolución de la imagen.

Recapitulando, lo que hemos obtenido a la salida de los CCDs de la cámara son tres corrientes eléctricas en las que las variaciones de tensión son proporcionales a las variaciones de luminosidad que presentan, punto a punto y ordenadamente, las tres imágenes ópticas obtenidas por cada uno de los tres colores primarios que conforman la imagen original. Estas corrientes eléctricas pueden tener destinos diversos:

Page 11: Camara Video

11

En las cámaras digitales pasan por un dispositivo denominado Conversor Analógico/Digital, que algunos chips incluyen en su propia arquitectura, como los CMOS (Complementary Metal Oxide Semiconductor). Analógicas o digitales, las señales eléctricas, para ser visibles, deben convertirse en Señal de vídeo que alimente alguno de los receptores actuales: TRC, Pantallas de Plasma, LCD-TFT, proyectores DLP, etc. El registro de la señal de vídeo se realiza sobre un soporte magnético lineal (cinta magnética), no lineal (disco duro) u óptico (CD, DVD). Actualmente, las cámaras de Alta Definición (HD) empleadas en Cinematografía son las únicas que pueden competir en calidad visual con el soporte fotoquímico: Para una relación de aspecto 16:9 emplean sensores de gran resolución: la matriz cuenta, al menos, con 1080 filas por 1920 columnas, lo que arroja una cantidad de 2.073.600 píxeles por cada sensor. La velocidad de captura de imagen puede sincronizarse con la frecuencia de cuadro, lo que permite ofrecer una imagen completa en modo progresivo, en lugar de campos entrelazados, con una frecuencia total de 24 cuadros por segundo. Es lo que se conoce como Frame Ratio 24p. Normalmente pueden grabar en: 24p/25p/30p (progresivo) y 50i/60i (entrelazado). La conversión a señales eléctricas digitales permite la grabación de la señal de vídeo en magnetoscopios digitales, usando cintas como la HD CAM SR de más de 50 minutos de duración, así como el volcado a discos duros para el trabajo de edición y postproducción.

CCD vs. CMOS

Tanto los sensores CCD como los CMOS están fabricados con materiales Semiconductores de Metal-Óxido (MOS) y estructurados en forma de matriz. Acumulan una carga eléctrica en cada celda de la matriz (o pixel) en proporción a la intensidad de la luz que incide sobre ella localmente. No obstante existen diferencias notables entre ambas tecnologías:

• En un sensor CCD (Charge Coupled Device) o Dispositivo de Cargas Acopladas, para recuperar una imagen, se procede a la lectura de estas cargas, mediante desplazamientos sucesivos y de forma secuencial.

• El CCD convierte finalmente estas cargas en Voltaje y entrega

una señal analógica a su salida, que debe ser digitalizada y procesada por la circuiteria de la cámara.

Page 12: Camara Video

12

• En un sensor CMOS, (Complementary Metal Oxide Semiconductor) los fotones que recibe cada

celda son convertidos en carga electrica y en voltaje en la misma celda receptora, de esta manera al contrario que en los CCD, las celdas son totalmente independientes de sus vecinas.

• Al contrario que el CCD, el sensor CMOS realiza la digitalización píxel a píxel, ello conlleva que el resultado que entrega a la circuitería de la cámara este ya digitalizado.

Ahora vamos a ver las virtudes y defectos de cada uno: Responsividad: Se define como el nivel de señal que ofrece el sensor por unidad de energía óptica incidente. Lógicamente nos interesa que el sensor tenga una responsividad elevada, o sea que con poca luz nos de una señal aceptable. En este caso los CMOS son superiores a los CCD, debido a la mayor sencillez de integrar elementos amplificadores en un CMOS. Además por construcción CMOS permite alta amplificación con bajo consumo, mientras que en CCD la amplificación supone un consumo mas elevado. Rango Dinámico: (RD) Es la razón (división) entre el nivel de saturación de los píxeles y el umbral por debajo del cual no captan señal. En este aspecto CCD supera a CMOS, cuando se escribe esto típicamente el RD de un sensor CCD es del orden del doble que un CMOS. Ruido: Los CCD aventajan a los CMOS en términos de ruido, dado que por construcción todo el procesado de señal se da fuera del CCD, con lo que se podrá aprovechar de convertidores A/D mas rápidos o mejores procesadores, por su lado los CMOS al realizar la gran mayoría de las funciones dentro del sensor (Amplificación , Conversión A/D, ...) pierden espacio para el fotodiodo en sí, y pagan esto en términos de ruido. Respuesta Uniforme: Se espera que un píxel -ante el mismo nivel de excitación de luz- no presente cambios apreciables respecto a sus vecinos, en este aspecto la individualidad de cada píxel en CMOS lo hace más sensible a sufrir fallos, siendo mayor la uniformidad en CCD. No obstante mediante circuitos con realimentación se ha conseguido paliar este problema en los CMOS, siguiendo los CCD con una ligera ventaja. Velocidad: La velocidad en CMOS es bastante superior a los CCD, debido a que muchas funciones, como la propia conversión analógico-digital son realizadas en el propio sensor, por ahora esta ventaja es ligera pero se espera que aumente con el tiempo.

Page 13: Camara Video

13

Enventanado: Es sabido que los CCD funcionan a su máxima resolución en la gran mayoría de dispositivos, en cambio los CMOS dado su carácter individualizado de cada píxel, permiten seleccionar mas fácilmente porciones de la imagen, esto permite mas refresco en modos de video o bien tomar imágenes a menor resolución sin interpolación. Blooming: Es el conocido fenómeno por el cual un píxel que ha alcanzado la saturación empieza a 'contagiar' a sus vecinos, creando efectos indeseados. Esto se da en CCD, necesitando trucos de construcción cuando se quiere evitar, en cambio por su construcción los CMOS no sufre este defecto. En resumen CCD obtiene más calidad de imagen a costa de un tamaño mayor y consumo mas elevado. Por su lado CMOS es superior en integración y bajo consumo a costa de perder calidad de imagen en situaciones de poca luz.. Que no lleve a la confusión de pensar que un CCD de una cámara compacta media es superior en calidad de imagen a un CMOS de SLR de alta gama, lógicamente a mismo tamaño de sensor esta diferencia se diluye, CCD obtiene mejores calidades con sensores GRANDES. Como siempre no hay nada superior de por sí, sino situaciones en las que cada tecnología es mas adecuada.

CIRCUITOS AMPLIFICADORES: Aseguran la preamplificación de la señal de vídeo del CCD La amplificación es una corrección de los sincronismos para que finalmente la imagen se vea correcta después de tanta transformación. MONITOR DE LA IMAGEN: Es un televisor de dimensiones muy reducidas que permite al operador ver la imagen que la cámara está analizando.

6. PROCESO DE LUMINANCIA.

Extraídas las señales correspondientes a los colores básicos, se pasa a diferentes procesos para obtener la señal de vídeo según el estándar.

Para ello se utilizan dispositivos diferenciados para los tratamientos de las señales de luminancia y croma, de forma complementaria a los utilizados en los receptores de televisión. En el caso de la señal de luminancia, el proceso es relativamente sencillo. Básicamente se encarga de adecuar la información de luminosidad de la escena, para compensar la falta de los diferentes circuitos del sistema de transmisión, desde los captadores de la cámara hasta los tubos de imagen del receptor. Por tanto, en este bloque se encuentran: Los circuitos de ajuste de gamma, los controles del nivel de los picos de blanco y negro, los mejoradores de detalles, limitadores de ancho de banda, amplificación de control y ganancia.. Una vez realizadas estas operaciones, las señales RGB se aplicarán a una matriz donde se obtendrá, a partir de las componentes unitarias ponderadas, la señal de luminancia (Y). 6.1 Corrección de Gamma.

Como ocurre en la inmensa mayoría de los componentes electrónicos, la respuesta del tubo de imagen del receptor de televisión no es lineal, puesto que los luminóforos necesitan una determinada cantidad de energía para poder empezar a emitir luz. Además, cuando se están representando imágenes con poca luminosidad, la capa de fósforo resulta especialmente insensible, mientras que los cambios en la señal de video de una escena muy iluminada producen un gran cambio en la cantidad de luz emitida. Si se intentaran representar directamente las imágenes captadas por

Page 14: Camara Video

14

una cámara, el resultado obtenido en los receptores de televisión resultaría inaceptable. Por lo tanto, resulta imprescindible realizar algún tipo de corrección para garantizar que la respuesta de toda la cadena de transmisión, que se llama Gamma, represente fielmente las imágenes captadas por la cámara. Para representarlo se utilizan gráficas de luz emitida en función de la señal eléctrica de excitación, y factores numéricos que la cuantifican. En un sistema ideal, la gráfica se representaría como una línea recta y se diría que el sistema tiene gamma unidad. Si, como se ha comentado, el tubo de imagen del receptor de televisión responde mejor a los cambios producidos en la zona de iluminación elevada, quedaría representado como muestra en el dibujo, apareciendo pequeños incrementos de la luz emitida en los escalones inferiores de la señal; por el contrario, en los más cercanos al nivel de blanco el cambio es mucho más abrupto. Si analizamos estadísticamente una muestra amplia de Tubos de Rayos Catódicos (TRC), se obtiene un factor de gamma característico de Gamma = 2,2. Éste es el único elemento que posee una alinealidad notable, mientras que el resto de los dispositivos del sistema, incluido el captador de cámara, sí presentan una respuesta lineal ante diferencias de iluminación. Para compensar el error del tubo de imagen, se incorpora un ajuste en el proceso de luminancia, que consiste en regular la respuesta de los amplificadores para que se comporten de un modo no lineal, obteniendo de ellos una Gamma = 0,45, exactamente complementaria a la del TRC.

Hasta ahora nos hemos referido a la corrección de gamma en términos de luminosidad, pero es en la imagen color donde adquiere importancia capital. La imagen de televisión se forma por combinación de los tres colores básicos. Para cada punto de la escena, estos tres colores adoptarán un valor diferente, por lo que una gamma mal ajustada provocaría que en el tubo de imagen del televisor cada color se iluminara con un error diferente. Este error se visualizaría como un cambio en los colores representados, desvirtuando gravemente la calidad de la imagen transmitida.

Si consideramos un punto de color blanco formado por un 30% de rojo, un 59 % de verde y un 11% de

azul, y lo transferimos por un sistema sin corrección (por lo tanto, con gamma 2,2), al llegar a los receptores del usuario, el color azul se representaría en una proporción muy baja (apenas un 2 %). La componente roja también vería reducido su valor, transfiriéndose en torno a un 10%. Por el contrario, el color verde, al tener un valor mayor, se visualizaría con un rendimiento muy superior al idóneo comparado con los otros dos, ya que podría llegar a un porcentaje del 40 %. A la vista de los valores obtenidos, se aprecia que el color representado no mantiene las proporciones originales, habiendo derivado el color blanco hacia un tono amarillento.

El ajuste de gamma se realiza enfocando la cámara sobre una carta que representa dos escaleras de grises dispuestas en contraposición, y que mantiene una relación de reflectancia logarítmica entre sus niveles de gris. Al captar esta imagen, un sistema de gamma unidad entregaría una señal cuyos escalones inferiores estarían comprimidos respecto de los correspondientes a los tonos claros. La corrección consiste, precisamente, en obtener una señal de escalones equidistantes a partir de esta imagen de referencia. Cuando logremos esta condición estaremos, en realidad, implementando un sistema no lineal de funcionamiento complementario al tubo de imagen. En muchas ocasiones, el fondo de la carta de ajuste es de un tono gris medio en la escala logarítmica, lo que proporciona una nueva referencia de ajuste que servirá como eje de la señal del monitor de forma de onda, debiendo situarse en el centro del margen de la señal de vídeo.

Page 15: Camara Video

15

6.2 Matriz de Luminancia.

Una vez realizado el ajuste de los amplificadores RGB para obtener un nivel de gamma de 0,45, es necesario unificar estas tres señales unitarias para obtener la información de luminancia. Como ya se ha comentado, para obtener un nivel blanco no se pueden mezclar los colores básicos uniformemente, sino que se deben establecer los factores de ponderación adecuados para adaptarlos a la sensibilidad del ojo humano en relación con cada uno de ellos. Por lo tanto, la componente de luminancia (Y) correcta se obtiene a partir de la siguiente mezcla. 30% R+59 % G+ 11% B = 100 % Y Esta mezcla se producirá en un circuito matrizado, obteniéndose en su salida la señal de Luminancia.

Corrección de gamma

6.3 Otros circuitos de Luminancia. Además de los procesos fundamentales para el proceso de formación de la señal de luminancia, en las cámaras se incorporan otros circuitos auxiliares encaminados a mejorar sus prestaciones. Algunos de estos circuitos son:

• Mejoradores de detalles. Configurados sobre la base de un filtro paso alto adaptativo, su misión

consiste en compensar el limitado ancho de banda de los amplificadores de vídeo, consiguiendo así una respuesta en frecuencia de la señal más elevada.

• Limitadores de blanco y negro. Como resultado de estos magnificadores, se pueden producir

picos de nivel excesivo de señal que se extiendan por encima del nivel de blanco o por debajo del nivel de negro, y que podrían resultar problemáticos y, por ello, deben ser limitados.

• Controles de pedestal y ganancia. Una vez acotado el margen donde se podrá mover la señal, se

definirá con el control de pedestal en el nivel mínimo que entregarán los amplificadores, correspondiente al nivel de negro, así como la ganancia de los amplificadores para poder representar adecuadamente una imagen blanca del 100%. Además, las cámaras incorporan magnificadores de ganancia, que permitirán operar en condiciones de baja luminosidad, a pesar de llevar unido un incremento del ruido de nivel de negro.

• Controles de pendiente y Knee. Si la cámara se orientase sobre una escena sobre iluminada, la

señal de salida se saturaría, por lo que la calidad de la imagen se vería notablemente resentida. Para

Page 16: Camara Video

16

evitarlo, las cámaras incorporan circuitos de codo y pendiente, que detectan la sobre exposición de la imagen, y modifican la ganancia de los amplificadores (representada por la pendiente de una recta en la gráfica de transferencia) a partir de un determinado punto, llamado Knee (“rodilla” en inglés, aunque en español se suele denominar “codo”). Este cambio provocará una disminución de la ganancia en la zona de alta iluminación comprimiendo de esta forma la señal y resultando una imagen mucho más agradable.

Efecto de los circuitos auxiliares sobre la señal.

7. PROCESO DE CROMINANCIA.

Si bien el proceso de la señal de luminancia es relativamente sencillo, para obtener la señal de crominancia es necesario someter a las señales RGB a varias transformaciones que ajustarán los parámetros de colorimetría, formarán las señales de diferencia de color y se modularán para conseguir la señal de color de la escena.

7.1 Balance de blancos.

Antes de efectuar cualquier operación con las cámaras que van a utilizarse en una grabación o retransmisión, es imprescindible efectuar una serie de ajustes técnicos que garanticen que las diferentes que las diferentes cámaras presentan una imagen similar, sin cambios bruscos de matiz cuando se producen transiciones entre ellas. Uno de los ajustes fundamentales es el balance de blancos, que garantizará una correcta representación del resto de los colores captados por la cámara. El balance automático de blancos se activa momentáneamente mientras se presiona un pulsador; esto debe ocurrir cuando la cámara se encuadra sobre una superficie blanca, que refleja la misma luz que se empleará durante la toma, y con una cantidad de luz incidente que no produzca saturación de los amplificadores.

Cuando se selecciona esta función, la cámara ajusta los niveles de los amplificadores de los canales rojo y azul, aplicándoles una tensión de control en forma de rampa creciente, y comparándolos con el nivel de verde, que se utiliza como referencia, hasta que las señales diferencia de color que se obtienen en la salida de la matriz de crominancia desaparecen. En este momento, cuando no existe señal de crominancia, se puede garantizar que la imagen presenta un matiz blanco, con ausencia de pigmentaciones debidas al tipo de luz empleado u otros factores.

Page 17: Camara Video

17

Una vez efectuada la operación de ajuste, el sistema guarda en una memoria la escena los valores correspondientes a las aplicadas a los amplificadores de rojo y azul manteniéndolos hasta que se realice un nuevo ajuste. Comparando los valores almacenados con otros preestablecidos para cada cámara, se obtiene una medición de la temperatura de color, que resulta de utilidad para la selección de los filtros ubicados entre la óptica y los sensores de imagen. Es frecuente encontrar, asociado a este balance de blancos, un balance de negros, que garantiza que los tonos asociados a bajos niveles de luminancia (azules, marrones, etc.) serán representados adecuadamente. Esta función provoca el cierre total del iris de cámara, y el ajuste de los amplificadores para diferentes ganancias del sistema. 7.2 Matriz de Crominancia.

La información del color de la imagen fue incorporada sobre la existente de blanco y negro al desarrollarse los sistemas de televisión en color. Por lo tanto, debe permitirse la compatibilidad con el estándar de televisión en blanco y negro. Esto supone que, manteniendo el ancho de banda de la señal original, se hace necesario transmitir una cantidad mayor de información.

Si bien la cámara de televisión captura los tres colores básicos, sabemos que no se transmiten directamente, sino que se matrizan para obtener la información de blanco y negro (luminancia). Al enviar ahora conjuntamente la información cromática, podemos apoyarnos en la señal actual para disminuir la cantidad de información añadida al canal de transmisión. Por ello se recurre a obtener las señales diferencia de color respecto de la señal de luminancia, ya que esto supone, además de un sustancial ahorro del ancho de banda necesario para la transmisión, que ante una imagen en blanco y negro estas señales diferencia de color se anulan, por lo que resultan especialmente adecuadas al reducir la interferencia luminancia-croma. Aunque en principio cabría pensar en la obtención tres señales diferencia de color (R-Y, G-Y, B-Y), al transmitir también la información de luminancia podemos a aún más espectro, ya que enviando únicamente dos tas señales diferencia de color, en el receptor de tele se puede recomponer la tercera. Así, con las seña R-Y, B-Y es posible obtener a través de matrices las ponentes unitarias RGB originales.

En la matriz de crominancia se obtienen, por lo las señales diferencia de rojo y de azul respecto de la señal de luminancia, suprimiéndose la señal diferencia de por ser la que estadísticamente lleva una mayor cantidad de información y, por lo tanto, la que supone un i ahorro en el proceso de transmisión. 7.3 Modulador U-V

Las señales diferencia de color que extraemos de la i deben tener un formato idóneo para incorporarlas al de vídeo sin que se produzcan interferencias (o el menor número posible de ellas) y de forma que puedan coexistir con la información de luminancia. Para ello se recurre a modular las señales R-Y, B-Y utilizando una portadora cuyo valor resulta ser un múltiplo impar de la mitad de la frecuencia de líneas. Con esto se garantiza el intercalado de las líneas de espectro de la información de color con las de luminancia existentes. El valor elegido para esta subportadora de crominancia será más adecuado si se encuentra en la zona superior del ancho de banda de luminancia, donde los armónicos de esta señal tienen un valor peque-ño, por lo que la interferencia con ellos se ve así reducida. En el sistema PAL B/G, este valor es de 4,433619 MHz.

Page 18: Camara Video

18

El sistema de modulación empleado es el de doble banda lateral (modulación en amplitud con portadora suprimida) para cada una de las dos señales diferencia de color. Con el fin de que puedan coexistir las dos modulaciones sin mezclar las informaciones que contienen, ya que se modulan con la misma frecuencia de la portadora, se recurre a aplicar las portadoras con una diferencia de fase de 90°, lo que se conoce como modulación en cuadratura. De este modo, a la señal diferencia de azul (B-Y) se le aplica una subportadora con fase 0°; mientras que al modulador de la señal diferencia de rojo se le desfasa la sub-portadora 90°. Las dos señales moduladas reciben el nombre de señal U (B-Y modulada) y señal V (R-Y modulada), y se encontrarán en ejes diferentes de fase, lo que permitirá que se sumen y se transmitan como una única señal, que se denominará «señal de crominancia».

Señal sin ponderar Señal ponderada (Efecto de la ponderación de la señal de video.)

Como esta señal de crominancia se va a sumar a la señal existente de luminancia, deberemos garantizar que la señal resultante (señal de vídeo compuesto) permanece en todo momento dentro de los límites establecidos para el estándar PAL, por lo que la señal de crominancia no deberá exceder, en ningún caso, en más de un 33 % de los límites del nivel de blanco (en la zona superior), ni del nivel de borrado (en la zona inferior). Sin embargo, si utilizamos las señales diferencia de color tal como se producen y las modulamos directamente, obtendremos una señal de vídeo con un excesivo nivel de crominancia en la barra correspondiente al amarillo, mientras que el nivel inferior de la barra azul excede por debajo del nivel de sincronismos, pudiendo causar serios problemas. Para evitar este efecto se procede a modificar las señales diferencia de color antes de ser moduladas, de forma que se mantengan en todo momento dentro de los límites esta-blecidos. Las correcciones a efectuar consisten en aplicar un factor de ponderación a cada una de las señales diferencia de color, debiendo dividir la señal diferencia de rojo entre 1,14 (o multiplicarla por 0,877) y la señal diferencia de azul entre 2,03 (o multiplicarla por 0,493). Con estos factores se observa cómo la señal de vídeo compuesto adquiere un nivel máximo en la zona co-rrespondiente a la barra amarilla (ahora equiparada con la siguiente, de color daño). En el extremo opuesto vemos cómo las barras de color rojo y azul (las últimas) tienen el mismo límite inferior, manteniéndose siempre dentro de los límites tolerados. 7.4 Codificador PAL Durante el proceso de propagación a través del espacio, la señal de televisión se ve afectada por numerosos contratiempos que pueden alterar sus características originales. El más peligroso de ellos

Page 19: Camara Video

19

consiste en un cambio de fase de la señal, producido, por ejemplo, por la reflexión de las ondas en una superficie antes de llegar al receptor. Este cambio de fase de la señal original traería como consecuencia una alteración del color de la imagen, ya que, como hemos visto, el matiz de cada punto viene determi-nado por su fase. En realidad, éste es el gran problema del sistema de televisión NTSC, antecesor del PAL y todavía utilizado en numerosos países americanos. Para evitar este problema, el sistema PAL incorpora un codificador o modulador de tiempo, que provoca una alteración sistemática de la fase de la componente R-Y, produciéndose en una de cada dos líneas, por lo que se transmite una línea con fase 90° (como resultado de la cuadratura respecto a la señal B-Y) y la siguiente con fase 270° (-90°). Esto permite en el receptor la restauración de posibles errores de fase producidos durante el proceso de transmisión, por comparación de las señales diferencia de color de dos líneas de televisión consecutivas.

La inclusión del codificador PAL supone que por cada color, en realidad, no existe un único vector, sino que queda representado por dos vectores: uno con componente R-Y positiva y otro con componente R-Y negativa. El sistema de modulación se completa con la inclusión del sobreimpulso o burst, consistente en un grupo de entre nueve y once ciclos de la señal subportadora de color, con una fase de 135° (225° para la siguiente línea), que sirve como elemento de identificación de que la señal transmitida contiene información de color y como referencia para la demodulación. Este burst se añade en el pórtico posterior de cada línea de televisión.

Una vez conformada la señal de crominancia, se aplica al mezclador, donde confluye con la señal de luminancia y la inserción de los sincronismos, creando la señal conocida como «vídeo compuesto». Por otro lado, las señales de luminancia y croma se llevan al conector de salida independiente que suelen llevar las cámaras, para poder obtener la máxima resolución de luminancia, al no verse mezclada con la información de color y evitando también los efectos indeseables de cross colour (efecto muaré), por el cual, cuando se representa una imagen con un gran número de detalles, al ensancharse los armónicos de la señal de luminancia ocupan el espacio destinado a la croma, por lo que, cuando se mezclan, se produce un efecto de coloreado no deseado de estas zonas de la imagen.

8. TEMPORIZACIÓN Y CONTROL Los procesos que se llevan a cabo en el interior de la cámara precisan de un supervisor que los

sincronice y que controle su correcto desarrollo, detectando los posibles fallos y adecuando el funcionamiento a las diferentes condiciones externas en las que se debe trabajar. Todas estas funciones están encomendadas al bloque de temporización y control, que adquiere en cada generación de cámaras un nivel de complejidad y prestaciones más importante.

La base de este sistema es un microcontrolador, que desarrolla un programa predeterminado para tomar datos del resto de los procesos, así como de los deseos del usuario, y selecciona el modo de funcionamiento adecuado en cada caso. Para los controles ya estudiados de gamma y los balances de blanco y negro, por ejemplo, se gobiernan los valores de los amplificadores de los procesos de luminancia y croma, respectivamente, almacenando en una memoria interna tanto los predeterminados en los ajustes de fabricación como los elegidos por el técnico de mantenimiento para operar en unas condiciones específicas.

Page 20: Camara Video

20

8.1 Control del iris

Otro de los ajustes que efectúa el sistema es el de la apertura o cierre del iris, que controla la cantidad de luz que incide sobre los sensores de imagen, procedente de la óptica correspondiente. Habitualmente se puede seleccionar un funcionamiento del iris en modo automático o manual. En el primero de ellos, se chequea el nivel de la señal que entregan los sensores de imagen, según diferentes criterios dependiendo del programa establecido y de las características de la cámara.

Con este nivel de señal detectado se obtiene una tensión continua directamente proporcional a la

amplitud de la información de vídeo, con la que se gobierna el motor del iris, de forma que el nivel entregado por los sensores se mantenga siempre dentro de los límites establecidos como adecuados para la obtención de una mejor relación señal-ruido sin que se produzcan saturaciones en los detectores. Cuando el rango de ajuste del iris no es el suficiente para adecuarse a las condiciones de luminosidad de la escena, el sistema de control lo complementa con el ajuste automático de la ganancia de los amplificadores de RGB, obteniendo con este funcionamiento conjunto un amplio margen de iluminaciones en las que la cámara opera adecuadamente.

Control automático del iris.

Sin embargo, en todas las cámaras es posible desconectar el sistema de control automático de iris, con el fin de poder realizar correctamente tomas situadas en contraluz, o crear un efecto de elevados contrastes, según la creatividad del operador de cámara.

8.2 Control de los CCD

Una de las misiones fundamentales del sistema de temporización es generar las fases de lectura de

los sensores CCD. Al estudiar el funcionamiento de un sensor de imagen CCD se describió la necesidad de activar diferentes electrodos para permitir que los pozos de potencial de cada elemento captador de imagen fueran expuestos a la luz o a un canal de drenaje, y, una vez recogida la información, se precisaba de un complejo sistema de transporte de cargas desde la zona sensible hasta la de almacenamiento, con la posterior obtención de la información en formato serie que conformaría la información de cada color unitario.

Detrás de todo este sistema de exploración se encuentra un controlador específico, encargado de

activar los diferentes electrodos durante las distintas fases del proceso. Este controlador está sincronizado por un oscilador patrón de temporizaciones, cuyo funcionamiento gobierna el microcontrolador. Así, es misión de este sistema, por ejemplo, el control del obturador electrónico que incorporan las cámaras modernas, al controlar el tiempo de carga de los elementos sensores de cada captador.

Page 21: Camara Video

21

A partir del oscilador patrón se genera también la señal subportadora de crominancia, necesaria

para la correcta modulación de las señales diferencia de color, así como los patrones de sincronismos horizontales y verticales que acompañarán a la información de imagen para su correcta representación en los receptores.

9. INTERFAZ DE USUARIO

El esquema general de bloques se completa con la inclusión de diferentes circuitos, encaminados a informar al usuario del estado de la cámara y recibir de él las órdenes oportunas para acomodar este funcionamiento a sus gustos o necesidades. La interfaz de usuario suele estar diseñada en torno a un segundo microprocesador, dedicado en este caso a presentar información, en pantalla o en el visor, del estado del sistema, mientras rastrea el teclado a la espera de que el usuario introduzca órdenes, y mantiene con el microcontrolador principal una comunicación bidireccional a través de un bus serie interno.

La información llega al usuario fundamentalmente por tres caminos diferenciados:

• A través de la pantalla de cristal líquido, que cada vez incorpora un mayor número de equipos, y que se encarga de mostrarnos, mediante un sistema de me-nús, las condiciones de operación del aparato, sus ajustes, etcétera.

• Mediante el generador de datos en pantalla, que sobreimpresiona sobre la imagen del visor o monitor los datos fundamentales y ayudas de manejo, como el recuadro de «imagen segura» que facilita el correcto encuadre de la escena, o la señal zebra, que marca con franjas claras y oscuras alternativas las zonas de la imagen que se encuentran sobreexpuestas a la luz.

• Por los diferentes pilotos indicadores de estado que incorporan. De entre estos últimos cabe destacar el indicador Tally, visible frecuentemente para el operador y para el actuante, que informa de cuándo la señal de la cámara está siendo grabada o seleccionada por el mezclador de producción.

10. LA UNIDAD DE CONTROL DE CÁMARA.

Unidad de control de cámara remota. Aunque la totalidad de las cámaras actuales presentan un completo e interno bloque de control de los

ajustes de la cámara, la mayoría de ellas tiene además la posibilidad de utilizar una unidad de control de

Page 22: Camara Video

22

cámara externo (CCU). Esta unidad puede comunicarse con la cámara a través de señales analógicas unitarias para cada uno de los ajustes que incorporan, en el caso de las antiguas, o bien efectuar el diálogo directamente con el microcontrolador interno a través de un puerto serie de comunicación auxiliar dedica-do especialmente a tal fin. Esto permite efectuar las operaciones de ajuste de las funciones de las diferentes cámaras que operan conjuntamente en un plato desde el control de producción del mismo, estableciendo la comparación entre las mismas y garantizando así que presenten una respuesta uniforme, realizando si es preciso pequeñas correcciones durante la marcha, sin necesidad de alterar el trabajo del operador de cámara. En una cámara con CCU se encuentran un gran número de conectores. Los más habituales son:

- Entrada de sincronización externa, para posibilitar la conexión en bucle de varias unidades. Suele estar identificada como sincro ext. o Genlock in.

- Entrada de retorno de vídeo. En algunas tomas es necesario que el operador de cámara vea en su monitor la señal de programa o incluso la imagen captada por otra cámara. Para realizar esta función, a la cámara le llega una señal de retorno de vídeo a través de la CCU.

- Entradas de señales auxiliares, como por ejemplo, las líneas de audio para intercomunicar al operador de cámara con el control de realización, o la línea de vídeo necesaria para mostrar los textos que el presentador del programa debe leer.

- Salidas de vídeo. En una CCU se encuentran múltiples conectores de salida de vídeo, en los diferentes formatos en los que esta señal se puede presentar. Por ejemplo, señales unitarias R, G, B; en componentes analógicas (Y, R-Y, B-Y); en componentes digitales (SDI); con señales separadas Y/ C e incluso en vídeo compuesto. Utilizar una u otra dependerá de la calidad que se quiera obtener y de las posibilidades del equipo al que se conecte la cámara.

- Controles remotos. Las CCU se suelen situar en un armario de equipos, y realizar las funciones de ajuste a través de mandos de control remotos colocados en una mesa. Estos se conectan a la CCU mediante cables multihilo, por lo que se encontrará el conector correspondiente en el panel trasero de la unidad de control.

- Conexión cámara-CCU. La conexión entre cámara y control de producción puede hacerse a través de tres métodos diferentes:

• Cable multicore. Se trata de un enlace de cable múltiple (habitualmente entre 20 y 30 unidades), que incorpora hilos coaxiales para el envío de la señal de vídeo desde la cámara hacia el control, así como para la señal de enclavamiento con el generador de sincronización. Además, dentro de la manguera se dispone de hilos para la intercomunicación con los operadores de cámara, activación del indicador de Tally y la propia alimentación de la cámara, entre otros, de características diferentes según la necesidad. Con este tipo de cables se pueden conectar cámaras que no se encuentren demasiado alejadas del control (en algunos modelos se puede llegar hasta unos 300 metros), puesto que los cables de alimentación deberían entonces tener una sección

excesivamente grande.

Page 23: Camara Video

23

Cable triaxial y señales que transporta.

• Cable triaxial. Cuando las distancias son elevadas se debe recurrir a un cable triaxial, fabricado como un coaxial con dos mallas conductoras concéntricas. Esta construcción permite llevar con mínimas pérdidas, y a través de una sola línea, un gran número de señales, que abarcan la alimentación de la cámara, los servicios de intercomunicación, audio, señales de sincronización y monitorización, comandos de ajuste de cámara, etc. El sistema trabaja multiplexando en frecuencia las diferentes señales, para evitar interferencias entre ellas. Así, se modulan en frecuencia las señales de audio, datos y vídeo con diferentes portadoras, siendo necesaria la unidad de control de cámara la demodulación de las mismas antes de ser enviadas a sus destinatarios. Según el tipo de cable triaxial utilizado, se pueden cubrir distancias de hasta 1.500 metros entre la cámara y su unidad de control.

• Fibra óptica. En las cámaras más actuales se puede establecer un enlace óptico. Cubre grandes distancias con una atenuación mínima.

10.1 Ajustes a realizar. A través de los mandos del panel frontal, o bien desde el control remoto de la CCU, se puede acceder a los ajustes del funcionamiento de la cámara. Aunque pueden variar ligeramente de unos modelos a otros, los principales parámetros que se controlan son:

- El iris: el mando de mayor tamaño suele ser el que controla la apertura de la cortinilla del iris de la cámara. En el control remoto este ajuste se suele realizar desplazando de adelante a atrás un mando con la apariencia de un joystick.

- Pedestal: está asociado al mando del iris, pero en este caso se va girando de derecha a izquierda.

- Ganancia: una vez fijado el nivel de pedestal, se ajusta también el nivel de la señal.

Page 24: Camara Video

24

- Balance de blanco y negro: existen ajustes dedicados a controlar el equilibrio cromático. Así, se `puede optar por realizar los ajustes de forma automática, o bien controlar la ganancia de las señales roja y azul manualmente. En esta zona se encuentran también la función ATW (Auto Trace White). Al activarla, el sistema evalúa constantemente las señales de color, y ajustará automáticamente los amplificadores para realizar un ajuste de blanco continuo.

- Gamma y Knee: con el primero de estos controles se puede modificar la relación luminosidad-señal eléctrica de la cámara. En algunas cámaras se puede encontrar un limitador de codo y pendiente, pudiendo ajustarse el punto en el cual se reduce la ganancia del equipo.

- Obturador. - Compensación de cable y fase de cámara.

11. CÁMARAS DE PROCESADO DIGITAL

En la actualidad, un gran número de las cámaras que se comercializan incorporan, para realizar

algunas de las funciones que hemos comentado, circuitos que procesan la imagen digitalmente. En este tipo de cámaras, el grupo óptico y el sistema captador de imagen son idénticos a los de las cámaras convencionales. La diferencia reside en los procesos de matrizado de las señales RGB.

Si analizamos su esquema de bloques de abajo, encontraremos un bloque de preproceso analógico, encargado de realizar los ajustes básicos de la señal entregada por el sistema captador. Entre los ajustes a realizar en esta etapa se encuentran el balance de blancos y de negros, la ganancia de los amplificadores y su linealidad de funcionamiento (gamma); aunque este último parámetro, según el modelo concreto, también puede realizarse en los circuitos digitales. Hasta este punto la cámara sigue funcionando con circuitos analógicos por dos razones fundamentales:

• La señal que entregan los sensores presenta un nivel muy bajo; así pues, es necesaria

una adaptación previa para adecuarla al margen de funcionamiento óptimo de los convertidores analógico a digital, por lo que se aprovechan estos amplificadores para realizar las correcciones propias del sistema al mismo tiempo.

• La realización de estas funciones digitalmente implicaría insertar circuitos digitales de cierta complejidad, lo que encarecería el precio de la cámara innecesariamente, puesto que, como hemos comentado, la utilización para estas aplicaciones de circuitos analógicos es relativamente sencilla.

Una vez superado el procesado previo, las señales primarias se aplican a tres conversores de

analógico a digital, que realizarán el muestreo y la conversión de las señales analógicas, entregando en un bus digital paralelo los datos correspondientes a los puntos de imagen muestreados por los sensores CCD. Para optimizar la conversión, estos convertidores reciben una tensión de referencia entregada por el sistema de control. Esta referencia definirá el margen de tensión de entrada muestreado, variando según la luminosidad de la imagen, por lo que el sistema realizará una conversión adaptable, consiguiéndose así una adecuada cuantifica-ción, incluso en escenas con baja iluminación.

Si realizamos una toma nocturna, el sistema de control producirá, una vez analizada la señal de vídeo generada, una tensión de referencia de pequeño valor. Esto provocará una reducción del margen de cuantificación del conversar A/D, por lo que su trabajo se centrará sobre las señales de bajo nivel,

Page 25: Camara Video

25

desechando el resto. Con ello se consigue una mayor resolución y un aumento del contraste en este tipo de escenas. Una vez en formato digital, los buses de las señales roja, verde y azul se aplican a un bloque de procesado digital de la señal (DSP), donde se realizarán las siguientes funciones: • Matrices de luminancia y croma. Combinando numéricamente las señales RGB, se pueden obtener los datos correspondientes a las señales de luminancia y crominancia. • Compresión del margen dinámico. Cuando una muestra representa un punto excesivamente ilumina-do, a partir de las componentes primarias, se aplicará un factor de corrección para evitar la saturación de la señal de luminancia. Esta corrección funciona como el circuito knee de las cámaras analógicas. • Mejora de detalles. Las muestras digitales obtenidas para las señales RGB, así como para las salidas de luminancia (Y) y crominancia (C), están formadas por 8 bits. Como sabemos, el ojo humano no presenta una gran resolución en los colores de la escena, por lo que esta longitud de palabra nos proporciona una precisión suficiente. Sin embargo, para conseguir una señal de luminancia con un elevado índice de detalle se comparan distintas muestras y, a partir de sus diferencias, se detecta la complejidad de la imagen. De esta operación se obtiene una información de los detalles finos de la escena, que se añadirá a la generada en la matriz digital. Con este bloque conseguiremos que la señal de luminancia, que originalmente estaba cuantificada en 8 bits, multiplique por cuatro su resolución, al convertirse ahora en muestras de 10 bits. Estos bits adicionales habrán sido aportados por la información de los mejoradores de detalle vertical y horizontal.

De forma similar a lo que encontrábamos en las cámaras analógicas, el sistema se completa con los sistemas de temporización y control y de interfaz de usuario, que, aunque con pequeñas diferencias debido a la naturaleza de los circuitos implementados, mantienen su principio de funcionamiento y estructura básica.

Una vez realizadas estas operaciones, las señales de luminancia y croma están dispuestas para ser entregadas usuario. La forma en la que se extrae la información penderá de las características propias de la cámara, por que deberemos realizar la elección según las necesidades del sistema. La salida más directa sería en componentes digitales Y, CR, CR. En este caso únicamente precisaremos de un convertidor paralelo a serie, y la inclusión del protocolo de la trama digital. Otras formas de salida digital serie utilizadas serían los formatos SDI o el IEEE 1.394, comentados en Unidades anteriores. Si se desea que las señales tengan formato analógico, a partir de las componentes digitales, a través de conversores de digital a analógico se pueden obtener las señales de componentes analógicas de luminancia (Y) y diferencia de color (R-Y) (B-Y). Si aplicásemos estas señales analógicas a un codificador PAL, podríamos utilizar las señales de luminancia y crominancia separadas (Y/C) a través de un conectar S-Vídeo. Por último, uniendo estas dos señales obtendríamos la señal de vídeo compuesto, la forma más tradicional de conectar los sistemas de imagen.