Page 1

Gain-up (luz) (electronic gain) amplificação eletrônica da intensidade do sinal elétrico emitido pelo CCD, o que permite gravações sob condições de baixa luminosidade, onde, de outra maneira, seria praticamente impossível obter-se alguma imagem com nível mínimo de qualidade, mesmo utilizando-se a maior abertura disponível nas lentes da câmera. A imagem torna-se mais clara com este recurso, as cores menos saturadas, no entanto também com aspecto granulado, tanto mais aparente quanto maior for a amplificação. Como a intensidade do sinal de vídeo é expressa em decibéis (dB), o mesmo ocorre com o valor amplificado pela função gain-up, também expresso em dB. Assim, se não está ocorrendo nenhuma amplificação artificial do sinal, diz-se que o gain-up é 0 dB. Em alguns modelos de câmeras é possível ativar ou desativar opcionalmente esta função e em outros ela inexiste. O gain-up, quando disponível e desbloqueado (nas câmeras que possuem este recurso) é ativado pelo controle automático de exposição quando a iluminação é insuficiente e as lentes já estão utilizando a maior abertura disponível. Em uma analogia com o mundo da fotografia, aumentar o ganho seria equivalente a utilizar películas com sensibilidade ISO cada vez maior: um filme de ISO 150 poderia corresponder por exemplo a um ganho de 0 dB, um de ISO 300 a um ganho de +6 dB, um de ISO 600 a um ganho de +12 dB e um filme de ISO 1200 a um ganho de +18 db. E, assim como ocorre com a película fotográfica, onde os cristais de prata aumentam de tamanho com o aumento de sensibilidade, acarretando perda de definição, um ganho de +18 dB produzirá uma imagem bastante granulada e com pouca definição. O problema da gravação em locais com pouca luz pode no entanto ser contornado sem o uso do gain-up, desde que sejam utilizadas velocidades mais baixas de obturador (geralmente menores do que 1/4 seg). Com o maior tempo de exposição, o CCD conseguirá registrar adequadamente as imagens, da mesma forma como ocorre na câmera fotográfica. No entanto, também como ocorre na fotografia, haverá um efeito colateral para imagens que contém movimentos: os 'rastros' dos mesmos serão registrados, fazendo com que objetos e pessoas apresentem-se com aspecto 'borrado' ao moverem-se. Da mesma forma que pode ser aumentado, o ganho também pode ser diminuído, função presente em algumas câmeras e denominada gain-shift. Um ganho de -3 dB por exemplo pode ser selecionado para uso em uma situação onde a cena a ser gravada é extremamente brilhante, produzindo imagens com melhor qualidade (o excesso de luz, assim como sua falta, é prejudicial à qualidade da imagem gerada; no primeiro caso, o excesso pode ser atenuado através do uso de filtros como o ND). Lúmen unidade internacional (SI) de medida para indicar a quantidade de luz emitida por um corpo luminoso. De maneira simplificada, uma vela comum acesa, colocada no centro de uma esfera oca, iluminaria a superfície interna da mesma com a intensidade de 12,6 lúmens (daí dizer-se aproximadamente que 1 vela = 12 lúmens). Não importa neste caso o diâmetro da esfera, uma vez que quanto maior este for, mais dispersos os raios emitidos pela vela no centro estarão (e portanto menos intensa será a iluminação x área), porém como a área é maior, a quantidade total de luz projetada é sempre a mesma.


A unidade vela (candela em inglês) é às vezes utilizada. Fogo e reprodução correta de suas cores a luz amarelo-alaranjada predominante no fogo faz com que o sistema automático de balanço de branco da câmera a interprete como luz de tungstênio (a luz de lâmpadas incandescentes de filamento de tungstênio, existente em interiores). Assim, para efetuar a 'correção' do problema, a intensidade do azul é automaticamente aumentada (para diminuir o vermelho); resultado: o fogo perde a vivacidade de suas cores. Se a cena estiver sendo gravada à noite, o céu escuro faz com que o sinal seja automaticamente amplificado (gain control), acrescentando perda de definição à imagem. A dica é selecionar o balanço automático do branco para 'luz do dia'. Algumas câmeras possuem programas préajustados, opcionais de exposição. Um deles, denominado 'twillight' funciona bem nesta situação: este programa não efetua o aumento de exposição em situações de pouca luz, como ocorre normalmente e não 'corrige' o excesso de vermelho. intensificando a luz de velas sendo necessária a gravação à luz de velas, o resultado muito provavelmente terá em vídeo um aspecto escuro e granulado, sem muita definição. Existe um controle de aumento artificial de sensibilidade na câmera, chamado GAIN, e se este for utilizado (intencionalmente ou não, pelo modo automático) em demasia, a imagem ficará excessivamente granulada, em perda de definição nos detalhes. A solução é aumentar o nível de luz. Se isso não for possível no local, por exemplo por ser a única luz disponível a das velas, uma solução de contorno é reunir em um determinado ponto a maior quantidade possível de candelabros com as velas, quanto mais, melhor. A imagem enquadrada pode omitir a maior parte deles, exibindo somente alguns para transmitir a idéia do ambiente iluminado à luz de velas. Outra forma é acrescentar na cena um ou mais refletores, poucos, com luz muito atenuada (ex. por um dimmer) ou através de gelatinas alaranjadas. A luz tem que ser muito suave, para não competir com a luz das velas, e ao mesmo tempo para aumentar o nível geral da iluminação. Balanço do branco para efeitos, realçando o pôr-do-Sol Cenas de Sol poente podem ser manipuladas através do ajuste manual do balanço do branco na câmera. Tons alaranjados e avermelhados podem ser realçados ao se apontar a câmera (com o ajuste automático desligado) para um objeto ligeiramente azulado e seguir alguns procedimentos, descritos a seguir. Em primeiro lugar, o objeto (uma folha de papel, um pedaço de tecido, etc...) deve ocupar, preferencialmente, a maior parte da imagem quando vista no visor da câmera. Após fazer isso, acionar o botão existente na câmera (alguns equipamentos podem não possuir este controle) para efetuar o ajuste manual do branco (white balance). Em seguida, sem alterar a regulagem feita, apontar a câmera para a cena do pôr-do-Sol. Quando o ajuste é feito para o objeto azulado, o controle de exposição aumenta a proporção dos tons avermelhados na image, tentando compensar o excesso de azul (do objeto). E com isso, consegue-se o realce desejado. É o chamado white balance (balanço do branco), que pode ser automático, utilizar presets ou ser feito de maneira totalmente manual. No modo automático, um processador analisa a imagem como um todo,


tentando determinar se há predominância de alguma cor nas tonalidades que julga serem brancas. Se houver, efetua a correção (aumenta a participação de azul se na "mistura" predomina o vermelho por exemplo). É um processo automático e seu julgamento nem sempre é totalmente preciso. Assim, existe a possibilidade de se fazer isso de forma manual, apontando a câmera para algo que seja branco e informando-a de que a cor daquele objeto é o que ela deve entender como branco, processo conhecido como "bater o branco". Se ela estiver "vendo" por exemplo predomínio de vermelho no objeto, fará a correção adequada. E uma forma intermediária é utilizar presets de fábrica, botões que fazem ajustes já pré-determinados. A coisa se complica no entanto quando iluminamos uma determinada cena com luzes de tonalidades diferentes. A luz incandescente tende para o amarelo-avermelhado, a luz do meio do dia, para o azul. Uma cena gravada em uma sala com uma grande janela de vidro e o uso de refletores, exige que se iguale a tonalidade das fontes de luz, o que é feito através do uso de gelatinas coloridas próprias. Gelatinas avermelhadas, afixadas no vidro, igualam a tonalidade da luz do Sol com a dos refletores, ou então gelatinas azuladas, colocadas em frente aos refletores, igualam a tonalidade de suas luzes com a do Sol. Existem várias graduações de intensidades e colorações para essas gelatinas. E é neste ponto, na análise das especificações dos diversos materiais, gelatinas e tipos de lâmpadas para os refletores, que você vai encontrar coisas do tipo 3.200 K, 6.000 K, etc... De onde vem esses estranhos números. E agora observe a ilustração seguinte, que relaciona diversas fontes de luz e suas temperaturas, começando pela luz do fogo, cuja temperatura é de 1.200 K (graus Kelvin). As temperaturas vão subindo à medida que sobe-se na escala, de baixo para cima: uma lâmpada doméstica, incandescente, de 40W, emite luz com a temperatura de 2.680 K. Já a iluminação tradicional utilizada em vídeo, para interiores, é de 3.200 K. A seguir encontram-se outros tipos de lâmpadas e luzes (como a da Lua) até chegar-se às temperaturas de 5.600 / 6.000 K, correspondentes à luz do Sol na maior parte do dia (exceto nascer e pôr-do-Sol). E acima disto, outras temperaturas ainda maiores:


Ou seja, quanto maior a temperatura, mais "quente" a luz, correto? Errado. O conceito tradicional em fotografia (e adotado posteriormente também para o cinema e vídeo) diz que cores ditas "quentes" são as avermelhadas, em analogia com o fogo. E que cores "frias" são as azuladas, em analogia oposta. Só que na nossa escala, quanto maior a temperatura, mais tendendo para o azul é a cor, ou seja, mais "fria" ela é. Conclusão: quanto mais quente, menor é a temperatura da cor e vice-versa. Rolling shutter x global shutter o processo de captura de imagens (registro da luz que incide no sensor projetada pelas lentes da câmera) é o mesmo, tanto para sensores do tipo CCD como para sensores do tipo CMOS. O sensor na verdade é um array (conjunto de elementos dispostos em fileiras, formando linhas e colunas) de minúsculas células fotoelétricas, onde cada uma delas corresponde a um pixel na imagem. Nestas células, partes mais claras da imagem geram quantidade maior de energia e partes mais escuras, quantidade menor, o que permite, desta forma, a tradução da imagem em impulsos elétricos. A energia gerada é acumulada em dispositivos eletrônicos - acumuladores, que a seguir são lidos e o resultado irá compor o sinal de vídeo extraído do sensor. Para ambos, CCD e CMOSs portanto, existe um período de exposição à luz, onde a energia gerada em cada pixel é individualmente armazenada (acumulada) em dispositivos que fazem essa função acumuladores de carga - ou seja, para cada pixel existe um acumulador associado. Após determinado tempo de exposição (por exemplo 1/30seg., para uma câmera registrando 30 quadros por segundo no modo progressive scan) a leitura do que foi armazenado deve ser feita, repetindo-se no exemplo, outras 29 vezes até completar a cadência de 30qps. Trata-se da velocidade do obturador (shutter speed), que pode nas câmeras de vídeo ser a mesma do padrão escolhido para captura (como30p no exemplo acima) ou


ser ajustada para tempos diferentes. Se for por exemplo ajustada para 1/120 de segundo, ao invés do sensor considerar a carga acumulada para cada pixel em 1/30seg., deve considerar a carga acumulada em um tempo 4x menor. Isso é feito apagando eletronicamente ("zerando") o que foi armazenado nos acumuladores após 3/4 do tempo de exposição, restando somente o tempo de 1/120seg. para o sensor registrar luminosidade. Após esse tempo o sensor é lido, mantendo-se a cadência do formato escolhido (30qps no exemplo), ou seja, tem-se ainda 30 quadros, mas expostos, cada um, por um tempo menor do que 1/30seg. De forma análoga opera-se a situação inversa (tempos maiores de exposição), onde os acumuladores demoram mais do que 1 leitura de quadro para serem limpos ("zerados"). De todo modo, sempre ocorrerá uma leitura desses acumuladores a cada 1/30seg. para o formato escolhido (30p). Existem 2 formas diferentes para efetuar-se essa leitura, decorrente das quais derivam-se os nomes global shutter e rolling shutter. Na forma global shutter o sensor, após ter ficado exposto à luz pelo tempo estabelecido e ter nesse tempo armazenado energia em seus acumuladores, tem o processo de acumulação de energia interrompido em todos eles simultaneamente. Em CCDs, a carga acumulada para cada pixel é então medida (verificação da intensidade de voltagem) e o valor obtido é armazenado em um registrador - cada pixel possui seu próprio registrador. Em seguida, todos os acumuladores são simultaneamente limpos (descarregados, "reseted"), no sensor inteiro, iniciando-se um novo tempo de exposição à luz. Os registradores passam a seguir cada um para seus adjacentes ("vizinhos") os valores medidos das cargas, na direção vertical e a seguir horizontal, formando fileiras de indicadores de cargas, as "cargas acopladas" que dão nome ao CCD (charged coupled device). Essas informações, transferidas para fora do sensor, são direcionadas a chips que irão interpretá-las e convertê-las em sinais elétricos analógicos. Outros diferentes processos são empregados a seguir, um deles efetuando a conversão do sinal analógico para sinal digital se a câmera estiver utilizando um formato dessa forma. Em CMOSs, a implementação mais comum chama-se APS (Active Pixel Sensor), onde a carga acumuada para cada pixel é, ao invés de medida fora do local físico do pixel como nos CCDs, convertida em corrente elétrica e a seguir, amplificada, ainda dentro desse local, através de transistores ali existentes. Desta forma, cada pixel possui seu conjunto individual de transistores, normalmente 3: um para efetuar essa conversão, outro para controlar o "reset" da carga do pixel e outro para controlar o direcionamento da energia para fora da área do pixel. Essa corrente elétrica é enviada a seguir por cada pixel, para um setor lateral do sensor, destinado a efetuar o processamento desse sinal analógico convertendo-o para sinal digital. O envio é feito através das linhas e colunas que formam o painel de pixels, possibilitando a leitura a qualquer momento, da energia gerada em cada pixel, diretamente. Na montagem do CCD, as cargas são transferidas em fileiras, através dessas linhas e colunas, para fora do sensor (em direção aos processadores ali localizados), impossibilitando essa leitura direta. Esse processo mais rápido de leitura nos CMOS, além de outras características descritas adiante, propicia maior facilidade no uso de velocidades muito rápidas de obturador (shutter speed), viabilizando a construção de câmeras capazes de obter imagens em slow motion a altíssimas taxas.


Além disso, essa forma integrada de trabalho (processamentos de sinal efetuados dentro do próprio sensor e alguns até dentro de cada área individual de pixel) resulta, para o sensor, em menor tamanho, menor consumo elétrico, menor aquecimento e outras características vantajosas em relação aos CCDs. Por outro lado, a presença dos transistores montados dentro da área de cada pixel prejudica ligeiramente sua a sensibilidade à luz (há menor espaço para captar luz dentro de cada pixel: mais da metade da área reservada para cada pixel é ocupada pelos transistores, sobrando uma pequena área para a célula sensora de luz) o que resulta na menor sensibilidade desse tipo de sensor em áreas de baixas luzes nas imagens capturadas, reduzindo assim o valor de dynamic range do sensor CMOS quando comparado ao sensor CCD. O processo de interrupção simultânea do registro da luz no sensor mencionado acima (global shutter) pode ser encontrado tanto em CCDs quanto em CMOSs, embora seja pouco comum nestes últimos. Já em se tratando de CCDs, todos eles empregam a forma global shutter. A implementação de controle variável de tempo de exposição (obturador eletrônico variável) em CMOS é dificultada por exigir o uso de mais transistores ainda, somente para efetuar este controle, dentro da área reservada para cada pixel. A solução utilizada na maioria dos casos é colocar esses transistores na "borda" de cada linha horizontal inteira do sensor, passando a utilizar um processo de leitura linha a linha, ao invés de simultâneo para todo o quadro de imagem, denominado rolling shutter. Na forma rolling shutter o reset (processo de "zerar" acumuladores, descrito acima) não ocorre ao mesmo tempo para todos os acumuladores de cargas de pixels no sensor, e sim, linha a linha. É como se cada linha horizontal fosse uma "miniatura" de sensor sendo tratada na forma global shutter. A figura abaixo mostra esquematicamente o funcionamento das duas formas de leitura. Para melhor entendimento, foi suposto nas figuras um sensor com somente 5 linhas (sensores reais possuem número muito maior de linhas, capazes de gerar resoluções como 1.080p por exemplo)


No desenho existem duas fileiras horizontais de quadros, a superior representa o modo de funcionamento do global shutter e a de baixo, a do rolling shutter. O primeiro quadro, acima e à esquerda mostra o que acontece quando o tempo de exposição é encerrado e o sensor está 100% carregado: é feita a leitura das cargas armazenadas em todos os pixels, gerando o sinal de saída "S". A seguir, à direita, ocorre o reset das cargas, quando o sensor inteiro é "limpo" para nova exposição, indicado por "R". O quadro da direita (no setor "b" do desenho) representa o estado de 20% das cargas acumuladas. O próximo, 40%, o seguinte 60% e o último, 80%. Na sequência viria novamente o primeiro quadro da esquerda, com 100%. O exemplo supõe uma imagem totalmente branca enquadrada pela câmera. Na linha inferior vê-se o que ocorre com o sensor funcionando no modo rolling shutter. O processo é o mesmo, no entanto, ocorre linha a linha, e não quadro a quadro como no global shutter. Nada muda em termos de tempos de captura e velocidade de shutter, apenas tudo é aplicado linha a linha ao invés de quadro a quadro. Ao término do tempo de exposição (ex. 1/30seg.) tem-se um quadro completo montado tanto em um modo de funcionamento quanto em outro. No entanto essa forma de montagem linha a linha gera a ocorrência de alguns efeitos na imagem não existentes na montagem quadro a quadro. Esses efeitos são visíveis apenas em determinadas situações não muito comuns de captura, como quando a câmera efetua um movimento rápido de pan por exemplo (durante esse movimento). A figura abaixo exemplifica isso:

Conforme as imagens, uma haste vertical aparece borrada com o movimento horizontal no modo global shutter e aparece inclinada com o modo rolling shutter, durante o movimento, retornando às formas normais quando o movimento cessa, tanto em um modo como em outro. Esse efeito denomina-se skew. Outros efeitos decorrentes, da mesma forma, são o wobble e o exposição parcial. CMOSs funcionando no modo rolling shutter tem fabricação menos dispendiciosa do que funcionando no modo global shutter, daí a quase totalidade deles funcionarem dessa forma e o uso decorrente do termo "rolling shutter" para referenciar-se às vezes aos efeitos causados ao invés da técnica utilizada. Apesar desses efeitos ("defeitos"), os CMOSs permitem algumas características impraticáveis com CCDs; um exemplo é a construção de


sensores em tamanhos grandes, como os do tipo full frame (em relação a especificações de fotograma 35mm). Vetorscópio utilizando como fonte uma imagem do tipo color bars permite identificar e corrigir problemas com a mesma, relacionados a cores. Cada cor presente na imagem do color bars (amarelo, ciano, verde, magenta, vermelho e azul) é mostrada através de um ponto luminoso distribuído ao longo de uma circunferência, como o apontado por 'A' na figura abaixo. Quando as cores da imagem do vídeo estão corretamente ajustadas, estes pontos devem-se situar dentro dos quadrados distribuídos ao longo da circunferência. Na figura abaixo, 'B' mostra um destes quadrados, com seus cantos delimitados.

Quanto maior a intensidade de determinado componente de cor, mais distante do centro da imagem estará o ponto luminoso, até atingir o ponto correto, dentro da área do quadrado correspondente. A variação na forma do desenho permite medir e calibrar a reprodução de cores e efetuar diversas aferições e testes sobre o sinal de vídeo, assim como efetuar comparações (o sinal obtido diretamente da fonte e o obtido após ter sido gravado / reproduzido por determinado equipamento). Nesta comparação, também pode ser observado que quanto melhor o formato de vídeo, mais os dois resultados se aproximarão. Alguns problemas apontados na análise podem ser corrigidos pelo TBC e pelo corretor de cores. A parte de brilho da imagem é ajustada com outro aparelho, o monitor de forma de onda. Waveform o mesmo que monitor de forma de onda. O monitor de forma de onda(waveform monitor) utilizando como fonte geralmente uma imagem do tipo color bars permite identificar e corrigir problemas referentes ao brilho, cores e estabilidade da mesma. Analisa a variação de voltagem no sinal de vídeo (1V de um extremo a outro) exibindo-a graficamente. Aparelhos deste tipo geralmente são capazes de exibir diversos tipos diferentes de gráficos, propiciando a visualização e análise de vários aspectos do sinal. No exemplo abaixo, um monitor de forma de onda exibe o sinal gerado pela imagem color bars. O tipo de gráfico selecionado exibe metade das linhas do sinal à esquerda e metade à direita (desenho repetido). No eixo vertical, a intensidade do sinal é medida em unidades I.R.E.. O pico máximo do branco (o gráfico mostra um sinal corretamente ajustado) situa-se em 100 I.R.E..


A menor intensidade do sinal (cor preta) é ajustada em 7,5 I.R.E.. O eixo horizontal mostra informações de timing do sinal. As faixas cinza claro verticais (7 em cada lado) representam a intensidade total do sinal ao longo do eixo horizontal da imagem do color bars. Diversos usos são possíveis com o aparelho: setup e sincronização de equipamentos em estúdio, ajustes e verificação de problemas, etc... O ajuste pode ser efetuado diretamente no equipamento a ser calibrado - conectando-se sua saída ao monitor de forma de onda - ou ser utilizada a comparação - comparar o sinal gerado pela fonte com o obtido após a gravação / reprodução em determinado equipamento. Nesta comparação, também pode ser observado que quanto melhor o formato de vídeo, mais os dois resultados se aproximarão. Alguns problemas apontados na análise podem ser corrigidos pelo TBC . WFM o mesmo que monitor de forma de onda. Y/C, conector é o conector padrão para transportar o sinal de vídeo do tipo Y/C :

Este conector é composto por 4 pinos condutores e um em forma de barra guia (retângulo preto no desenho). O sinal Y/C carrega as informações de cor (cromitância) e luminosidade (luminância) separadamente. Cada uma delas é transportada por um cabo isolado independente. Assim, o sinal de luminância é conectado ao pino "a" enquanto que o de cromitância é conectado ao pino "c". O cabo que transmite a luminância é revestido por uma blindagem (malha de fios de cobre), que é conectada ao pino "b". Da mesma forma, o cabo que transmite a cromitância tem a sua blindagem conectada ao pino "d". Os dois cabos internos são por sua vez revestidos também por uma blindagem (terra), a qual é conectada à parte metálica externa do plug (círculo amarelo-escuro no desenho).

Y/C, sinal ao contrário do componentes, neste tipo de sinal as informações de cor são combinadas gerando um único sinal, ao passo que as informações de luminosidade constituem um sinal independente. Posteriormente (no momento da exibição por exemplo) os sinais de cor são novamente separados. A transformação acaba acarretando pequena perda de qualidade devido a interferências e distorções geradas no processo, onde os sinais de cor recuperados na separação não são exatamente idênticos ao que eram na fase de codificação em sinal único. Este tipo de sinal é utilizado no formato SVHS, por exemplo.


YCbCr representação utilizada para indicar os sinais digitalizados a partir do color space YUV. YIQ representação dos três componentes do tipo de sinal video componentes, um para luminosidade e outros dois para informação de cor. O YIQ é utilizado em aplicações broadcast, no padrão NTSC, ao invés doYUV. Este color space proporciona registro mais fiel e apurado das cores, utilizando para isso fórmulas matemáticas mais complexas do que as empregadas no YUV. Por isso mesmo, exige maior complexidade dos circuitos eletrônicos na codificação e decodificação dos sinais. Equipamentos do segmento semiprofissional e consumidor empregam, por este motivo, o YUV, barateando o custo dos mesmos. YPbPr representação utilizada para indicar os sinais analógicos do color space YUV. YUVrepresentação dos três componentes do tipo de sinal vídeo componentes, um para luminosidade e outros dois para informação de cor. O YUV é o sistema de codificação de cor utlizado pelos padrões analógicos de TV (NTSC, PAL, SECAM). O color space YUV é diferente do RGB, por trabalhar com componentes separados de luz e cor, enquanto o RGB, color space através do qual tanto o olho humano como a câmera enxergam, trabalha com cores básicas, também chamadas primárias. O color space RGB ocupa muito espaço para ser representado numericamente, uma vez que são necessárias 3 faixas distintas (intervalos) destinadas a registrar individualmente os valores de cada de suas cores. Na década de 50, a implantação da TV colorida nos EUA exigia que o novo sinal fosse compatível com as existentes TVs P&B. Propunha-se um sinal que pudesse ser exibido na forma colorida pelos novos televisores e ainda assim continuasse a ser exibido em P&B pelos antigos aparelhos. Foi então desenvolvido um algoritmo denominado analog encoding, que conseguia, através da separação da parte de luminosidade (Y) e cor do sinal (U / V - mais detalhes adiante), codificá-los analogicamente de forma que o sinal resultante ocupasse bem menos espaço do que o RGB. As TVs P&B decodificam somente a parte (Y) deste sinal. A seguir, a descrição do que ocorre dentro de uma câmera de vídeo seguindo esse processo. O CCD produz um conjunto de 3 sinais analógicos, cada sinal correspondendo a uma das cores básicas. Este sinal, chamado RGB puro, contém as informações de luminosidade e ao mesmo tempo também de cor de cada pixel. Para economizar espaço, tanto nas informações transmitidas como nas geradas, o sinal RGB puro é convertido para sinal analógico YUV através de um circuito eletrônico no interior da câmera. A seguir, este sinal pode ser gravado diretamente em uma fita, como ocorre no formato analógico Betacam por exemplo. Ou ter suas informações de cor e brilho combinadas para gerar sinais também analógicos como o Y/C do formato SVHS ou o vídeo composto do formato VHS por exemplo. Por outro lado, pode sofrer um processo de sampling e ser transformado em sinal digital, para ser gravado em formatos que utilizam este tipo de sinal, como o Mini-DV por exemplo. Quando as imagens são exibidas em um aparelho de TV ou de projeção, o sinal YUV é reconvertido para RGB antes de ser utilizado. A conversão RGB para YUV chama-se color space conversion e é efetuada através de fórmulas matemáticas. A parte de luminosidade do sinal YUV, representada pela letra "Y", é calculada somando-se as luminosidades dos sinais R+G+B, porém de maneira desigual: a cor verde é a dominante, a que tem maior participação e a azul a menor. O cálculo é efetuado através da fórmula:


Y = 0.299R + 0.587G + 0.114B ou, aproximadamente, 30% de vermelho, 59% de verde e 11% de azul. O fator maior utilizado para a cor verde decorre de experiências que mostraram que ao analisar-se o brilho de determinada cena através de cada um dos componentes RGB como percebido pelo olho humano, conclui-se que a cor verde é responsável por 60 a 70% de sua intensidade. Este fato pode ser comprovado ao compararse a luminosidade no sistema RGB da cor pura verde (RGB = 0,255,0) com a da cor pura azul (RGB = 0,0,255) como mostra o desenho abaixo:

A luminosidade emitida pelas duas cores é a mesma, porém o olho humano enxerga mais luz em uma e menos luz na outra. É para criar esse desequilíbrio que os fatores numéricos são empregados na fórmula do cálculo da luminosidade, permitindo obter-se assim o balanceamento do brilho entre as 3 cores básicas obtidas a partir da leitura do CCD da forma como o olho humano as enxerga. É por este motivo também (maior sensibilidade ao verde) que a implementação de cores utilizando um único CCD, através do padrão Bayer (descrito no item "CCD") emprega o dobro de filtros coloridos na cor verde em relação aos das cores vermelha e azul. A parte de cor do sinal YUV, representada pelas letras "U" e "V" é calculada de modo a economizar informações: ao invés de registrar as intensidades de cada uma das 3 cores, são somente registradas as intensidades do vermelho e do azul. A intensidade do verde é derivada a partir da luminosidade total, levando-se em conta as intensidades anotadas do vermelho e do azul. O sinal "U" é calculado subtraindo se "Y" do sinal "B" e multiplicando-o por um fator igual a 0,492: U = 0,492 x (B - Y) O sinal "V" é calculado subtraindo se "Y" do sinal "R" e multiplicando-o por um fator igual a 0,877: V = 0,877 x (R - Y) Esses fatores sâo determinados por normas internacionais estabelecidas pela ITU - International Telecommunication Union , entidade internacional criada para padronizar e regular assuntos técnicos relacionados a telecomunicações, a partir de experimentações e testes práticos visando entre outros aspectos a melhor representação do color space após a conversão. Não há compressão nem perda de qualidade nessa conversão, um sinal é o equivalente matemático do outro. A transformação é efetuada por um circuito eletrônico. Para simplificação em diversos textos que referenciam-se ao color space YUV, os componentes "U" e "V" são representados muitas vezes sem os seus fatores de conversão, na forma: U=B–Y V=R–Y Estes componentes também recebem o nome de canais color difference, em alusão à subtração da luminosidade dos sinais "B" e "R".


O sinal YUV ocupa menos espaço do que o sinal RGB, porque apesar de conter também 3 sinais como o RGB, neste a luminosidade do pixel é repetida 3 vezes. No YUV ela está presente somente 1 vez. E além disso o sinal de cor necessita no máximo metade da informação do de luminosidade, característica conhecida desde que em 1931 uma organização chamada CIE (Commission Internationale de L'Elairage) investigando a visão de cores pelo olho humano concluiu através de experimentações que a visão do olho humano era menos sensível a cores do que à luminosidade. Para economizar ainda mais espaço, como o sinal verde é o que usa mais informação (59% como visto acima), os dois outros (vermelho e azul) é que são utilizados para gerar as informações de cor. Em sistemas analógicos a economia é de largura de banda de transmissão (bandwidth) e em digitais de data rate (dados transmitidos). E em ambos, de informações armazenadas, tanto se considerarmos o armazenamento dos 3 sinais componentes separados (Betacam p.ex.), como os de cor juntos em 1 sinal e o de luminosidade em outro (S-VHS p.ex.), como os 3 sinais combinados em um único (VHS p.ex.) como os 3 combinados com o de som (sinal RF p.ex.). Uma das consequências da maior participação da cor verde na formação do sinal de luminosidade é no cromakey: o recorte das imagens fica melhor em fundo verde do que em azul e mesmo em vermelho, utilizados em cinema. Quando os sinais YUV permanecem na forma analógica após a conversão a partir do original RGB e são nesta forma transmitidos através de cabos de um dispositivo para outro, os conectores destes cabos recebem uma nomenclatura diferente; ao invés da notação YUV, os sinais são indicados por Y , B-Y e R-Y, como mostra a figura abaixo:

Dispositivos analógicos que trabalham com sinais do tipo video componentes possuem entradas / saídas (conectores fêmea do tipo RCA ou BNC) para os 3 sinais:

Por outro lado, se os sinais YUV entram em um equipamento digital e são digitalizados, ou então estão na forma digital e são convertidos para analógicos, recebem outra nomenclatura: Y, Pb, Pr. Esta nomenclatura (Y, Pb, Pr) corresponde portanto ao mesmo sinal Y, B-Y, R-Y, porém é empregada para indicar um sinal analógico deste tipo que entra ou sai analogicamente de um aparelho digital qualquer. Em outras palavras,


entram ou saem do digital domain, o "domínio digital", espaço onde trabalha-se digitalmente. Um exemplo é a saída de um player de DVD-Vídeo:

Por outro lado, quando o sinal Y, B-Y, R-Y é convertido para o formato digital, recebe a nomenclatura Y, Cb, Cr:

Assim, (embora seja comum encontrar-se erros no uso dessas nomenclaturas), os termos Y, Pb, Pr e Y, Cb, Cr só devem ser utilizados dentro do digital domain (sinais que entram, trafegam e saem de aparelhos digitais). No analog domain (câmeras e VCRs no formato Betacam SP por exemplo) a indicação permanece Y, B-Y, R-Y. Alguns desses aparelhos, geralmente digitais, como players de DVD-Vídeo, exibem em suas entradas / saídas analógicas a inscrição:

o que é incorreto, pois "Cb" e "Cr" referem-se a sinais digitais, não sinais analógicos. A incrição correta no caso é somente Y - Pb - Pr, pois normalmente trata-se de um sinal analógico . YCbCr é empregado no padrão de compressão MPEG2 (utilizado em DVD-Video por exemplo); câmeras digitais (no formato MiniDV por exemplo) transmitem sinais YCbCr através da conexão FireWire. Embora seja comum encontrar conectores RCA coloridos em entradas do tipo componentes (como mostra o desenho acima), não são sinais RGB puro, como visto, que trafegam nessas entradas / saídas e sim sinais com valores matematicamente equivalentes a RGB. Assim, é incorreto dizer que YPbPr e YCbCr são o mesmo que RGB: tratam-se de color spaces completamente diferentes. YPbPr e YCbCr são sinais vídeo componentes e não sinais RGB.


Entradas / saídas para video composto (geralmente conectores RCA amarelos) trafegam um sinal onde os componentes YUV estão todos combinados em um único sinal. Entradas / saídas para sinal Y/C (ou SVideo, através de conector próprio) trafegam um sinal onde somente os componentes "U" e "V" são combinados em um único sinal, permanecendo "Y" separado dos demais. Assim como na forma analógica o sinal vídeo componentes pode ter sua porção de cor reduzida, como visto acima, criando os sinais Y/C e composto, também o sinal componentes analógico (Y, B-Y, R-Y) pode sofrer opcionalmente uma compressão adicional na parte de cor. Tem-se então diversos tipos de sinal Y, Cb, Cr, comprimidos em diferentes taxas para cor e luminosidade, como 4:1:1, 4:2:2, etc... Em aplicações broadcast, emprega-se para o padrão NTSC outro color space, o YIQ, ao invés do YUV. O color space YIQ proporciona registro mais fiel e apurado das cores, utilizando para isso fórmulas matemáticas bem mais complexas do que as empregadas no YUV. Por isso mesmo, exigem maior complexidade dos circuitos eletrônicos na codificação e decodificação dos sinais. Equipamentos do segmento semi-profissional e consumidor empregam, por este motivo, o YUV, barateando desta forma o custo dos mesmos.

Frame rate quantidade de quadros exibidos por segundo em um vídeo ou filme. O cinema, que é anterior à televisão, consolidou-se exibindo 16 qps (quadros por segundo) na época do cinema mudo. Esta taxa permitia exibir os movimentos das cenas sem utilizar quantidade demasiada de película, muito cara na época. Quando surgiu o cinema sonoro, a velocidade de passagem do filme no projetor teve que ser aumentada para garantir uma qualidade mínima ao som: a trilha sonora passou a fazer parte da película. E a velocidade de 24 qps foi a menor encontrada que podia garantir esta qualidade mínima ao som, sempre levando-se em conta o objetivo de economia de película. Mais tarde, algumas experiências foram feitas em diferentes valores de frame rate, porém permaneceu em uso o valor 24 qps. A televisão, assim como o cinema, passou pelo uso de diferentes valores de frame rate. No entanto, ao contrário deste, que usou durante um certo tempo 16qps antes de passar para 24qps, a televisão consolidouse com a criação do padrão NTSC, na década de 40, exibindo, ainda em preto e branco, 30 qps. O sistema utilizado, em uso até hoje, é o interlaced, onde um quadro é formado por 2 campos. Como cada campo representa uma leitura da imagem de alto a baixo em um determinado intervalo de tempo, é usual indicar seu frame rate como 60i (60 campos por segundo, no modo interlaced). Nos sistemas PAL, existem 2 valores de frame rate em uso: 60i (sistema PAL-M) e 50i (nos demais). No sistema SECAM o valor do frame rate é 50i. O valor escolhido para frame rate nestes sistemas (60 e 50) tem ligação direta com a ciclagem da corrente elétrica utilizada no país. Nos EUA, onde o sistema NTSC foi criado, a corrente elétrica funciona em 60 ciclos; na maioria dos países europeus (onde SECAM e sistemas PAL foram criados) a corrente elétrica funciona em 50 ciclos e no Brasil (onde o sistema usado é o PAL-M) a corrente elétrica funciona em 60 ciclos.


A associação entre ciclagem e frame rate para televisão tem origem em várias questões técnicas. Na época, o isolamento dos circuitos eletrônicos dos aparelhos de TV da rede elétrica não era ainda muito desenvolvido: nos primeiros sistemas de TV criados, eram comuns instabilidades na imagem causadas por interferências de frequência da rede sobre o circuito de imagem. Pensou-se assim em minimizar estas interferências fazendo com que a frequência de montagem da imagem fosse a mesma do sinal elétrico e estivesse associada (em fase) com ela. Outro problema era a questão incômoda para o expectador da imagem piscando, fenômeno denominado flicker, bastante acentuado para o olho humano quando uma luz pisca menos de 40 vezes por segundo. No cinema este problema já havia sido enfrentado e contornado: apesar de serem mostrados 24qps, o obturador do projetor de cinema (dispositivo com lâminas metálicas que abrem e fecham a passagem de luz) na realidade abre e fecha duas vezes para cada quadro exposto. Assim, a película é avançada e um quadro é posicionado em frente à objetiva. O obturador abre e fecha. A seguir, abre novamente e fecha e só então o quadro seguinte é posicionado. Com isso, a luz projetada pisca 48 vezes por segundo (frequência de 48Hz), o que é tolerável para o expectador. Na televisão, não era possível na época a transmissão de 48 quadros completos por segundo para as antenas dos receptores: haviam limitações na largura de banda (bandwidth) disponível. A solução foi o sistema interlaced, que transmitia somente metade da imagem (linhas pares / ímpares) a cada vez. Ao mesmo tempo, a camada de fósforo que recobria internamente os tubos de imagem não era suficientemente desenvolvida para permitir taxas muito maiores de frequência no desenho de imagens. Os primeiros sistemas experimentais de TV empregavam 48Hz, mas, ao mesmo tempo em que era proposta a adoção do sistema 60i, novos tubos de imagem, mais luminosos, acabavam de ser desenvolvidos. O aumento da frequência de 48Hz para 60Hz permitiria assim também o uso desses novos tubos, reduzindo bastante a ocorrência de flicker (neste caso beneficiando bem mais os sistemas de 60qps do que os de 50qps), sem comprometer os requisitos de bandwidth. Alem do modo interlaced, imagens em vídeo podem ser gravadas e exibidas no modo progressive. No sistema NTSC, no modo progressive os principais valores de frame rate utilizados são 24 e 30, indicados por 24p / 30p (24 ou 30 qps, no modo progressive). Os sistemas PAL também possuem a opção do modo progressive, utilizando frame rate de 25 qps, ou, 25p. O quadro abaixo mostra alguns valores de frame rate utilizados em cinema e vídeo: Quando foi iniciado o desenvolvimento do sistema NTSC colorido, a grande base de televisores P&B já instalada colocou aos especialistas um dilema: desenvolver um sistema completamente novo faria com que todos esses aparelhos se tornassem obsoletos, exigindo sua troca, e a coexistência de 2 sistemas não era prática. A solução encontrada foi embutir os sinais de cores dentro do sinal já existente P&B, de modo que televisores antigos conseguissem interpretar como P&B imagens transmitidas em cores. Esta modificação exigiu algumas alterações, no entanto; assim, diversos requisitos técnicos fizeram com que oframe rate tivesse que ser alterado ligeiramente, de 30 qps para 29,97 qps (uma diferença de 0,1%).


Consequentemente, passaram a ser exibidos 59,94 campos por segundo neste sistema. Este é o valor preciso utilizado até hoje, embora para facilidade de comunicação seja usual a referência simplificada de "30" e "60". Esta diferença, que não ocorre em outros sistemas, onde os valores são exatos (sistemas PAL (exceto PAL-M) e SECAM com 25 e 50), afeta a contagem e numeração dos quadros (processo denominado Timecode), gerando os tipos drop e non-drop Timecode. Apesar desta diferença, o frame rate para o sistema NTSC é indicado como 60i (e a quantidade de quadros como 30qps) para facilidade de documentação e comunicação.

1080i um dos dois tipos de formatos HD ; o formato 1080i possui resolução vertical de 1080 linhas e seusquadros de imagem são montados através da forma entrelaçada (daí o "i" após "1080"). 23,97(frames / seg) O frame rate real do sinal de vídeo no padrão NTSC é 29,97qps e não 30qps, uma redução de 0,1%, correspondentes a, mais precisamente, um fator de 1000/1001. Já os filmes empregam desde o estabelecimento do cinema sonoro a frequência de 24qps. Várias câmeras de vídeo permitem a gravação em 24qps, para possibilitar a transferência do conteúdo gravado para película cinematográfica (processo denominado transfer) com mais facilidade. No entanto as câmeras voltadas para o segmento semiprofissional com esta característica geram os 24 quadros embutidos dentro de um sinal padrão NTSC, utilizando a técnica Pull Down. Ou então o Pull Down pode opcionalmente não ser feito (na opção de gravação direta em cartões de memória como o cartão P2 por exemplo) mas ainda assim, a captura original das imagens dentro da câmera antes das transformações internas para gerar os diversos tipos de saída segue o padrão NTSC em termos de frame rate (mesmo utilizando 60qps no modo progressive scan, como muitas câmeras HD fazem, o frame rate real é na verdade 59,94qps). Com isso, os 24 quadros gerados também ficam submetidos à redução de 0,1% no frame rate, tendo-se assim 24000/1001 = 23,97602397602397602397602397... o que é representado em alguns sistemas como "23,97", em outros como "23,98", em outros como "23,976" ou ainda simplesmente "23", querendo dizer a mesma coisa de forma simplificada. Por outro lado, equipamentos profissionais permitem, como opção, a gravação de exatos 24qps, utilizando técnicas como por exemplo a gravação em PsF(Progressive Segmented Frame). No caso das câmeras que não gravam 24 quadros reais (e sim 23,97 como visto acima), se o conteúdo de imagem gerado sofrer transfer, após o mesmo, o filme será exibido em uma cadência ligeiramente mais rápida do que a utilizada na captura. 24p referência ao padrão de sinal de vídeo NTSC utilizado em sua variação progressive com 24 quadros por segundo. Cada quadro é montado linha a linha em 1/24seg., e essa cadência (frame rate) é a mesma utilizada no cinema. O objetivo é obter um sinal que possa com mais facilidade ser transferido para película - devido à coincidência de frequência de quadros - além de imitar o aspecto de "borrão" existente nas películas para imagens em movimento. O "24" em "24p" faz referência a 24 quadros progressivos e o "p" ao referido modo.


25p o mesmo que 30p, porém para o sistema PAL, que utiliza frame rate de 25 quadros/segundo. 29,97(frames / seg) No início da década de 50, nos EUA, o comitê National Television System Committee estabeleceu o padrão para TV colorida conhecido como NTSC. Como já existia uma grande base de aparelhos P&B funcionando, para manter a compatibilidade com eles o novo sistema deveria ter suas imagens captadas sem problemas por esses aparelhos também. Desenvolver um sistema completamente novo faria com que todos esses televisores tornassem-se obsoletos da noite para o dia, exigindo assim sua troca, e a coexistência de 2 sistemas não era algo prático nem viável. A solução encontrada foi embutir os sinais de cores dentro do sinal já existente P&B, de modo que televisores antigos simplesmente o ignorassem. Para isso, através da técnica de multiplexação (que, de maneira

simplificada,

nesse

caso

significa

ter

diferentes

tipos

ondas

eletromagnéticas

(chamadassubportadoras) "montadas" sobre uma mesma onda principal (chamada portadora) onde varia-se a frequência dessas ondas subportadoras) foi incluída uma nova onda no sinal, correspondendo a sua parte de cor. Como os aparelhos antigos não "liam" essa frequência nova, estava revolvido o problema. Os engenheiros perceberam no entanto que essa nova frequência de onda incluída causava interferências no sinal de áudio do sistema, que possuía frequência próxima da frequência do novo sinal de cor. Para minimizar o problema de poder ocorrer essa interferência, algumas modificações no padrão original tiveram que ser feitas, sempre de modo a não interferir na recepção dos sinais P&B pelos antigos televisores. E uma dessas modificações foi reduzir ligeiramente o frame rate do sinal, em uma taxa de 0,1% (mais precisamente o resultado da divisão de 1000/1001, ou seja, 0,999000999000999000999000999...). Com isso, ao invés de se ter 30qps, passou a ter-se 30000/1001 = 29,97qps (ou, mais precisamente, 29,97002997002997002997002997... qps). Esse fato levou a criação de técnicas como a do drop frame Timecode, para opcionalmente ajustar a contagem de tempo do vídeo com a do tempo real. Como o vídeo "corre" mais lentamente do que o tempo real (em uma taxa de 0,1%, como visto acima), ao término de cada minuto (exceto os terminados em "0") a numeração de contagem dos quadros no Timecode avança 2 quadros, para compensar essa diferença do frame rate do sistema NTSC com o tempo real. 2K / 4KCom o desenvolvimento dos sistemas de projeção digital em cinema, utilizando vários formatos com diferentes resoluções de imagem (resolução de imagens digitais), o DCI (Digital Cinema Initiative, consórcio formado pelos principais estúdios de cinema de Hollywood) propôs em 2005, em uma tentativa de padronizar o assunto e garantir um nível mínimo de qualidade projetiva, três níveis mínimos de resolução para uso nas salas de cinema digital:

2K = 2048 x 1080 pixels a 24 qps 4K = 4096 x 2160 pixels a 24 qps (a) 2K = 2048 x 1080 pixels a 48 qps (b) Filmes produzidos por esses estúdios só seriam liberados para projeção digital nas salas equipadas para garantir as resoluções de imagem acima. O "K" em "2K" e "4K" refere-se à resolução horizontal em


quantidade de linhas ( pixels ) dessas imagens: em Física, K=1.000 unidades e em Informática, K=1024. A indicação "(a)" acima faz a ressalva de que esta opção propicia qualidade de imagem visualmente idêntica à da opção 2K para telas de até 12m de largura e é indicada pelo consórcio somente para projeções 3D (nas quais os expectadores utilizam óculos especiais para visualizar o efeito tridimensional). Em "(b)" a projeção é mais nítida e estável do que a 2K a 24qps, porém o espaço consumido para armazenamento dos dados é maior. Cinemas que não possuem projetores digitais dentro dessas especificações optam por trabalhar digitalmente com filmes provenientes de estúdios paralelos, fora do circuito Hollywoodiano ou então utilizam seu projetor para a exibição de traillers e comerciais antes do filme em película. 3:1:1 taxa utilizada no processo de sampling (parte do processo de digitalização) de um sinal de vídeo do tipoanalógico, a partir do color space YUV. Os dois componentes relacionados à parte de cor do sinal (cromitância, canais "U" e "V") tem resolução 3 vezes menor do que o componente relacionado à parte de brilho da imagem (luminância, canal "Y").

Isso significa que a cada 3 pixels em uma linha de pixels da imagem, para todos é feita a amostragem de luminosidade e para somente um é feita a amostragem de cor dos sinais U / V, como ilustra o desenho abaixo:

Cada retângulo azul corresponde a um pixel, em uma dada linha do vídeo DV. Os pequenos quadrados brancos representam a amostragem de luminosidade, efetuada para todos os pixels. Os pequenos quadrados vermelhos e azuis representam os sinais color difference U / V, ou seja, a amostragem de cor. Como indicado, ela é efetuada a cada 3 pixels. O formato HDCAM no padrão NTSC utiliza esta taxa.

30p referência ao padrão de sinal de vídeo NTSC utilizado em sua variação progressive, onde cada quadro é montado linha a linha em 1/30seg. O "30" em "30p" faz referência a 30 quadros progressivos e o "p" ao referido modo.

4:1:1taxa utilizada no processo de sampling (parte do processo de digitalização) de um sinal de vídeo do tipoanalógico, a partir do color space YUV. Os dois componentes relacionados à parte de cor do sinal (cromitância, canais "U" e "V") tem resolução 4 vezes menor do que o componente relacionado à parte de brilho da imagem (luminância, canal "Y").


Isso significa que a cada 4 pixels em uma linha de pixels da imagem, para todos é feita a amostragem de luminosidade e para somente um é feita a amostragem de cor dos sinais U / V, como ilustra o desenho abaixo:

Cada retângulo azul corresponde a um pixel, em uma dada linha do vídeo DV. Os pequenos quadrados brancos representam a amostragem de luminosidade, efetuada para todos os pixels. Os pequenos quadrados vermelhos e azuis representam os sinais color difference U / V, ou seja, a amostragem de cor. Como indicado, ela é efetuada a cada 4 pixels. Os

formatos DV Mini-DV, DVCAM e Digital-8 no

padrão NTSC utilizam

esta

taxa.

O

formato

DVDVCPRO também utiliza esta taxa, tanto no padrão NTSC como no padrão PAL.

4:2:0 taxa utilizada no processo de sampling (parte do processo de digitalização) de um sinal de vídeo do tipoanalógico, a partir do color space YUV. A resolução dos dois componentes relacionados à parte de cor do sinal (cromitância, canais "U" e "V") é semelhante à utilizada no sistema 4:1:1, ou seja, quatro vezes menor do que a de luminosidade. No entanto, aqui a amostragem é feita em blocos de 4 pixels distribuídos em uma área 2x2 (ao invés de 4x1 como no sistema 4:1:1). O desenho abaixo ilustra o que ocorre: a cada duas linhas, para uma delas é efetuada a amostragem de cor e para a outra não; para as duas, é efetuada sempre a amostragem de luminosidade:

Cada retângulo azul corresponde a um pixel, em uma dada linha do vídeo DV. Os pequenos quadrados brancos representam a amostragem de luminosidade, efetuada para todos os pixels. Os pequenos quadrados vermelhos e azuis representam os sinais color difference U / V, ou seja, a amostragem de cor. Como indicado, ela é efetuada uma linha sim, outra linha não.

Tomando-se os 2 primeiros pixels da linha superior e os dois primeiros da linha inferior, tem-se um quadrado 2x2. Dentro desse quadrado, como mencionado acima, a amostragem de cor ocorre somente uma vez. Isso é o mesmo que efetuar uma amostragem do tipo 4:2:2 para a linha de cima, e uma amostragem hipotética "4:0:0" para a de baixo. A notação para representar este sistema decorre deste fato: 4:2:0. Não é uma notação intuitiva, porém o sistema não poderia ser representado nem por "4:0:0" nem por "4:2:2". O algoritmo de compressão MPEG2 utilizado em DVD-Video emprega este sistema, assim como o formato HDV e o AVCHD. O formato DV PAL utiliza uma variação: também classificado como 4:2:0, emprega amostragem de cor em todas as linhas, mas de maneira alternada: em uma delas é utilizado o componente U, na outra o componente V, como mostra o desenho abaixo:


4:2:2 taxa utilizada no processo de sampling (parte do processo de digitalização) de um sinal de vídeo do tipoanalógico, a partir do color space YUV. Os dois componentes relacionados à parte de cor do sinal (cromitância, canais "U" e "V") tem resolução 2 vezes menor do que o componente relacionado à parte de brilho da imagem (luminância, canal "Y"). Isso significa que a cada 4 pixels em uma linha de pixels da imagem, para todos é feita a amostragem de luminosidade e para dois deles é feita a amostragem de cor dos sinais U / V, como ilustra o desenho abaixo:

Cada retângulo azul corresponde a um pixel, em uma dada linha do vídeo DV. Os pequenos quadrados brancos representam a amostragem de luminosidade, efetuada para todos os pixels. Os pequenos quadrados vermelhos e azuis representam os sinais color difference U / V, ou seja, a amostragem de cor. Como indicado, ela é efetuada a cada 2 pixels. Os formatos Digital Betacam, DVCPRO50 e Digital-S são exemplos de formatos que utilizam esta taxa. O algoritmo de compressão MPEG2 também pode opcionalmente comprimir dados utilizando esta taxa. 4:4:4 representação da digitalização de um sinal de vídeo do tipo analógico a partir do color space RGB, sem que

seus

componentes

sofram redução

em

suas resoluções originais, como

ocorre

nos

processos 4:1:1,4:2:2 e 4:2:0 .

Isso significa que a cada 4 pixels em uma linha de pixels da imagem, para todos é feita a amostragem de luminosidade e também para todos é feita a amostragem de cor dos sinais U / V, como ilustra o desenho abaixo:

Cada retângulo azul corresponde a um pixel, em uma dada linha do vídeo DV. Os pequenos quadrados brancos representam a amostragem de luminosidade, efetuada para todos os pixels. Os pequenos quadrados vermelhos e azuis representam os sinais color difference U / V, ou seja, a amostragem de cor. Como indicado, ela também é efetuada para todos os pixels.

50i o mesmo que 60i, porém para o sistema PAL (o frame rate é 50 e não 60). 59,97(frames / seg) O frame rate real do sinal de vídeo no padrão NTSC é 29,97qps e não 30qps. Nas câmeras voltadas para o segmento semi-profissional que disponibilizam sinais HD utilizando frame rate 60p (60quadros no modo progressive scan), a captura original das imagens dentro da câmera antes das transformações internas para gerar os diversos tipos de saída segue o padrão NTSC em termos de frame rate.


Assim, como neste a cadência das imagens é 0,1% menor (mais precisamente o resultado da divisão de 1000/1001, ou seja, 0,999000999...), a cadência das imagens na captura é 60000/1001, ou seja, 59,9400599... . Já equipamentos profissionais HD permitem geralmente a opção de se gerar conteúdo a exatos 60p ou então em 59,97p. 60i referência ao padrão de sinal de vídeo NTSC tradicional, onde 60 campos são capturados / exibidos por segundo (daí o "60" em "60i") e no modo interlaced (daí o "i" em "60i"). 720p um dos dois tipos de formatos HD ; o formato 720p possui resolução vertical de 720 linhas e seus quadros de imagem são montados através da forma progressiva (daí o "p" após "720").

SDI (Serial Digital Interface) conexão para áudio e vídeo utilizada no segmento profissional em estúdios, conectando câmeras e VCRs entre si ou com sistemas de edição-não-linear. Também utilizada em alguns modelos de mixers de vídeo. Utiliza sinal digital SD sem compressão que trafega através de cabos com conectores BNC. Cabos com este tipo de sinal não sofrem interferências (devido ao sinal ser digital), podendo ser construídos com considerável extensão (100 metros por exemplo). Cabos SDI podem transportar também, juntamente com o áudio e o vídeo, informações de Timecode, o que permite sincronizar diversos equipamentos conectados entre si.

BNC (British Naval Connector ou Bayonet Neil Concelman ou Bayonet Nut Connector) Conector para cabos coaxiais (cabos que contém 2 condutores, um central - fio grosso de cobre - e outro em forma de malha de fios de cobre envolvendo-o, sendo o condutor central isolado da malha por uma camada de plástico) utilizado em aplicações de rede de computadores, no transporte de sinais de aparelhos de medição de altas frequências (osciloscópios por exemplo) e no transporte de sinais de vídeo (imagem) em aplicações profissionais:

Este tipo de conector possui um engate que prende-o firmemente à fêmea (através de um pino localizado nesta e encaixe do tipo girar/travar), impossibilitando com isso o desencaixe acidental - cabo tracionado por exemplo. Inventado pelos americanos Paul Neil e Carl Concelman, possui várias traduções de sua sigla, como Bayonet Neil Concelman por exemplo, em alusão ao encaixe do engate (do tipo baioneta) e a seus criadores. Ou então British Naval Connector, em referência à sua utilização na marinha inglesa. Devido às duas características de robustez e capacidade de transmissão de sinais é utilizado, além de em vídeo, também em diversas aplicações de comunicações.

Color bars, conjunto de barras coloridas utilizadas como referência no ajuste de equipamentos de vídeo. Existem modelos diferentes para cada tipo de sinal de vídeo (abaixo, modelo para o sinal NTSC,


denominado SMPTE color bars, porque foi padronizado pela entidade SMPTE - Society of Motion Picture and Television Engineers). Permite efetuar ajustes nos controles de cor e outros de monitores, câmeras, etc... Algumas câmeras podem gerar opcionalmente este sinal (ou parte dele, sem as camadas inferiores), assim como dispositivos eletrônicos em ilhas de edição.

Da esquerda para a direita, a figura apresenta as seguintes cores nas barras verticais superiores: cinza (80%), amarelo, ciano, verde, magenta, vermelho e azul. Nos segmentos intermediários, da esquerda para a direita, azul, preto, magenta, preto, ciano, preto, cinza (80%). No segmento inferior, à esquerda um quadrado branco ladeado por quadrados azuis e à direita, várias tonalidades de preto. As cores vermelho, verde e azul são as cores primárias do sistema RGB e amarelo, ciano e magenta a combinação de duas das cores primárias - estas, denominadas cores secundárias. As cores estão arranjadas em ordem decrescente de brilho total, da esquerda para a direita. Para efetuar o ajuste, inicialmente o controle de contraste do monitor deve ser posicionado em seu ponto médio. A seguir, o controle de cor deve ser totalmente diminuído, de modo a que todo o quadro seja mostrado sem cores, apenas contendo faixas cinzas. Observar então o canto inferior direito da imagem: entre duas faixas pretas existem 3 pequenas faixas - no desenho abaixo, indicadas por A, B e C.

Ajustar então o controle de brilho de modo que a faixa B fique praticamente invisível - preta. Neste momento a faixa C à direita deve ficar ligeiramente visível. A faixa B representa a parte mais escura capaz de ser representada na imagem do vídeo; como a faixa A é mais escura do que ela, deve ter ficado neste momento totalmente invisível, ou seja, não deve ser notada nenhuma divisão entre as faixas A e B. A única divisão que deve ser mostrada é entre as faixas B e C. A seguir é efetuado o ajuste do nível do branco, o que é feito inicialmente aumentando totalmente o controle de contraste. Neste momento o quadrado branco, no canto inferior esquerdo, apresentar-se-á sem definição


precisa nas bordas e com excesso de luminosidade. O controle de contraste deve então ser lentamente reduzido até que o referido quadrado ganhe definição e perca o excesso de luminosidade. A seguir efetua-se o ajuste de cor, buscando-se um equilíbrio geral nos tons das cores e observando-se que a cor com maior tendência à saturação é a vermelha, ao lado da magenta à sua esquerda.

Características:

A câmera Profissional HD da Panasonic, modelo AG-AF100, representa um salto impressionante no acesso a imagens de vídeo com qualidade de cinema.

Com todas as características profissionais esperadas em uma filmadora com lentes intercambiáveis timecode de vídeo, controle manual de áudio, taxas de quadros variável, saída HD-SDI, HDMI e entradas XLR.

Seu trunfo está no sensor de 4/3 de polegadas, 17,3 x 13mm, similar ao tamanho do sensor de 35mm que é equivalente a (22 x 16mm). Os sensores de 2/3 de polegada utilizado em câmeras high-end medem 8,8 x 6,6mm, ou seja, o sensor de 4/3 polegadas é cerca de quatro vezes maior. Um grande sensor permite maior profundidade de campo, aumentando assim as opções criativas para o operador, possibilitando a utilização de um maior numero de lentes intercambiáveis de melhor qualidade, que já estão disponíveis no mercado.

O sensor CMOS 16:9 desenvolvido pela própria Panasonic é capaz de gravar vídeos em 720p/1080 com taxa de quadros 24,30 e 60 qps no formato AVC/ H.264 Hi-Profile, o que permite que o material capturado possa ser lido e editado em qualquer PC ou Mac.

Fora isso, ela vem equipada com dois slots para cartões de memória padrão SDHC/SDXC o que permite gravar até 12 horas de vídeo com um par de cartões SDXC de 64 GB cada.

Para obter um material com cores profundas, maior sensibilidade à luz e curta profundidade de campo você tinha duas opções: usar as câmeras DSLR com uma infinidade de suportes e acessórios caros, ou acesso a uma grande conta bancária para custear o aluguel de equipamentos cinematográficos. A AG-AF100 não só oferece a imagem de qualidade, versatilidade e controle que os operadores profissionais mais necessitam, mas também um preço compatível com o mercado de nível profissional. Sem dúvidas a Panasonic atendeu a necessidade criativa do mercado e finalmente lançou uma câmera com lente intercambiável e com grande sensor.


A AG-AF100 utiliza o sistema de encaixe de lentes da linha Micro Four-thirds (Micro Quatro Terços), compatível com a linha de lentes da empresa a ‘Lumix G’ e com os filtros e adaptadores dos concorrentes como Olympus, Leica e Sigma, o que pode ser uma solução econômica e facilmente encontrada no varejo. Todo sistema de focagem da câmera foi desenvolvido com a tecnologia DSLR especificamente para o uso em filmagens, dessa forma temos a tecnologia para eliminar serrilhados e para controlar aberrações cromáticas totalmente inovadoras.

Características Principais:

A Primeira do Mundo a Adotar os Padrões Micro de Quatro Terços A série AG-AF100 é o primeiro gravador de câmera profissional HD a adotar os padrões Micro de Quatros Terços. Esses padrões foram anunciados em 2008 como uma extensão dos padrões de Quatro Terços para câmeras DSLR (Digital Single Lens Reflex). A Panasonic e alguns outros fabricantes já lançaram várias câmeras digitais e lentes intercambiáveis baseadas nos padrões Micro de Quatro Terços.

O nome "Quatro Terços" é baseado no sensor de imagem tipo 4/3 (aproximadamente 17,3mm x 13mm). O tamanho do sensor de imagem, a montagem de lente padronizada desenvolvida para ele e as lentes intercambiáveis projetadas exclusivamente para câmeras digitais formam o núcleo dos padrões de Quatro Terços. Esses padrões foram estabelecidos para oferecer uma excelente solução para câmeras digitais, rompendo com os padrões de câmera de filme. Ao estabelecer os padrões Micro de Quatro Terços, a distância de flange back (a distância da superfície de montagem de lente até o sensor de imagem) foi reduzida aproximadamente pela metade, e o diâmetro da montagem ficou cerca de 6mm (0,24 polegada) menor do que o da montagem de Quatro Terços. O tamanho do sensor de imagem é o mesmo que o tipo 4/3 usado no padrão de Quatro Terços. Os padrões Micro de Quatro Terços possibilitaram a redução do tamanho e do peso de câmeras e lentes e a obtenção de uma permutabilidade de lentes junto com a capacidade de gravação de vídeo.

Sensor de Imagem MOS tipo 4/3 O sensor de imagem MOS tipo 4/3 na série AG-AF100 possui quase a mesma área* de captação de imagem que a de filme de 35mm de cinema. A profundidade de campo e a distância focal são tão próximas quanto as de câmeras de filme. Com a série AG-AF100, você pode gravar belas imagens semelhantes a filme com profundidade de campo rasa. O sensor MOS possui 2 linhas de controle em comparação com as 3 linhas exigidas por um sensor CMOS convencional, fornecendo assim uma área maior de recepção de luz. Isso resultou em um alto nível de sensibilidade que compete com o de um sensor CCD. Também são empregadas extensas medidas de redução de ruído, como fotodiodos integrados isolados de fontes de ruído e operação com baixa voltagem. Conduzindo mais luz para os pixels, a série AG-AF100 alcança uma ampla faixa


dinâmica e gradação detalhada com o mínimo de sombras bloqueadas ou altas luzes estouradas em cenas com alto contraste para texturas naturais e cores ricas.

*A área de captação de imagem efetiva é cortada em um formato 16:9.

Um Filtro Passa-Baixa para Vídeos HD de Alta Qualidade O filtro passa-baixa ótico da série AG-AF100 é otimizado para vídeos HD e reduz o ruído de "aliasing" que geralmente ocorre em vídeos capturados por um sensor de imagem com uma alta densidade de pixel. Além disso, o sensor de imagem MOS é escaneado em uma alta velocidade para reduzir a distorção de "skew".

DSP de 18 Bits e Alta Performance A série AG-AF100 é equipada com um processador de sinal digital (DSP) de 18 bits e alta performance para processamento de imagem. Otimizado para gravação de vídeo HD, o DSP suporta vários processos de renderização de imagem, como DRS (Dynamic Range Stretch), gama, correção independente de cor de 12 eixos e aperfeiçoamento de detalhes, bem como conversão para os formatos de vídeo HD/SD − tudo com uma excepcional precisão e alta qualidade de imagem.

Filtro ND Ótico Interno A série AG-AF100 possui um filtro de densidade neutra (ND) interno que é essencial para a gravação de vídeo. O dial dedicado no corpo da câmera permite que você ajuste a configuração em 3 pontos (1/4ND, 1/16ND e 1/64ND) com quaisquer tipos de lentes.

Função DRS (Dynamic Range Stretch) A função DRS reconhece o brilho médio das áreas de sombra e alta luzes e, então, ajusta automaticamente a abertura e utiliza o controle de knee para eliminar o bloqueio nas áreas de sombra. Nas cenas com áreas claras e escuras misturadas, a DRS fornece automaticamente uma faixa dinâmica mais ampla com o mínimo de altas luzes estouradas e sombras bloqueadas.

Gama de 7 Modos para Gradação Mais Rica Com base nas tecnologias desenvolvidas para VariCam, a Panasonic equipou a a série AG-AF100 com avançadas funções de gama que servem para 7 cenários diferentes de gravação e melhoram suas habilidades criativas. Isso inclui 2 gamas tipo película, que produzem os tons quentes característicos das gravações de filme. Outras configurações de gama incluem HD Norm, Baixo, SD Norm, Alto e B.Press.

Avançados Ajustes de Imagem


- Configuração de cor com tabela de matriz: Norm 1, Norm 2, Fluo e Cine-Like; - Nível de detalhe H, nível de detalhe V, "coring" de detalhes e detalhes de pele ajustáveis; - Nível de croma, fase de croma e pedestal master ajustáveis; - Temperatura de cor ajustável: 2400K a 9900K (3200K/5600K pré-configurado); - Configurações de ponto de knee: Automático, Baixo, Médio e Alto; - Nível ajustável de íris automática;

Modo AVCHD PH para Aplicações Profissionais A série AG-AF100 utiliza o formato de gravação AVCHD e também suporta o modo PH de alta qualidade de imagem. AVCHD é compatível com MPEG-4 AVC/H.264 High Profile, a mais moderna tecnologia de compressão de vídeo. Com uma eficiência de compressão que é mais que o dobro do sistema MPEG-2 (como HDV), esse avançado formato de arquivo de vídeo fornece uma excelente qualidade de imagem e baixas taxas de dados. O modo PH foi desenvolvido para AVCCAM pela Panasonic exclusivamente para produção de vídeo profissional de alta qualidade. Esse modo apresenta uma taxa de bits AVCHD máxima de 24 Mbps (média: 21 Mbps) e grava imagens Full-HD 1920 x 1080.

Gravação de 2 Canais LPCM Não Comprimida O modo PH suporta gravação de áudio digital não comprimida de 2 canais LPCM de 16 bits para som de alta qualidade, além de áudio de 2 canais Dolby Digital. O modo HA/HE emprega somente gravação de áudio de 2 canais Dolby Digital.

Compatibilidade HD Multiformato O modo AVCHD PH é compatível com múltiplos formatos HD, como 1080/60i, 1080/30p, 1080/24p e 720/60p. Além disso, a série AG-AF100 permite que você selecione 60Hz ou 50Hz para suportar sistemas HD usados o mundo inteiro. (A gravação real é a seguinte: 60Hz = 59,94Hz, 30Hz = 29,97Hz e 24Hz = 23,98Hz.).

Gravação com Taxa de Quadros Variável 1080p A série AG-AF100 herdou e aprimorou ainda mais as aclamadas funções da VariCam, que é amplamente usada na produção de filmes, programas de TV e comerciais de TV. A nova função* VFR (Variable Frame Rate) suporta o modo progressivo Full-HD (1920 x 1080). Dotada da função "undercrank" (taxa de quadros mais baixa)/"overcrank" (taxa de quadros mais alta) de 20 pontos, a série AG-AF100 pode produzir imagens cinematográficas, como um efeito de câmera lenta 1/2.5x e efeito de câmera rápida 2x com a reprodução no modo 24p.


*Não pode ser reproduzida no modo 1080/60p. Não suporta VFR 720p. Requer Cartão de Memória SDXC/SDHC/SD Classe 6 ou superior para gravação VFR.

Suporta Cartão de Memória SDXC A série AG-AF100 suporta o novo Cartão de Memória SDXC. O Cartão de Memória SDXC é um dispositivo de armazenamento de dados de alta capacidade da próxima geração com as versões atualizadas do sistema de arquivo (FAT) e especificações físicas do Cartão de Memória SDHC. Graças à ampla capacidade de armazenamento, que excede o limite de 32GB do Cartão de Memória SDHC, o Cartão de Memória SDXC pode suportar grandes volumes de dados de 48GB ou 64GB. Também apresenta uma alta velocidade de transferência de dados máxima de 22MB/s* e uma ampla faixa de temperatura operacional de -25° a 85°C (-13°F a 185°F). A série AG-AF100 também pode usar os Cartões de Memória SDHC e SD.

*A velocidade de transferência de dados varia conforme o sistema operacional dos dispositivos compatíveis com SD. A taxa indicada foi medida no ponto de especificação máximo determinado pela Panasonic.

2 Slots de Cartão para Relay Recording A AG-AF100 possui 2 slots de cartão de memória. O slot ativo para a gravação pode ser selecionado, e a função "relay recording" interna permite a gravação contínua mudando automaticamente a mídia de gravação. Usando 2 Cartões de Memória SDXC, a AG-AF100 pode gravar até 12 horas no modo PH ou 48 horas no modo HE*. Videoclipes podem ser copiados entre cartões presentes nos dois slots.

*O tempo máximo de gravação contínua é de 12 horas, independentemente do modo de gravação. É necessário um Cartão de Memória SDXC/SDHC/SD Classe 4 ou superior para a gravação no modo PH ou HA. Para outros modos de gravação, use um Cartão de Memória SDXC/SDHC/SD Classe 2 ou superior. (Recomenda-se o uso de um Cartão de Memória SDXC da Panasonic).

Função Synchro e Gravação de Timecode SMPTE O gerador de timecode SMPTE integrado permite que você selecione Drop Frame/Non-Drop Frame e os modos Free Run/Rec Run e preset. Também são fornecidos bits do usuário. A conexão de 2 câmeras com um conector de entrada/saída (saída de vídeo) preset TC permite que a câmera escrava sincronize com a câmera principal.

Captura de Fotos Um quadro pode ser capturado de vídeo HD como uma foto equivalente a 2 megapixels (1920 x 1080). (É importante lembrar que fotos não podem ser capturadas durante a gravação de vídeo ou no modo de Prégravação).


Gravação de Metadados de Câmera As configurações da câmera para operação de gravação podem ser salvas como metadados em um arquivo de clipe. Carregando um arquivo de clipe, as configurações salvas podem ser aplicadas de imediato.

Funções de Gravação Diversas A AF100 inclui muitas outras funções de gravação: Exibição de Miniatura de Clipe, Gravação com Intervalo, Pré-Gravação, Marcação de Cena, Índice, Verificação de Gravação e Apagamento do Último Clipe.

Modo FILM CAM para Produção de Filme A série AG-AF100 possui modos FILM CAM e VIDEO CAM selecionáveis. No modo FILM CAM, pode ser usada a taxa de quadros variável. Além disso, a sincronia de scan e o obturador podem ser indicados e ajustados com o ângulo de abertura, em vez de segundos, e a sensibilidade pode ser indicada e ajustada em ISO, em vez de dB. Isso facilita a operação para usuários que estão familiarizados com a operação de câmera de filme.

Funções de Focagem de Área e Íris de Área (Somente Lente Compatível) Usando o knob com 12.260.000 funções (tecla de cursor) recém-fornecidas, você pode selecionar uma área desejada no quadro e defini-la como uma zona-alvo para focagem, ajuste de íris e YGET (medição de brilho). Essa nova função facilita a gravação de imagens nas quais o assunto não é o centro do quadro. Além dos 3 modos acima, há 2 outros modos: ajuste simultâneo de focagem/íris e focagem/YGET simultâneos. Você pode selecionar e usar qualquer um desses 5 modos.

Função de Auxílio ao Foco A série AG-AF100 é equipada com uma função de auxílio ao foco HD. A barra de foco indica o nível de foco, e o display de foco em vermelho indica a área de foco. Essas duas funções o ajudam a focar de maneira mais suave. Também é fornecida uma função de detecção de rosto, e são possíveis uma área de foco automático e uma área de íris automática.

Ampla Faixa de Configuração de Sensibilidade (Ganho) ISO A sensibilidade pode ser ajustada entre ISO 200 e ISO 3200 (no modo FILM CAM), ou o ganho pode ser ajustado entre 18 dB e -6 dB (no modo VIDEO CAM). O seletor de ganho de 3 posições (L, M, H) pode ser designado com 3 configurações desejadas para seleção rápida. O ganho negativo (-3 dB, -6 dB) é eficiente para a redução da sensibilidade e do ruído.


Obturador Lento/Sincronia/de Alta Velocidade A velocidade de obturador pode ser ajustada entre lenta de 1/2 segundo e rápida de 1/2000s no modo VIDEO CAM. A série AG-AF100 também é equipada com uma função synchro para permitir o ajuste entre 10° e 360° em pontos de 0,5° (incluindo 172,8°) no modo FILM CAM. Quando combinada com a taxa de quadros variável, essa função permite ajustes detalhados para um efeito desfocado ou de lapso de tempo.

Exibição de Forma de Onda e Vectorscópio Simplificada A série AG-AF100 também possui funções de forma de onda e vectorscópio. Um único toque na tecla WFM exibe a forma de onda ou vetores do sinal de vídeo capturado no monitor LCD.

Monitor LCD e Visor Grande O visor grande de alta qualidade de 0,45 polegada, equivalente a aproximadamente 1.226.000 pontos (852 x 480 x 3 [RGB]), pode ser inclinado até um ângulo de 90°. O monitor em cores de ângulo variável possui uma tela LCD em cores de 3,45 polegadas, aproximadamente 921.000 pontos (1920 x 480) com um formato de 16:9 e facilita a gravação em ângulo baixo/alto, a visualização e configuração pelo menu.

3 Botões do Usuário Três botões do usuário são fornecidos para a operação com um toque das funções usadas com frequência. Dois botões estão localizados no painel de controle, e um botão está localizado na parte superior do punho. Cada botão pode ser designado para qualquer uma das 14 funções a seguir: INH, REC CHECK, FACE DETECT, FOCUS ASSIST, CAPTURE, ATW, ATW Lock, SHOT MARK, INDEX, LAST CLIP, BACKLIGHT, SPOTLIGHT, BLACK FADE, WHITE FADE.

Saída SDI (24PsF) e Gravação Automática O terminal de saída SDI HD/SD pode realizar a saída de sinais HD, incluindo 1080/24Psf ou sinais de vídeo SD "down-converted" (seleção no menu). O terminal também suporta Gravação Automática para permitir gravação de backup vinculada ao Início/Parada de Gravação quando é utilizado um gravador Panasonic equipado com a mesma função, como o AG-HPG20. Também suporta áudio integrado.

*A gravação de saída 24PsF só é possível no AJ-HPM200 ou outros gravadores de terceiros que suportam entrada 24PsF.

Terminal de Saída HD Digital HDMI A série AG-HMC80 é equipada com um terminal de saída HDMI (High Definition Multimedia Interface) da próxima geração para transferência digital de sinais de áudio e vídeo HD de alta qualidade.


Entrada XLR para Áudio de Qualidade Profissional Além do microfone estéreo de alta performance interno, a AG-AF100 vem equipada com terminais de entrada de áudio XLR de 2 canais com phantom power de 48V. Cada canal pode ser selecionado do microfone interno, microfone externo ou entrada de linha. Também são fornecidos dials de nível grandes e fáceis de usar.

Saída de Vídeo SD "Down-Converted" A AG-AF100 possui um down-converter interno, portanto pode realizar a saída de sinais SD (480/576) de SDI, HDMI ou SAÍDA DE VÍDEO. O modo de conversão de formato 16:9/4:3 pode ser selecionado entre 3 tipos (side crop, letterbox, squeeze).

Exibição de Grade/Marcador O visor e monitor LCD podem exibir um marcador de zona de segurança de 90%, 4:3, 14:9, 1.85:1, 2:1 ou 2.35:1, ou uma grade 3x3 similar à grade em uma câmera digital SLR.

Design de Sistema Profissional

- Punho: O punho grande é fácil de segurar e também é removível. O punho permite o uso confortável em qualquer situação de gravação; - Alça: A alça grande foi projetada para o uso profissional. Ela possui um adaptador de sapata e orifícios rosqueados para a montagem de vários acessórios periféricos. A alça também é removível; - Marcador de sensor/instrumento de medição: Isso facilita medir a distância do assunto.;

Funções e Especificações Projetadas para Uso Profissional

- Arquivo de cena: Salva 6 conjuntos de configurações de câmera e permite uma mudança rápida das configurações; - Verificação de modo: Exibe uma lista dos ajustes da câmera no visor e no monitor; - Zebra: Selecione quaisquer dois níveis entre 50% e 105% em pontos de 5%; - Barra de cores: Realiza a saída de um sinal de barra de cores; - Terminal remoto: Permite a operação remota de íris, foco, Início/Parada de Gravação e funções de índice; - USB 2.0: Porta USB tipo mini-B para a conexão de um PC no modo DEVICE; - Lâmpadas de sinalização (tally): Fornecidas na parte frontal e traseira da unidade;

Gain  
Read more
Read more
Similar to
Popular now
Just for you