Page 1

A INFLUÊNCIA DO SOM NA PSIQUÊ ATRAVÉS DO SOUND DESIGN David Menezes1 Resumo: A partir de 1930, o Foley se tornou uma ferramenta imprescindível para o cinema, televisão e rádio. Através dele, são inseridos ruídos que remetem a fatos “reais”, que completam a narratividade verbal ou visual. Esses sons são determinados pela imagem ou roteiro e acabam permitindo ao espectador obter uma sensação que inconscientemente lhe traz lembranças e tornam a narrativa mais real. Atualmente, a montagem de uma narrativa sonora é chamada de sound design que vem sendo empregado em diversos meios digitais, afim de trazer uma maior interação com o usuário. Sendo esse sound design o retrato sonoro de uma cena ou objeto influi diretamente na memória do telespectador, propiciando-lhe reminiscências e associações através de sensações que atuam, inclusive, sobre outros sentidos que não a audição. Segundo Roederer (2002 p. 214), as mensagens musicais não transportam informações biologicamente relevantes, como no caso de sons ambientes. Portanto, tais “retratos sonoros” devem buscar influir diretamente na psique e, se utilizados de maneira correta, fazem com que as sensações se tornem mais reais e espaciais. Podendo induzir estados psicológicos, fazem com que o usuário ou o telespectador tenha mais interação. A partir dessas constatações, nossa pesquisa visa investigar sobretudo a seguinte questão: - Qual deve ser o estudo a ser feito antes de uma montagem para que o ambiente reflita aspectos ou objetivos do meio utilizado e consiga influenciar o telespectador? Este estudo é muito importante para futuros desenvolvimentos de comunicação e trará benefícios ao estudo da linguagem do sound design. Palavras-chave: Sound design, audiovisual, percepção, cinema. Abstract: Since 1930, Foley has been an indispensable tool for cinema, television and radio. Using it, noise and sounds efects are inserted to create more "reality" which completes the verbal or visual narrative. These sounds are determined by image or script, unconsciously bringing back memories that make the story seem more real. Nowadays assembling a narrative sound is called Sound Design and is used in various digital media to bring greater interaction with the User. Since Sound Design ( the sound portrait of a scene or object ,) directly affects the memory of the viewer, memories and association of sensations including those related to senses other than hearing are created. According to Roederer (2002 p. 214) musical messages do not carry biologically relevant information as in the case of ambient sounds. These "sound portraits" seek to directly influence the psyche, and if used 1

Guilherme Maximiano, Téc. Produção Musical, Universidade Anhembi Morumbi, david.enlirio@gmail.com 1


correctly, cause sensations to become larger and more real and can even cause psychological changes, causing the User, or Viewer, to have more interaction with the material being portrayed. From these findings, our research aims to investigate in particular the following question: - What research should be done before a “make-up” so that the ambiance refletes aspects or objectives of the medium used that could influence the viewer? This study is very important for the further development of communications and will bring benefits to the study of the language of Sound Design. Keywords: Sound design, áudio-visual, perception, cinema.

1.

Uma breve história sobre o som no cinema e audiovisual

Neste primeiro capítulo, como o próprio nome já diz, esboço um breve relato sobre o som no cinema e, consequentemente, no audiovisual. O cinema nada mais é do que um registro visual sobre a vida e os pensamentos do homem, seja real ou fantástico, que já vem desde o início da humanidade com as pinturas rupestres até os teatros orientais de marionetes (produzidos 5000 anos a.C.), talvez os maiores precursores da chamada sétima arte, o cinema. Alguns experimentos antes dos equipamentos mais “modernos” foram surgindo: como a câmara escura, idéia vinda de Leonardo da Vinci no século XV e realizada por Giambattista Della Porta no séc. XVI, que consistia em uma caixa preta com um orifício coberto por uma lente. A luz refletida por objetos exteriores penetra por esse orifício e forma no fundo da caixa a imagem invertida do objeto. Outro experimento que serviu de base para o cinema foi a lanterna mágica de Athanasius Kirchner. Criada na metade do séc. XVII, esse invento era composto por uma caixa cilíndrica iluminada à vela, que projeta as imagens desenhadas em uma lâmina de vidro. A partir do fenômeno de resistência retiniana, descoberto pelo inglês Peter Mark Roger nessa mesma época, e os primeiros testes fotográficos realizados por Louis-Jacques Daguerre e Joseph Nicéphore Niepce, vários experimentos e equipamentos passaram a ser desenvolvimentos com o propósito de captar o movimento e de reprodução do mesmo.

2


Na mesma época do Praxinoscopio em 1877, surge o primeiro gravador e reprodutor de áudio: o fonógrafo produzido por Thomas Alva Edison. O equipamento consistia em um cilindro de estanho e, em seu vértice, era colocado uma agulha ligada a uma membrana que era diretamente ligada a um cone. Ao girar a manivela e falar no cone, a agulha gravava as vibrações no cilindro. Ao re-posicionar a agulha no início e girar a manivela, o som era reproduzido. Em 1887, Emile Berliner, cria o Gramofone (que usa os mesmos princípios do fonógrafo), mas reproduz o som em um disco achatado. Em 1888, o Gramofone passa a ser industrializado. Passado alguns anos e várias pesquisas, em 1893, Emile consegue, através de processo industrial, a reprodução das gravações a partir de uma única gravação matriz, iniciando assim o período de reprodutibilidade técnica da música. Mesmo com essas invenções para a reprodução de imagens e sons, o cinema ainda continuava mudo nas telas, soando apenas por meio de músicas tocadas ao vivo e alguns sons produzidos durante as apresentações. Várias tentativas foram feitas, mas o sincronismo e a amplificação eram um problema, e vários aparelhos foram criados para solucioná-lo. A “Warner” usava o seu “Vitaphone” e com ele lançou os primeiros filmes com som sincronizado, mas não com a perfeição desejada. Esses filmes são: “Don Juan”(1926), o primeiro filme com efeitos e música, “Jazz Singer”(1927), seu primeiro filme com trechos falados e cantos, e "Luzes de Nova York" (1928), o primeiro filme totalmente falado. Nesta mesma época, a Fox lança “Sunrise” com o sistema Fox Movietone, um sistema ainda com falhas de sincronismo. Foi aí, nessa mesma época, que Lee de Forest, conhecido por muitos como o pai do rádio e criador da válvula de tríodo, cria o “Phonofilme” e consegue colocar o áudio diretamente na película através de processo magnético. A qualidade do som não era a melhor, mas possibilitava uma melhoria considerável na sincronia dos sons e diálogos do filme, o que era prático pois o som já estava inserido no próprio filme.

3


No final dos anos 20, os filmes de Hollywood já eram quase totalmente falados, e o público não queria saber de outra coisa a não ser os filmes sonorizados. Em 1929, sai o último filme mudo de Hollywood: “O beijo”, produzido pela produtora MGM, com algumas exceções já na década de 30, como “Luzes da Cidade” (1931) e “Tempos modernos” (1936). É nessa época, década de 20 começo da década de 30, que insiro um grande personagem, nascido em Yorkville, N.Y. in 1891, Jack Donovan Foley. Foi ele quem notou que nos filmes faltavam os sons reais da vida como passos, sons ambientes etc. Essa necessidade de criação de sons fez com que Jack criasse sua própria técnica: a “art of foley”, ou apenas foley como é conhecida. O que seria o “Foley”? Seria a técnica de gravação de “ruídos”, que na época era feita durante a própria cena com o auxílio de vários adereços que faziam algum tipo de som semelhante ao necessário para a cena, como tiros, batidas de portas, passos, o que contava era a criatividade. Com o passar do tempo, o “foley” passou a ser usado nos programas de TV e nas rádios. Toda essa criatividade fez com que o cinema conseguisse criar uma diversidade de estilos como os musicais a as comédias, e a respectiva junção dos dois, como os musicais comédias. Filmes épicos, como “Cleópatra” (1934), e de ficção, como “Frankenstein" (1931), e filmes de gângsters, como "The Public Enemy" (1931), e assim todos da nova era do som. Uma das obras que obtiveram grande sucesso e que sem o som não teria o mesmo êxito foi o “Mágico de Oz”(1939). Chega a década de 40, e com ela, a guerra e os filmes anti-nazistas e os filmes patrióticos. No Brasil, a Atlântida, uma das maiores empresas que o cinema nacional já teve, estava ruim das pernas, e, em 1947, chega a “Chanchada”, fazendo com que na década seguinte o cinema brasileiro se tornasse lucrativo e auto suficiente. De fato, todas essas revoluções sonoras acarretaram uma grande mudança na percepção humana. Pierre Schaeffer foi um dos primeiros a fazer testes com gravação e a girar a fita no sentido contrário com um “magnetofone”, primeiro gravador de fita criado pelo alemão Fritz Pfleumer, e foi também o primeiro a fazer a música dita concreta na década de 40. Na década de 60, um dos também seguidores de Pierre Schaeffer, R. Murray Schafer, cria o termo “Esquizofonia”, que consiste na quebra do som. O som 4


era individual e único, e, com o advento da gravação, alguns sons que dependiam de suas fontes, após gravados poderiam ser reproduzidos em qualquer lugar, e um dos pontos é justamente a criação de um ambiente artificial, que no caso do cinema pode ser chamado de “Art of Foley” ou “Sound Design”. A diferença entre os dois é que o primeiro é mais preocupado com o ato de gravar os sons, enquanto o segundo se empenha na edição e muitas vezes na criação de novos sons, como para um filme de ficção científica. As novas mídias não paravam de surgir. Por exemplo, o “spacewar”, o primeiro jogo eletrônico a ser lançado no mercado. Após 10 anos, surge um dos mais famosos vídeos games, o “Telejogo” e, mais tarde, o “Odyssey” com a possibilidade de trocar cartuchos como o “Atari”. Esses jogos, por mais simples que possam parecer com uma interface simples e gráficos com formas que exigiam muita imaginação do usuário, já eram dotados de conceitos sonoros que permitiam ao jogador interagir de uma forma mais completa. Neste momento da história, os fabricantes começam a entrar em uma disputa desenvolvendo jogos cada vez mais modernos e, com eles, o som tem um papel muito importante de transformar os jogos em mundos reais. Com isso, não só os gráficos e a jogabilidade são importantes, mas sim todo um ambiente sonoro remontado para criar universos paralelos. Essa nova área de sonorização para vídeo games permite que o usuário seja guiado através do som, que o jogador use seus vários sentidos, fazendo assim com que a interação seja maior. Em jogos como “Tony Hawk Skate”, todos os sons provocados pelo movimento do skate foram gravados e inseridos no jogo. A veracidade dos movimentos ligados ao som faz com que o usuário se sinta como se estivesse realmente andando de skate e realizando as manobras. Os jogos de guerra são também muito impressionantes, com uma recriação sonora detalhada, sons de passos em folhas, aviões passando para todos os lados, o som do deslocamento dos tiros, o jogador entra em um estado de atenção tão grande que é capaz de ficar horas e horas interagindo com o jogo.

5


Outra nova revolução que veio caminhando junto aos vídeo games, cuja grande explosão se deu na década de 90 e séc. XXI, foram os computadores pessoais ou PCs. Com eles, veio um novo tipo de interação usuário/máquina, como novos formatos de mídia e suas novas formas de construção de sentido. No início, os sons e as imagens eram fracos. No Brasil, eram poucos os que utilizavam a internet, assim mesmo, apenas para bate papo em chats como o “BBS”. Alguns jogos eram disponíveis para que o usuário jogasse em seu computador, mas basicamente ele era usado para tarefas mais simples como escrever. Até então, o som dos computadores eram gerados por pequenos auto falantes embutidos na CPU. A “Criative”, em 1987, já havia lançado uma placa de som com o nome de “Criative Sound System” para ser instalada no PC. Em 1989, a mesma Criative surge com a primeira placa cujo o nome é até hoje conhecido: a “Sound Blaster”. Mas foi em 1991, com o lançamento da “Sound Blaster Pro”, que o som no computador começa a mudar. Com a “Sound Blaster Pro”, o usuário tinha a possibilidade, junto a um mixer virtual, de equalizar o som e gravar com uma taxa de amostragem alta para a época. Foi o primeiro kit de som a vir com o drive de “CD-ROM”, microfone, caixa estreo e um kit de softwares. Demos agora um grande passo, o som para o cinema estava sincado, os jogos de vídeo game vinham evoluindo cada vez mais, e os computadores podiam fazer quase tudo. Tudo agora tinha som, os menus dos computadores, cada detalhe, cada movimento de um personagem nos jogos era sonorizado com os mínimos detalhes de modo que o usuário pudesse escutar e interagir, uma evolução no modo como o usuário percebe as novas mídias. Nesse ponto, o som passa a ter um papel muito importante dentro das novas mídias de comunicação, e novos equipamentos. Desde o som emitido ao ligar o Windows, até o som de alerta da chegada de um email, o som característico de um personagem de jogo para chamar a atenção do jogador, os ambientes montados para os filmes, fazendo com que o telespectador aguce seus sentidos e mergulhe no filme 6


como se ele estivesse lá, todos esse meios e modos como a percepção auditiva humana pode influenciar na produção de um som para um meio multimídia e o modo como deve ser feito, serão explorados nos capítulos seguintes. 2. Percepção sonora fundamental Após uma breve apresentação da história do som no audiovisual, trataremos de um assunto que pode ser considerado base para o desenvolvimento da pesquisa: a percepção sonora fundamental. O que notei nas pesquisas feitas, é que a literatura sobre comunicação em massa usa muito o conceito de subjetividade de modo simples, dizendo que cada sujeito interpreta os fenômenos físicos objetivos de modo quase que individualista, basicamente como se cada indivíduo sempre tivesse a visão oposta a um determinado assunto com relação a outro indivíduo. Porém, na psicologia da percepção, Guski encontrou alguns detalhes interessantes e diz: No entanto, a psicologia da percepção demonstrou de forma experimental, já há mais de meio século, que, quando não estão presentes determinadas condições especiais como ambiguidade, confusão, tensão, esgotamento etc, comprova-se sistematicamente que diante de estímulos idênticos os sujeitos coincidem em suas percepções dentro de margens muito definidas e estreitas. A relação entre as condições físicas externas e os resultados de percepção interna, portanto, é regular. (Guski 1992 apud RODRIGUEZ, Ángel, 2006, p. 133).

Portanto, segundo as palavras de Guski, podemos chegar a conclusão de que o subjetivo, na visão da comunicação em massa,

na

verdade é claramente objetivável. Imaginem, se não houvesse nenhuma coerência entre as percepções dos indivíduos receptores, a comunicação seria impossível, um caos. Posso citar aqui vários exemplos audiovisuais de que a percepção é objetiva e coerente: filmes como Ultimato Bourne, Assédio e Transformers são todos obras audiovisuais que, apesar de exibidos em várias regiões do mundo, 7


conservam exatamente sua trilha sonora, ambientes e efeitos. Claro que sem algum tipo de código universal, essas obras não poderiam ser exibidas mundialmente, pois não fariam sentido algum. Para isso, Rodriguez diz: Em outra palavras, toda sensação que se desencadeia no interior do sujeito como resposta a percepção de estímulos físicos externos objetivos e toda interpretação dessas sensações que o mesmo sujeito receptor fizer são objetiváveis, ou seja, formalizáveis como objeto de estudo científico. (RODRIGUEZ, Ángel, 2006, p. 134).

2.1 Dimensões Sonoras Para compreendermos melhor os processos de percepção sonora, vamos mostrar um pouco sobre intensidade, tom e duração do som, que atuam diretamente na interpretação perceptiva do sujeito receptor, trazendo informações importantes para a compreensão. Vamos então começar pelo limiar auditivo, ou seja, o limite de sensibilidade perceptivo. A psicologia da percepção usa três tipos de limiar: Mínimo, máximo e diferencial. Limiar mínimo: detectar a quantidade mínima estimulante em que o humano não capta o fenômeno físico. Limiar máximo: detectar a quantidade acima da capacidade onde o homem consegue escutar. Limiar diferencial: é onde o homem compreende e interpreta variações de uma maneira mínima, abaixo do limiar diferencial o homem não consegue compreender variações, tornando o som uma constante, apesar de haver variações. Vamos tratar esses três pontos com alguns dados numéricos importantes, relevantes para um melhor entendimento da intensidade. No limiar mínimo, sua intensidade é tida como o decibel (dB) a 1.000 Hz, isso 8


quer dizer que se tivermos a frequência pura de 1.000 Hz a menos de zero dB, essa frequência já não é audível ao ser humano. Porém, essa intensidade é variável de acordo com a frequência, no caso de 2.500 Hz ainda em -16 dB, podemos percebê-la. Com isso, podemos compreender que quando mais baixa a freqüência, mais ganho é necessário para que possamos perceber. No limiar máximo, podemos tratar também como limiar da dor, ou seja, a partir dele o som se torna agressivo causando dor ao aparelho auditivo. O limiar da dor, por esse fato, acaba sendo mais regular em termos auditivos: a partir de 130 dB, a variação não é percebida. Neste ponto de intensidade de 130 dB ou acima, a audição já é prejudicada e a sensação passa a ser apenas de dor. O limiar diferencial é bem variável de acordo com a frequência, tendo sua variação perceptiva média de +3 dB, que pode oscilar entre 2 dB e 10 dB em relação ao tom. Portanto, para que possamos notar a variação de intensidade sonora é necessário uma variação mínima de 3 dB, abaixo disso, a variação não é percebida. Todos esses dados numéricos que vimos são referentes a frequências puras. Agora, iremos abordar variações de intensidade de sons compostos, que é a soma das várias frequências referentes a algum som que escutamos no cotidiano. Claramente, podemos questionar, pois se em cada limiar existem variações, como compreendemos o som composto de acordo com a soma de frequências? Isso significa que escutar um som composto não corresponde exatamente a soma de intensidade de todas a frequências, mas sim uma soma ponderada de cada frequência. Nesse ponto, para se obter uma resposta numérica exata é necessário um decibelímetro, pois agora estamos atuando com pressão sonora, dB NPS (nível de pressão sonora), mais conhecido por sua sigla em inglês dB SPL (sound pressure level). Para que

9


possamos trabalhar, é necessário também uma tabela que relaciona as freqüências com seu volume em dB em uma escala logarítmica (ver Fig. 1).

Fig. 5 Tabela Disponível em: < http://wiki.sj.cefetsc.edu.br/wiki/images/7/74/Ficheiro_3.jpg> Acesso em: 03 nov. 2009

Através da tabela, notamos três tipos de curvas A,B,C, que são usadas como padrão de leitura de um decibelímetro. Para tiramos uma média, é necessário fazer o cálculo para cada freqüência relacionando com alguma curva média pré determinada. No audiovisual, é usada a curva A. Uma curiosidade, no caso da leitura para índice de ruído legislativo, é utilizada a curva C, que podemos notar que é mais sensível a freqüências graves. Abaixo (Tabela1), temos uma tabela que fornece uma média de decibéis A de ambiente sonoros cotidianos, interessantes para uma montagem sonora audiovisual. Descrição de fonte Limiar de audição

Nível dBA 0–5

Estúdio vazio

20 – 25

Sala de aula vazia

25 – 30

Ruído de fundo de uma casa em

30 – 24

10


silencio Conversa normal

40 – 55

Automóvel a 40Km por hora

45 – 50

Televisão no quarto

50 – 60

Carro no transito urbano

65 – 85

Caminhões no transito urbano

65 – 85

Britadeira

90 – 105

Avião a jato

105 – 130

TABELA 1: PRESSÃO SONORA EM AMBIENTES COTIDIANOS

Tratei acima sobre os sons compostos e o nível de pressão sonora. Agora, para continuar, falarei sobre a distância e a influência que ela causa na sensação de intensidade. Todo o fenômeno físico necessita de energia para que atinja um receptor, no caso, o aparelho auditivo e toda a caixa de ressonância que é o corpo humano. Porém, essa energia é suficiente até um certo ponto, ponto esse que quanto mais distante está da fonte sonora, mais o fenômeno vibratório diminui, até ser eliminado. Em números, isso quer dizer que a cada vez que se dobra a distância da fonte sonora, há uma perda de 6 dB, e claro ao contrário, cada vez que se diminui metade da distância, se ganha 6 dB. Um exemplo para ilustrar o que acabamos de ver: Se estivermos a 2 metros de uma fonte sonora a 80 dB, quando estivermos a 4 metros perderemos 6 dB, a 8 metros mais 6 dB, e assim por diante. A tabela 2 traz exemplos.

Distância

Intensidade

2m

80 dB

4m

74 dB

8m

68 dB

16 m

62 dB

32 m

56 dB

TABELA 2: RELAÇÃO DISTÂNCIA X INTENSIDADE

Esse fenômeno da diminuição da intensidade com relação à distância é muito importante para a abordagem no sound design, pois todo ser humano

11


tem uma bagagem de vida e tende a compreender esse distanciamento como um fato natural. Esse fenômeno poder ser usado facilmente com o distanciamento e a aproximação do microfone e o aumento ou a diminuição de volume. Ou seja, podemos garantir que qualquer receptor perceba a variação pois está acima do limiar diferencial. A tabela de distancia pode ser usada também durante uma gravação para criar a noção de movimentação e auxiliar como base no momento da mixagem. Dentro das dimensões sonoras é importante compreender o tom, ou limiar do tom. O ouvido humano é capaz de perceber uma gama de fenômenos vibratórios que vai de 16 ciclos por segundo a 20.000 ciclos por segundo, ou seja, de 16Hz a 20kHz (20.000 Hz). Acima ou abaixo dessas freqüências, o homem não tem a capacidade de percebê-las. Essas regiões são denominados Ultra-som, acima de 20.000 Hz, e infra-som abaixo de 16 Hz. O importante aqui para compreendermos o limiar é o limiar diferencial, pois o limiar máximo é onde paramos de ouvir, e o mínimo é onde começamos a ouvir. No limiar diferencial, no caso em 500 Hz, é necessário apenas 1 cps, ou seja, 1 ciclo por segundo para notarmos a diferença; de 500 Hz para 501 Hz, o ouvido humano é capaz de interpretar como uma mudança de tom. No caso de 1.000 Hz, é necessário 2 cps, ou seja, só começamos a notar a diferença quando o tom varia de 1.000 Hz para 1.002 Hz. Com isso, podemos notar que quanto maior a freqüência, necessitamos de intervalos maiores para notar a mudança de tom, e também podemos deduzir que a capacidade de resolução tonal do ser humano é muito maior do que a escala heptatônica definida pela música ocidental. Creio que junto ao limiar da audição, este item que iremos ver é um dos mais importantes para a montagem sonora de uma peça audiovisual, o Limiar do tempo. Aqui dividimos também em três limiares como os anteriores: o limiar mínimo se caracteriza de acordo com o tempo mínimo para que o som seja notado pelo ouvido humano. Para que nosso aparelho auditivo consiga notar esse som é necessário que ele tenha no mínimo 5 ms (milésimos de segundo). Notamos que no limiar da audição o inverso é notado mais facilmente, ou seja, um som constante com pausas de silêncio, 12


se reduzirmos aos poucos, notamos que uma pausa de 3 ms é o mínimo para que possamos notá-la. Dentro da intensidade, o tempo necessário para que o ouvido note a real intensidade do objeto sonoro é de 150 ms, e caso esse objeto esteja próximo ao limiar mínimo de intensidade, é necessário que o som dure 0,5 segundo. Quando tratamos de tom, o som deve ter mais que 0,1 segundo, pois se menos, notaremos o tom apenas como um clique. “Quanto ao timbre, para que seja possível reconhecê-lo, sua duração deve ser maior que 1 segundo (GUSKI, Rainer apud Rodriguez, Angel p. 48). No limiar diferencial de tempo é necessário pensar nos passos já colocados; o ser humano é capaz de notar variações de intensidade a cada 3 dB, que se tornam cada vez mais próximas umas das outras de acordo com o tempo até que a variação de tempo entre uma e outra fique reduzida mais ou menos a 7 ms. Portanto, percebemos entre 140 e 500 variações de intensidade a cada segundo. Caso a variação ocorra a menos de 7 ms, a sensação auditiva será de um som contínuo. O limiar máximo de tempo não foi definido, pois um som contínuo se torna estacionário, tendendo então o receptor a deixar de prestar atenção. Dentro disso, a atenção só voltará a ficar ativa em caso de alguma variação. “Poderíamos concluir que a variação é um instrumento essencial do estímulo sonoro para ativar o sistema perceptivo”. (RODRIGUEZ, Angel 2006. P. 149). Um fenômeno que pode ser usado a favor da montagem audiovisual é o Mascaramento, que é a “perda da sensação de presença auditiva de determinado som quando aparece um outro similar mais forte que o primeiro” (RODRIGUEZ, Angel 2006. P. 154). Isso significa basicamente que um som de intensidade maior ou igual esconde os outros que estão ao redor. Quando, por exemplo, estamos andando e conversando e passamos ao lado de uma britadeira, à medida que nos aproximamos, vamos nos escutando cada vez menos, até que não nos escutemos mais. Parece que o som da britadeira absorve o som das nossas vozes, e muitas vezes, os sons que estão à nossa volta. O interessante é que o fenômeno não é físico e, sim, fisiológico. Pesquisas mostram que a membrana basilar do ouvido é estimulada não 13


apenas pela frequência correspondente ao som simples, mas sim, é estimulada por inteiro, ou seja, todas as frequências ao redor do som simples em questão. O tom, na verdade, atua como freqüência central de uma banda mais larga ou menos larga nos nervos auditivos, mostrando que a membrana basilar reage do mesmo modo a um tom puro e de um som composto. 3. Ente acústico, receptor e compreensão. Quando o receptor percebe um som através de uma peça audiovisual, ele pode ou não reconhecer a fonte sonora, podendo assim cada uma dessas possibilidades produzir um fenômeno diferente do ponto de vista cognitivo. Porém, esse receptor, ao reconhecer a fonte sonora, faz com que o som deixe de ser um objeto sonoro e passe a atuar como a própria fonte sonora. Contudo, a fonte sonora não existe, o que existe é uma entidade sonora com um valor sígnico. Para que seja melhor compreendido, darei um exemplo: Com um som de matilha, ou seja, vários cães latindo, o receptor projeta em sua mente um conjunto de cães que, na verdade, não estão presentes e provavelmente nem sequer existam. Esse exemplo, podemos denominar como Ente acústico. Angel Rodriguez diz: “Denominaremos ente acústico qualquer forma sonora que, tendo sido separada de sua fonte original, é reconhecida pelo receptor como uma fonte sonora concreta situada em algum lugar de um espaço sonoro” (RODRIGUEZ, Ángel, 2006, p. 57).

O fato do receptor identificar uma forma sonora com um objeto físico concreto emissor de som implica necessariamente que este objeto esteja em algum espaço volumétrico. Com isso, o ato da construção de um ente acústico implica também na construção de um espaço sonoro em que está inserido. O fato que não podemos esquecer é que apesar do som vir sempre

14


de um fonte física, muitas vezes o receptor não está preocupado em identificá-la. Notamos, portanto, que o ente acústico se trata de um signo, pois a partir do momento que o receptor associa o som a algo, esse som se torna um registro. O ente acústico que tratei acima é um ponto chave para a montagem de uma peça, mas para entendermos melhor o receptor, vamos mostrar um pouco da concepção “schaefferiana de escuta” (SCHAEFFER, Pierre, 1988 apud RODRIGUEZ, Angel 2006, p. 248), que propõe quatro mecanismos diferenciais da compreensão do receptor: ouvir, escutar, reconhecer e compreender. O ouvir é o primeiro nível da audição, e com isso o mais simples. O aparelho auditivo simplesmente recebe as informações. O meio em que vivemos está repleto de vibrações sonoras que provocam uma variedade infinita de estímulos em nosso aparelho auditivo. Porém, esses sons não têm necessariamente que se tornar um modo de alerta para o receptor. Nesse caso, quando recebemos o estímulo e não prestamos atenção, estamos apenas ouvindo. Na verdade, a grande maioria dos estímulos que rodeiam um receptor no cotidiano passa completamente desapercebida. Só notamos um som pela variabilidade (visto nesse texto) ou pela familiaridade, ou seja, qualquer signo já impresso em nossa mente que de alguma maneira tem importância. Quando esse fato ocorre, passamos do modo ouvir para o modo escutar. O interessante é que nem por um momento sequer deixamos de ouvir. Esse fato se dá por um mecanismo de defesa que, ao receber algum estímulo auditivo relacionado a algum signo de perigo ou alguma variação diferente, é ativado. Podemos dizer que está relacionado também ao instinto de sobrevivência. Portanto, para que o receptor passe do ouvir para o escutar, basta uma variação no estímulo sonoro. O escutar consiste em retirar dessa variação sonora algo que nos traga alguma informação necessária. Um exemplo, você está no quarto assistindo a um filme, nota um ruído diferente, escuta para tentar reconhecê15


lo, sua atenção se vira para o ruído tentando saber se está se movimentando, se está próximo, em suma, se deve ou não preocupar-se em resolvê-lo. Escutar é prestar atenção no som para tentar identificá-lo ou interpretá-lo. O próprio som como fenômeno físico muitas vezes é completamente ignorado pelo receptor. Isso acontece a partir do momento em que a linguagem cotidiana tende a substituir o som por aquilo que o informa. Não dizemos “olha o som do celular”, “estou escutando o barulho da buzina do carro” ou “Nossa, o som do avião está cada vez mais alto”, mas sim, já associamos o som a sua fonte e dizemos, “o celular está tocando”, “o motorista esta buzinando”, “o avião está cada vez mais perto”. Parece que o som se apaga, e levamos em conta apenas suas fontes e causas. Reconhecer um som é identificar a forma associando à fonte sonora, buscar e encontrar em nossa memória uma forma semelhante à escutada, dando-nos uma explicação do que estamos a escutar. Reconhecer é ter desenvolvido processos para que o conjunto de reconhecimentos permita que eu analise apenas o som de interesse para o momento. Na linguagem audiovisual, o reconhecimento de um som implica na associação a uma fonte virtual, ou seja, o ente acústico. Com o som reconhecido, e o ente acústico montado, esse som cria seu próprio signo e já não é necessária a figura virtual, pois, o receptor irá reconhecer a fonte sonora através do som. Não podemos deixar de lado o fato de que nem sempre um som pode ser transformado em ente acústico, pois o receptor pode reconhecer certos tipos de som sem ter necessariamente reconhecido a fonte sonora, como no caso de um vidro quebrando. O receptor não necessita ver o vidro e nem o que o quebrou. Todavia, o compreender é o desenvolvimento da interpretação que se apóia primeiro na escuta e no reconhecimento, permitindo assim, obter a informação final que procuramos no som. Tratando a compreensão no audiovisual, muito frequentemente, a imagem e os recursos sonoros são unidos para trilhar um caminho interpretativo fazendo com que o 16


telespectador possa captar o sentido da obra. Portando, os sons usados na peça audiovisual devem ser compreendidos pelo telespectador de acordo com a proposta do narrador, pois se não, de nada adianta. Com isso, é possível criar vários jogos que levam o telespectador a compreender a situação criada, por exemplo: Se o pingar de uma gota, contínuo e insistente, em uma cela com um homem acorrentado, cheio de agonia, machucado, for interpretado como uma simples goteira no canto, ao invés de ser compreendido como um signo de agonia, perturbação, a narrativa terá sido em vão. Contudo, a compreensão é ir além da fonte sonora, é criar um outro nível de sentido a partir daquilo que ouvimos dentro de um contexto narrativo. Nas formas sonoras lingüísticas, reconhecemos a primeira associação simples do sentido. Reconhecer a palavra maçã, nos traz a imagem básica do fruto. Porém, dentro de um certo contexto, dentro de um discurso com determinada atitude sonora, alcançaremos não apenas o simples reconhecimento, mas sim uma imagem elaborada. Esse resultado é a junção complexa de informações sonoras, a compreensão. 4. Narração sonora no audiovisual e sua montagem Vimos até aqui vários conceitos que nos mostraram como se comporta a percepção auditiva. Agora, veremos como o som contribui para a audiovisualidade e alguns aspectos que não podem ser esquecidos em uma montagem audiovisual. Michel Chion define o conceito de valor agregado: “Por valor agregado designamos o valor expressivo e informativo com o qual um som enriquece uma imagem dada” (CHION, Michel, La audiovisión: Introduccion a un análisis conjunto de la imagen y el sonido, 1993 p.16). Essa visão é muito clara e importante, porém devemos ter uma visão maior do que apenas enriquecer a imagem, pois o som não enriquece a imagem, mas sim modifica a percepção global do telespectador, ou seja, um enriquece o outro. O que um narrador audiovisual deve ter em mente é que o áudio não atua em função da imagem. Ele fornece informações para que o receptor 17


possa processar e organizar o ambiente em que a obra se encontra, permitindo, assim, que a imagem siga uma linha coerente. Podemos fazer alguns testes, como, por exemplo, assistir a alguns filmes com e sem o som, poderia ser um filme épico, um suspense, enfim, qualquer um. Podemos inclusive brincar de trocar as trilhas e, com isso, notaremos que o sentido do filme pode ser facilmente modificado. O que temos que compreender é que o som em uma narração audiovisual não é genérico nem supérfluo. Contudo, podemos tratar o áudio na narrativa audiovisual em três pontos: 1.

Transmite com precisão sensações espaciais.

2.

Conduz a interpretação do conjunto audiovisual.

3.

Organiza narrativamente o fluxo do discurso audiovisual. Vamos apontar alguns detalhes para a melhor compreensão

dos três pontos acima. 1. Transmissão de sensações espaciais. Muitas pessoas e até profissionais da área audiovisual tendem a pensar que a visão é o sentido que, exclusivamente, nos dá a relação de percepção espacial, porém, é a grande capacidade que o ouvido tem de interpretar volumes espaciais decorrentes dos reflexos sonoros do ambiente que nos propicia as sensações espaciais. Por exemplo, um salão de castelo medieval, sem o reverb natural, sem os reflexos sonoros, não seria um salão, mas sim, se estivermos de olhos fechados, uma salinha. 2. Condução da interpretação audiovisual. Quando se unifica uma narrativa sonora a uma narrativa visual, ou uma narrativa visual a uma narrativa sonora, cria-se uma simbiose entre ambas, e, com isso, uma nova mensagem pode ser criada, porém se vistas separadamente, cada uma segue um caminho diferente. Na maioria das vezes, uma peça audiovisual começa pelo seu aspecto visual, porém o produtor sabendo do poder do áudio recorre ao som para poder obter efeitos perceptivos não alcançados apenas com a imagem. Assim, podendo direcionar, 18


através da junção das duas ferramentas, o telespectador à interpretação correta. Por exemplo, uma casa mal assombrada pode facilmente ser somente uma casa velha caindo aos pedaços caso o som não traga um ar de mistério através de uma trilha, ou ruídos assustadores. 3. Organização do fluxo narrativo audiovisual. A organização audiovisual é, com certeza, o uso mais racional que o produtor faz do som, sendo diretamente ligada à coerência perceptiva. Como já vimos, todo nosso sistema sensorial sabe que uma mudança brusca significa o final de um fenômeno e o começo de outro. Sendo assim, os produtores buscam agrupar e separar os materiais visuais em sequências coerentes usando o áudio. É por isso que um mesmo grupo de vários planos visuais pode ser compreendido como uma sequência única, ou como diversas sequências separadas, conforme a manipulação que se tenha feito do som. Spots publicitários, se analisados sem o som, costumam se transformar em uma chuva de imagens desordenadas com apenas algumas ligações visuais vagas e confusas. Toda pessoa tem em sua memória auditiva uma associação imediata e lógica entre os espaços, como o distanciamento e a aproximação das fontes sonoras e as intensidades que emanam. É comum lembrarmos a relação que existe entre movimentos das fontes sonoras e sua direção, ou o volume do local onde se encontra a fonte sonora e a sensação de reverberação. Porém, essa fenomenologia se complica quando deve ser reproduzida nas narrações audiovisuais. As narrações cinematográfica e televisiva nos dias de hoje estão constantemente se movimentando. Para certa narrativa em apenas uma situação, intercalam-se planos abertos, fechados, planos em movimento, planos parados, planos gerais, planos em primeira pessoa etc. Toda a reconstrução sonora desses pontos de vista, de maneira que soem como um ser humano escutando, exige as mesmas quantidades de mudanças dos planos. Surge aí uma dificuldade: o microfone deve ficar preso na câmera 19


ligado ao plano? Ou o microfone deve ficar solto utilizando uma lógica diferenciada? O que se nota é que a tecnologia e a possibilidade de montagens separadas nos permitem criar diferentes trabalhos de linha narrativa que, ao serem unidas com certa frequência, mantêm o efeito global da lógica perceptiva humana. O que podemos notar é que, para construir um universo narrativo, não basta apenas usar a intuição do narrador, mas se faz necessário estudar e criar sistemas para que tenhamos bases firmes para uma montagem audiovisual. Como vimos, vários sons cotidianos tornam-se signos que remetem a configurações espaciais vindas de diversas fontes sonoras, criando assim ambientes volumétricos. Sabemos também que a tecnologia nos permite manipular uma série de fatores dentro do som, e com isso vem a possibilidade da manipulação, podendo assim produzir artificialmente ambientes virtuais. Como consequência dessas manipulações, é possível produzir na mente dos receptores sensações realistas de qualquer ambiente, desde túneis até um quarto pequeno, seguindo exatamente o caminho percorrido pelo narrador. A seguir, apontarei alguns fatores importantes que não podem ser esquecidos para, assim, permitir que o narrador provoque sensações realistas no receptor. Um dos itens importantes para que um sound design seja bem montado é o ambiente que comentamos acima. O ambiente, como vimos, é percebido por sons dentro de um espaço volumétrico. Nesse espaço, existem uma série de entes acústicos dispostos que se diferenciam entre si de acordo com alguns fatores a seguir. Ao manipularmos a intensidade abaixando ou aumentando o volume, criamos uma sensação de distanciamento e aproximação. Porém, como vimos, esse método não é tão simples assim. Devemos nos lembrar da regra dos 6 dB, que, como vimos, consiste na diminuição de 6 dB a cada vez que nos afastamos o dobro da distância, e vice-versa. O fato é que se simplesmente utilizarmos essa técnica ainda estaremos cometendo alguns erros, pois, se analisarmos corretamente, poderemos notar que ao usar essa 20


técnica, o som é manipulado de uma forma homogênea, deixando sua composição espectral exatamente igual, apenas com o volume diferente, porém não podemos nos esquecer que acusticamente isso não ocorre, pois, as frequências perdem energia viajando. Então podemos dizer que a composição espectral é afetada pelo distanciamento de duas formas diferentes: 1. A intensidade das frequências graves se atenua muito mais rápido que as frequências agudas, de maneira que o som produz ao ouvido uma impressão espectral cada vez mais clara, conforme a fonte sonora se distancia do ponto de audição. 2. Se o som é produzido em um espaço fechado, a diferença entre a intensidade do som que vem diretamente da fonte e a do som refletido nas paredes é cada vez menor, de modo que, quanto mais a fonte sonora se distancia do ponto de audição, mais é perceptível para o ouvido a reverberação desse espaço. Tratamos de como criar e quais os fatores que implicam para que possamos fazer com que o telespectador tenha a sensação de distanciamento, mas um ambiente não é apenas as distâncias, ainda temos alguns fatores a ser tratados, com os movimentos em um espaço sonoro. O fenômeno acústico causado pela aproximação e distanciamento é muito semelhante ao dos movimentos. A grande diferença é que a intensidade do ambiente acústico-perceptivo, em vez de permanecer estáveis, variam de maneira progressiva. Com o modelo estereofônico, e até mesmo o surround, é possível que os entes acústicos se movimentem de um lado para o outro, ou até mesmo, em volta do telespectador. Com essas técnicas, é possível criar quase que qualquer localização para um som. Imaginemos um cachorro com respiração ofegante caminhando à nossa volta. Quando ele está do nosso lado esquerdo, a intensidade é forte e quase não o escutamos com o ouvido direito. O que escutamos no ouvido direito é o som defasado acusticamente pela volta que ele dá entorno da cabeça. Porém, se o cachorro der a volta por trás, o som vai se movimentando, e a intensidade mudando de local. Assim, a intensidade vai aumentando no ouvido direito 21


que passa a escutar mais claramente, enquanto o ouvido esquerdo passa a escutar apenas a defasagem. Essa variação de intensidade que percebemos ao sermos rodeados por um som acontece única e exclusivamente pela distância e massa existentes entre um ouvido e outro. Essa capacidade de resolução temporal do sistema auditivo humano (entre 0,002 segundo e 0,007 segundo) situa essa defasagem de tempo entre os dois ouvidos juntamente a capacidade de detectar diferentes intensidades entre 2 dB e 3 dB. Essa sensação pode ser chamada de sensação sonora de lateralidade. Alten explica que: “o sistema auditivo utiliza dois sistemas diferentes para perceber a direção de que vem o som: nas frequências altas reconhece a direção de que vem o som; nas frequências baixas recorre à diferença temporal” (ALTEN, Stanley R. El manual del áudio en lo meio de comunicación, 1994 p.33).

Todo o trabalho de lateralidade feito hoje em dia é feito através do balance do canal, ou pan, porém, seria muito interessante utilizar a variabilidade perceptiva entre um alto falante e outro para definir com precisão os efeitos da combinação de diferenças entre o som de ambos os auto falantes, ou mais, sobre as sensações acústico espaciais. Quando trabalhamos com vários entes acústicos, ou invés de apenas um, situados todos em um mesmo ambiente acústico, desde uma geladeira, até um pequeno ratinho roendo um pedacinho de pão velho, abre-se uma nova possibilidade narrativa: a construção de perspectivas espaciais. Já havíamos falado, de sensações, distância, intensidade e movimento, mais ainda não de profundidade ou perspectiva. Para criarmos efeitos de profundidade em um ambiente através do sound design, iremos usar alguns pontos vistos. Usando três entes acústicos referenciais que estejam parados com intensidades diferentes, ao inserir novos entes acústicos, podemos utilizar as técnicas de intensidade para distanciá-los, o balance para movimentá-los ou posicioná-los em algum canto, caso se movimentem, podemos usar a direcionalidade das frequências agudas, os graves para a

22


sensação de tempo e proximidade. O uso dessas técnicas implica automaticamente em uma tendência natural, a coerência perceptiva. Nesse caso, as possibilidades são infinitas, claro que não se pode esquecer de utilizar como auxílio, as regras já vistas. Usando tudo o que vimos, mais esse item, creio que poderemos ter uma boa base para montar um sound design que remeta à realidade e que influencie o telespectador a seguir a narrativa e, com isso, podendo influenciar muito nas sensações finais sentidas pelo receptor. Veremos então a seguir, o volume espacial. O volume espacial é determinado pela combinação do efeito perceptivo de distância com o efeito perceptivo produzido pelos reflexos do som. Com a capacidade de resolução temporal dos sons, nosso aparelho auditivo tem a capacidade de diferenciar com muita exatidão os sons diretos dos refletidos. Um tipo de reflexão que é muito usado e ajuda em qualquer montagem narrativa é a reverberação, que surge a partir de vibrações sonoras produzidas em um ambiente fechado que são refletidas muitas vezes ao serem rebatidas pelas paredes. A reverberação possui três dimensões definidas: 1. O tempo em que o primeiro reflexo demora para voltar ao ponto de partida (primeiro reflexo). 2. O tempo que o som demora para acabar após a fonte sonora ter parado (tempo de reverberação). 3. A relação entre as frequências originais que são absorvidas pela parede e as que foram refletidas (coeficiente de absorção sonora). As duas primeiras estão diretamente ligadas ao tamanho da sala, e a terceira, à dureza da sala. Então, podemos dizer que quanto maior a sala, maior a reverberação, pois o som original demora mais para chegar na sua 23


fonte sonora, obviamente isso depende diretamente do nível de absorção da sala, ou seja, de sua dureza. Portanto, o tempo de reverberação depende simultaneamente dos outros dois. O que acontece é que nossa memória auditiva associa automaticamente que uma reverberação grande condiz com uma sala grande e vice-versa. A seguir, mostrarei uma tabela convencionada de tempo de reverberação que é muito útil para a montagem do sound design. Tipo de espaço

Tempo de reverberação em segundos

Estúdio de gravação

0,4 – 0,6

Salas de aula

0,5 – 0,9

Auditórios para palestra

0,8 – 1,2

Cinemas

0,7 – 1,3

Teatros pequenos

1,1 – 1,5

Salas de concerto

1,1 – 2,3

Igrejas

1,8 – 2,5

Catedrais

2,4 – 3,3

TABELA 3: Índice de reverberação em espaços

Existe também uma vasta quantidade de materiais absorventes que, dependendo de sua natureza, faz com que o som se comporte de maneiras diferentes. Mas um fato é consolidado e pode nos ajudar muito (pois a quantidade de índices de absorção é imenso): Quando escutamos uma reverberação que nos dá a impressão de brilho, ou mais aguda, imediatamente associamos a lugares de paredes dura, ao ponto que, se a reverberação é mais escura, ou com menos agudos, associamos a um lugar com paredes macias, como por exemplo, cortinas. Chegamos aqui a um ponto em que temos uma quantidade enorme de informações, que se forem usadas irão, com toda certeza, provocar as sensações pretendidas no sound design, fazendo com que o telespectador se sinta completamente envolvido pela obra.

24


Acredito que, apesar de vários autores terem escrito sobre assuntos semelhantes, que ajudaram nessa obra, existe ainda no meio audiovisual um descaso muito grande com o som, que se usado com clareza, pode criar muitas e muitas obras de alta qualidade, e não esquecer nunca de que o som enriquece a imagem e a imagem enriquece o som. Posso afirmar que esse estudo tem ainda muito o que ser pesquisado, pois pode fornecer muitas informações tanto para psicologia da percepção, quanto para as narrativas audiovisuais através do sound design.

Referências: WEISS, Donald. Como Escrever com Facilidade. São Paulo: Círculo do Livro, 1992. ALTEN, Stanley R. El manual del audio en los medios de comunicación. Andoain: Ed. Escuela de cine y video de Andoain, S.L. 1997. CHION, Michel. La audiovisión: introducción a un análisis conjunto de la imagem y el sonido. Barcelona: Ed. Paidos Ibérica, 1998. COSTA, Fernando Morais. O som no cinema brasileiro. Rio de Janeiro: Ed. 7Letras, 2008. HENRIQUES, Fabio. Guia de Mixagem . Rio de Janeiro: Ed. Áudio & Tecnologia, 2007. RODRIGUEZ, Angel. A dimensão sonora da linguagem audiovisual. São Paulo: Ed. Senac São Paulo, 2006. ROEDERER, Juan G. Introdução a física e psicofísica da musica. São Paulo: EdUsp, 1998. SCHAFER, Murray. A afinação do mundo. São Paulo: Ed, Unesp, 2001. SCHAEFFER, Pierre. Tratado dos objetos musicais. Brasília: Editora da UNB, 1993.

25

INFLUÊNCIA DO SOM ATRAVÉS DO SOUND DESIGN  

Pesquisa sobre sound design

Read more
Read more
Similar to
Popular now
Just for you