Introdução
Músicos reais são seres humanos, provam estudos recentes.
Os seres humanos sentem coisas e têm emoções. A música que nos faz sentir coisas ainda é feita, acredite ou não, por seres humanos.
Isso nos traz de volta ao início: músicos reais podem ser a chave para criar os sentimentos que temos ao ouvir música.
Esse tipo de teorema elíptico e virtuosístico está na base de um problema recorrente na produção musical: muitas pessoas escrevem e arranjam músicas que envolvem o som de músicos reais, mas não podem pagar para contratar músicos reais.
Se seguirmos minha afirmação inicial, poderíamos concluir que poucas pessoas podem pagar para ter sentimentos e emoções em sua música. Mas não! Para o bem ou para o mal, a tecnologia está aqui para ajudar (nota: leve sarcasmo).
Como pianista e tecladista, eu era apenas uma criança quando o MIDI começou a florescer e todo tipo de sons foi disponibilizado ao meu alcance. De repente, eu podia ter uma orquestra completa ou as percussões mais estranhas para tocar, sob as mesmas teclas pretas e brancas que eu havia usado para meu piano acústico. Os anos se passaram e de amostras de 4MB chegamos a bibliotecas que exigiriam um disco rígido inteiro.
Amostrando cada articulação, as bibliotecas de samples modernas conseguem recriar meticulosamente todos os aspectos timbrais de um instrumento. Algumas delas são caras e pesadas para nossos sistemas, mas estão, ainda assim, aqui e soam incríveis.
Como qualquer boa série de TV de ficção científica, exatamente quando parece que a humanidade foi dominada pelas máquinas e tudo parece perdido, uma trilha sonora épica entra em ação (ironicamente feita com bibliotecas de samples) e a maré da batalha muda. No fundo, uma voz continua a nos lembrar que há algo sobre os seres humanos reais que simplesmente não pode ser capturado em uma amostra.
Então, hoje, mesmo que tudo e qualquer coisa já tenha sido amostrado, produtores de música profissionais e estúdios estão frequentemente cuidadosamente misturando performances “virtuais” e “reais”. E o que acontece quando você precisa do som de uma orquestra real?
Um dos meus primeiros trabalhos como músico nos anos 90 foi auxiliar um maestro e sua orquestra durante gravações e mixagens para alguns dos artistas pop mais famosos da Itália. A maioria dos melhores estúdios e arrangers/compositores da época usavam bibliotecas de samples para estabelecer o som orquestral básico e depois contavam com músicos reais para sobreescrever instrumentos reais.
A ideia era obter o peso e a massa do corpo orquestral da biblioteca de som virtual e os detalhes, realismo e ambiente de músicos reais.
Neste artigo, vamos nos concentrar em sobregravar violinos, já que recentemente trabalhei exatamente nisso. No entanto, as técnicas e truques que vou explicar aqui podem ser usados a seu favor para qualquer instrumento sempre que você precisar que versões “virtuais e reais” coexistam e se misturem.
O Ponto de Partida
Há algum tempo, o compositor e amigo Noe trouxe para meu estúdio uma peça de trilha sonora curta que apresentava cordas orquestrais e uma faixa de piano, com o objetivo de sobregravar violino real para alcançar um som mais emocional e realista. A base da faixa já é muito boa. Vamos ouvi-la como foi trazida para mim, apenas somando os stems brutos como foram importados no Pro Tools.
Preparando a Sala de Gravação
O próprio Noe vai tocar violino sobre esta faixa, então temos uma clara vantagem interpretativa de ter o compositor e o performer sendo a mesma pessoa.
Para a gravação, configurei dois pares de microfones na sala de gravação maior. Esta sala tem quase 50m², é retangular e construída do chão para cima (proporções incluídas) para ser usada para este propósito. Como você ouvirá nos exemplos brutos, foi tomado grande cuidado para manter um pouco do rastro de reverberação natural e evitar um som morto. Mas para instrumentos orquestrais, este ainda é um ambiente muito controlado em comparação com câmaras orquestrais clássicas e salas de concertos.
A primeira coisa que fiz foi colocar quatro cadeiras na sala e etiquetá-las como “Frente Esquerda”, “Frente Direita”, “Traseira Esquerda” e “Traseira Direita”. A ideia é capturar o performer quatro vezes tocando a mesma parte exata, com o propósito de misturar diferentes “pontos de vista” para atingir aquele som de conjunto.
Para os microfones, decidi usar um par “próximo” (Neumann KM-184s), posicionados perto das cadeiras e um segundo par “distante” (Lauten Atlantis), muito alto e muito longe (quase 6 metros, para mais ou para menos). Gosto de gravar cordas “olhando para elas” de cima. Meu pensamento é que o som que ressoa do instrumento no ombro do performer tende a brilhar e se expandir verticalmente, como o ar quente.
Os 184s foram enviados para um Mindprint DTC e os Atlantis para um par de Neve 1073s. Nenhuma compressão foi usada, mas os 184s foram equalizados pelo DTC e os Atlantis por um EQ Roger Schult w2377.
Em ambas as equalizações, a ideia é filtrar algumas das frequências muito baixas e abrir o ar nas frequências mais altas. O Atlantis, sendo distante, consegui aumentar de 4-5dBs tudo em 23k e nos 184s fui mais cauteloso, já que sua posição mais próxima poderia fazer o conteúdo de alta frequência gritar um pouco. No entanto, o caráter de tubo do Mindprint complementou a detalhe e precisão dos 184s.
O Mindprint DTC (para o Par Fechado) e o Roger Schult w2377 (para o Par Distante) durante a gravação
Acabamos com 4 boas tomadas para cada cadeira, totalizando 64 faixas (32 pares estéreos) se você estiver contando.
Hora de Editar
- Não importa o quanto você odeie, o segundo fator mais importante para fazer essas faixas se misturarem é compilá-las.
- Primeiro, agrupei os dois pares gravados por nome da cadeira, de modo que qualquer edição que eu fizesse no grupo fosse transferida para cada microfone usado naquela tomada específica.
- Em segundo lugar, ouvi uma cadeira de cada vez em busca de erros e problemas. Compilei cada tomada para criar uma performance geral boa para cada cadeira.
- Em terceiro lugar, comparei cada uma com a parte da orquestra virtual que já estava lá, anotando disparidades em dinâmica, tempos de ataque e release, portamento etc.
- Em quarto lugar, adicionei fade ins e outs a todas as tomadas (em grupo, novamente) enquanto ouvia a faixa de acompanhamento original para que as performances se misturassem com a original.
- Por fim, ouvi novamente todas as cadeiras em solo, primeiro as próximas e depois as distantes, para garantir que as cordas reais funcionassem sozinhas.
Uma consideração muito importante antes de irmos para os clipes de áudio: uma boa dose de gosto sempre está envolvida, e isso só se desenvolve ouvindo o trabalho dos outros e fazendo isso milhões de vezes. Embora um método sólido seja fundamental, proceder de uma maneira apenas matemática na edição fará você remover todo o fator humano das gravações, derrotando completamente o propósito original.
Vamos ouvir como o violino soava, completamente bruto, nos dois pares de microfones. Eu escolhi as cadeiras da Frente Direita e da Traseira Esquerda para dar uma ideia de duas lados opostos. Tente identificar as pequenas imperfeições que eu valorizei nessas tomadas.
Vamos comparar duas cadeiras opostas entre os dois pares de microfones, primeiro:
Agora vamos ouvir como todas as cadeiras soaram nos dois pares diferentes.
E finalmente, vamos ouvir como ambos os pares soam quando apresentam todas as cadeiras que gravamos.
O que usar? Próximo, distante ou ambos? Todas as três soluções funcionam e/ou podem ser feitas para funcionar, não se preocupe. É um pouco cedo demais para decidir, nós vamos resolver isso mais tarde.
Processamento
Trabalhar no som dessas tomadas pode parecer um pouco diferente do fluxo de trabalho habitual, mas para mim é baseado em um princípio simples que sempre emprego: prioridades.
Reverberação e Panoramização
Neste caso, eu queria trabalhar na reverberação e posicionamento espacial o mais rápido possível. Em um caso como este, gosto de usar o Waves S1 Imager. Em uma orquestra real, você teria os Primi (Primeiros Violinos) e Secondi (Segundos Violinos) ligeiramente à esquerda, as violas e chellos ligeiramente à direita e o contrabaixo logo atrás deles, um pouco mais à direita. Isso obviamente não é uma regra (há muitas variações sobre este tema), mas ao ouvir a faixa de acompanhamento, percebi que essa regra geral de posicionamento foi respeitada, então minhas cordas reais tinham que seguir.
O S1 Imager usado para posicionar Todas Próximas (esquerda) e Todas Distantes (direita) no campo estéreo
Fiquei animado para colocar o novo Exponential Audio R4 à prova. Criei duas reverberações diferentes (convenientemente chamadas rev1 e rev2), com a ideia de que a segunda fosse muito mais escura e com um pré-delay maior, mas ainda baseada nos mesmos parâmetros principais da rev1.
Eu queria acentuar a diferença entre os microfones próximos e distantes, enquanto ainda estivéssemos no mesmo espaço virtual.
As duas reverberações, conforme usadas na sessão
Preparando a Faixa de Acompanhamento
Depois que isso foi feito, eu queria preparar a faixa de acompanhamento. Primeiro, decidi abaixar os Primi em cerca de -7dB, o que significa que nós vamos substituir principalmente os Primeiros Violinos pelos nossos reais. Então, tudo o que fiz foi realmente minimal, exceto pelo que fiz nos contrabaixos. Queria enfatizar as extremas baixas no típico equilíbrio de “trilha sonora de filme” que você ouve nos cinemas. Afinal, isso será usado para uma sequência cinematográfica.
Vamos ouvir a faixa de acompanhamento completa (sem cordas reais adicionadas ainda) após meu processamento.