10 Tipps zur Bearbeitung von Vocal-Aufnahmen (persönliche Erfahrung)

1. Kompression

Keine Vocal Aufnahme kommt im Mix ohne Kompression aus. Sie ist nicht nur notwendig, um Lautstärke Unterschiede zwischen Vokalen und Konsonanten auszugleichen, sie gleicht auch schwankende Abstände zum Mikrofon aus und bringt die Stimme in der Vordergrund. Da Stimmen grundsätzlich ziemlich langsame Transienten (Attacks) haben, kann man beherzt zur Sache gehen. 10 bis 12 dB rein in die Kompression mit einem Ratio von 4:1. Aber Vorsicht, es gibt auch Nebenwirkungen.

Durch eine starke Kompression werden Nebengeräusche, wie Atmer und die dröhnende Bohrmaschine des Nachbarn mit in der Vordergrund geholt.

 

2. Equalizer

Natürlich benötigt man einen EQ, um den Stimmensound zu optimieren; zunächst ein Hochpassfilter ab ca. 50-70 Hz.

Die Anhebung der Höhen, sollte mit Bedacht geschehen, denn man verstärkt damit die scharfen „S“ Laute. Daher verwende ich gern einen dynamischen EQ, der an den kritischen Stellen die Verstärkung aussetzt. Ich behaupte mal: Wenn ein gutes Mikrofon verwendet wurde, ist hier nicht so viel zu tun.

Es kann hilfreich sein, die Grundfrequenzen etwas zu reduzieren, etwa zwischen 100 und 200 Hz. Das erledige ich auch meist dynamisch mit einem Multiband- Kompressor. Hierbei sollte man den Stimmensound nicht zu sehr „aushöhlen“.

Die Reduktion von Resonanzen wird gern überschätzt. Sind Raumresonanzen in der Aufnahme, dann wird kein Eq sie wirklich beseitigen. Oftmals erhalte ich DAW Sessions zum Mixdown, in denen wilde Filtereinstellungen zum Vorschein kommen. Letzten Endes ist nicht entscheidend, wie die Stimme solo klingt, sondern wie sie sich in den Mix einfügt.


3. De-Esser

In den meisten Fällen wird die Verwendung eines De-Essers notwendig sein. Ich habe schon viel Zeit mit diesem Thema verbracht. Meistens geht es darum, einen brauchbaren Kompromiss zu finden. Im Fokus steht eine Frequenz von ca. 8000 Hz . Das Ausmaß hängt u.A. vom Text und von der Qualität des Mikrofons ab.

Ein De-Esser ist im Prinzip ein dynamischer Kompressor, der sehr schmalbandig nur eine Frequenz reduziert. Auch hier ist Vorsicht geboten. Bei zu starkem Einsatz wird aus einem „S“ ein „Ch“, was furchtbar klingt.

Wenn es notwendig wird, dann editiere ich einzelne Problemstellen sozusagen im Stand mit einem speziellen Programm, das mit die Wellenform als Furie-Analyse anzeigt.


  1. 4.Timing (Micro-Timing)

Das Timing bzw. die rhythmische Phrasierung ist wichtig, logisch. Manchmal ist es o.k. Wenn einzelne Silben etwas zu spät (Laid Back) kommen, aber zu früh ist meist fatal (klingt unmusikalisch). Ordentliche DAWs wie Logic, Cubase, Pro Tools etc. sind in der Lage Transienten in einer Audio Aufnahme zu identifizieren. Sie kann man händisch zeitlich versetzen (rücken), oder sogar von der Software quantisieren lassen. Dabei werden die Transienten automatisch auf das nächste Achtel, oder Sechzehntel (je nach Einstellung) gerückt.

Aber wie so oft bei automatischen Lösungen, führen sie nicht zum optimalen Resultat.

Wirklich wichtig werden Timing-Korrekturen bei dem Zusammenspiel mehrere Stimmen. Sie sind nur in den seltensten Fällen wirklich exakt aufeinander und benötigen so etwas Bearbeitung. Die positiven Auswirkungen auf den Sound rechtfertigen eine relativ langwierige Zuwendung.

Bleibt noch zu erwähnen, dass bei diesem Vorgang je nach Ausmass einzelne Silben gestreckt und andere gleichzeitig gestaucht werden. Das kann zu Glitches (hörbare Artefakte) führen. Wie stark sie hörbar sind hängt u.A. von der begleitenden Musik ab, genauer gesagt von der Frage wie stark/gut die Musik diese Glitches verdeckt.

5. Nebengeräusche

Wie bereits erwähnt wird Kompression Nebengeräusche, Atmer und die Feuerwehr, dir draußen vorbei fuhr überproportional hörbar machen. Eine Gegenmaßnahme ist das Muten, also Stummschalten der Spur zu allen Zeitpunkten an denen die Stimme nicht aktiv ist. Das kann händisch mit Hilfe der Mute-Funktion erledigt werden, oder man nimmt ein Noise Gate zur Hilfe, Es öffnet die Spur nur dann, wenn die Stimme tatsächlich etwas zu sagen hat. Dabei ist der Threshholt und die Release-Zeit mit bedacht zu wählen, damit nichts wichtiges verloren geht. Wenn eine Stimme aus dem Nichts beginnt, ohne dass man einen Atmer zumindest ein bisschen hört, dann kann das unnatürlich klingen.

Zur Beseitigung einzelner Geräusche Knacker, Zischen, etc..gibt es spezielle Software. z.B. iZotope RX 10

6. Delay Effekt

Wenn es darum geht eine Stimme größer klingen zu lassen, dann ist das Delay eine gebräuchlicher Effekt. Sinnvoll ist es die Delayzeit vom Tempo abhängig zu machen. Die meisten DAWs bieten automatisch Viertel- Achtel- oder Delays in halben Taktzeiten an. Manchmal verändere ich diese angepassten Delay-Zeiten um ein Winzigkeit, denn genau auf den starken Taktzeiten spielen die Bassdrum, die Snare, die Hihat etc. Sie verdecken gern die Delays.

Ich verwende gern Pan-Delays. Die Wiederholungen kommen dabei abwechselnd von links und rechts. Dadurch geht der Sound in die Breite.

Alternativ sind Delays relativ leise im Hintergrund. Auch sie lassen die Stimme größer erscheinen, ohne dass die Wiederholungen bewusst wahrnehmbar sind. Ein musikalisches Stilelement ist das sog. Elvis- Echo. Das ist ein Delay mit einer Verzögerungszeit von ca. 150 Millisekunden. Dies gibt einen spezifischen „Vintage Flair“

7. Reverb

Kaum eine Gesangsaufnahme kommt ohne Reverb Effekt aus. Selbst bei Rap-Vocals verwende ich manchmal einen kleinen Raum, der die Stimme etwas größer und präsenter erscheinen lässt, ohne dass man den Effekt bewusst wahrnimmt.

Für alle anderen Fälle ist der Reverb sozusagen Pflicht. Wie groß und wie viel Anteil ist eine stilistische- und eine Geschmacksfrage. Oftmals muss es etwas mehr sein, als man bei eine Stimme Solo gehört annehmen mag, denn die spielende Musik verdeckt einen Anteil des Reverbs. Tendenziell kann man sagen, dass langsamere Titel mehr und größere Räume vertragen als Uptempo Songs.

Früher war es aufwendig und teuer, einen wirklich gut klingenden Reverb zu generieren. Die enorme Leistungsfähigkeit selbst eines stinknormalen Rechners ermöglicht inzwischen wirklich super klingende Reverb Plug-ins für kleines Geld. Mein aktueller Liebling ist das _Rev_Lx 24 von Arturia. Es emuliert den Klang des berühmten Lexicon 224, wobei ich sagen kann, dass die Software um einiges besser klingt und vielseitiger ist, als das Original (mit dem ich 10 Jahre lang gearbeitet habe).

8. Modulationseffekte

Modulationseffekte wie Phaser, Flanger und Chorus sind geeignet, um einen Stimmensound in die Breite zu bringen. Sie klingen allerdings manchmal zu auffällig.

Um einen Stereo-Effekt für eine Stimme zu erreichen gibt es spezielle Setups, die aus einer Kombination von Mikro-Pitch und Delay bestehen. Dabei werden zu dem originalen Signal zwei Kopien generiert, die auf der Linken Seite eine Winzigkeit in der Tonhöhe angehoben werden und auf der rechten Seite entsprechend herab gesetzt. Zusätzlich werden diese Signal nach um wenige Millisekunden verzögert.

9. Der Autotune Effekt

Ich unterscheide hier zwei verschiedene Anwendungsarten.

Das ist zu einen die Korrektur von kleinen Intonationsschwächen, und zum anderen den berühmten „Cher-Effekt“.

Um Intonationsschwächen auszugleichen, gibt es zwei Möglichkeiten. Man kann dies einer Software überlassen, die in Echtzeit bei der Wiedergabe einzelne Töne auf den nächstliegenden „richtigen“ Ton transponiert, oder man kann im Stand mit einem Programm wie Melodyne einzelne Töne auf die richtige Tonhöhe rücken. Dabei ist die zweite Variante zuverlässiger, aber auch erheblich zeitaufwendiger.

1998 kam der Produzent von Cher (Mark Taylor) bei dem Mixdown des Titels „Believe“ auf die Idee die automatische Korrektur der Intonation massiv zu übertreiben. Als Resultat kam ein Sound heraus, der die Stimme geradezu zerhackt. Die Korrekturen der Tonhöhe werden überdeutlich und führen dadurch zu bewusst hörbaren Tonsprüngen.

Wie wir alle erfahren durften wurde und wird dieser Effekt bis heute bis zum Exzess eingesetzt. Ich bin sicher nicht der einzige Produzent und Mensch, dem dieser Effekt schon seit einiger Zeit gehörig auf die Nerven geht.

10. Verzerrungen

Wenn man im Volksmund von Verzerrung spricht, dann meint man sog. nichtlineare Verzerrung. Dabei werden zu einem originalen Signal zusätzlich (ganzzahlige) Obertöne generiert. Dieser Effekt ist natürlich bei E-Gitarristen bekannt, beliebt und in einigen Sparten unerlässlich.

Eine verzerrte Stimme hört man hingegen relativ selten. Dieser Effekt kann sinnvoll sein, wenn man einen besonders „schmutzigen“ (Gegenteil von klar) Sound sucht.

Ich verwende ihn ab und zu in einem Musikalischen Umfeld natürlich von verzerrten Gitarren.


Für Fragen: Kontakt:

Hier geht es zur: Human-Mastering Hauptseite

Zurück
Zurück

Richtig laut, aber wie (ohne Verzerrungen)?

Weiter
Weiter

Vintage Sound Mastering