iZotope hat Musik-Mastering-Richtlinien für Apple Music, Spotify, YouTube, SoundCloud, Amazon Music, Tidal und mehr veröffentlicht. Wir haben dieses Material gewissenhaft durchgearbeitet und Stichpunkte herausgearbeitet. Mit einem Streaming-Marktanteil von 83 % im Jahr 2021 ist es heute wichtiger denn je zu verstehen, wie ein Track für Streaming-Plattformen verarbeitet wird. Der Artikel untersucht plattformspezifische Spezifikationen und deren Einhaltung.
Mastern zum Streamen
Lassen Sie uns mit einem gewissen Verständnis von Lautstärke, LUFS und Normalisierung in die Details eintauchen, wie das Mastering für Streaming-Plattformen durchgeführt wird. Hier sehen wir uns spezifische Probleme an, die das Streaming betreffen.
Der Zweck der Lautheitsnormalisierung bestand nie darin, Mastering-Ingenieure zu zwingen oder gar zu ermutigen, auf einem bestimmten eingestellten Pegel zu arbeiten. Die Lautheitsnormalisierung dient nur der Bequemlichkeit des Endbenutzers. Es existiert, damit der Benutzer Programmmaterial aus verschiedenen Quellen hört und nicht ständig die Hand ausstrecken muss, um die Lautstärke anzupassen.
Wenn man auf diese Weise über Normalisierung nachdenkt, erkennt man, wie viel Freiheit es gibt. Wenn Sie Musik in der Nähe von -14 LUFS beherrschen und gleichzeitig genügend Headroom für dynamische Wirkung nutzen möchten, können Sie dies in dem Wissen tun, dass der Klang um einige dB reduziert werden kann (was seine Dynamik erhöht).
Obwohl es in den letzten Jahren eine Konvergenz in Richtung -14 LUFS gegeben hat, gibt es immer noch Plattformen, die unterschiedliche Referenzniveaus verwenden. Beispielsweise verwendet Apple Music -16 LUFS, Deezer verwendet -15 LUFS und Pandora verwendet überhaupt keine LUFS. Der Spotify-Referenzpegel ist vom Benutzer zwischen -23, -14 und -11 LUFS wählbar! Um das Wasser noch weiter zu trüben, hindert nichts die Streaming-Dienste daran, in Zukunft ihren Referenzpegel oder die Normalisierungsmethode oder beides zu ändern.
— Siehe auch: Welches moderne Studioequipment wird zum Klassiker? —
Was sollte ein Ingenieur mit dem Mastering für Streaming-Plattformen tun?
Stellen Sie sicher, dass der Titel bei möglichst hoher Lautstärke so gut wie möglich klingt. Es gibt keine einzelne Zahl und keinen Wert, die wirklich verwendet werden können. Es hängt alles vom Genre, dem Inhalt des Songs und der Absicht des Interpreten ab. Das Ziel eines Mastering-Ingenieurs ist es, sicherzustellen, dass der Sound auf verschiedenen Geräten und Systemen gut funktioniert. Schließlich gibt es noch zwei weitere Faktoren, die beim Mastering zu berücksichtigen sind: Spitzenpegel und Albumbalance.
Höchststand
In der zweiten Jahreshälfte 2021 hat sich eine leichte Änderung ergeben, da fast alle großen Streaming-Plattformen eine verlustfreie Audioübertragung anbieten. Bemerkenswerte Ausnahmen sind Spotify (angekündigt Spotify HiFi) und SoundCloud. Als verlustfreies Streaming eher die Ausnahme als die Norm war, war es wichtig, etwas Spielraum für Spitzen zu lassen, um Verzerrungen während der Kodierung und Dekodierung zu vermeiden. Eine gute Faustregel war, mindestens 1 dB True Peak Headroom zu lassen.
Eine gute Möglichkeit, sich das anzuhören, ist die Verwendung des Codec-Vorschaumoduls im Ozone-Plugin von iZotope. Spotify und SoundCloud verwenden nicht immer MP3 oder AAC, aber diese beiden Codecs können Ihnen sicherlich eine gute Vorstellung davon geben, wo andere Formate möglicherweise zu kurz kommen.
Wenn Sie die Codec-Vorschau verwenden, stellen Sie möglicherweise fest, dass der Spitzenpegel auf Ihrer Ausgangsanzeige etwas höher ist als zuvor. Dies ist ein natürlicher Nebeneffekt der Umwandlung einer WAV- oder AIF-Datei in eine verlustbehaftete Datei. Sie können dies nicht vermeiden, aber Sie können sich darauf vorbereiten, indem Sie den Pegel Ihres Tracks verringern, damit der Ausgangskanal nicht überlastet wird, wenn er zu einer verlustbehafteten Datei wird. Mit verlustfreiem Streaming ist dies jedoch kein Problem. Solange Ihre True Peak-Pegel unter etwa -0,3 dBTP bleiben, sollte es Ihnen gut gehen. Welchen Weg Sie wählen, bleibt weitgehend Ihnen überlassen. Sie können die zusätzliche Ebene verwenden, wenn Sie wissen, dass Zuhörer, die verlustbehaftete Streams abspielen, möglicherweise eine kleine zusätzliche Verzerrung erleiden, oder auf Nummer sicher gehen und den kleineren gemeinsamen Nenner zufriedenstellen.
Album-Balance
Eine andere Frage, die manchmal auftaucht, ist „Soll ich alle Songs auf dem Album auf dem gleichen Niveau mischen?“. Wenn Streaming-Plattformen Ihre Songs auf ein Referenzniveau reduzieren und verschiedene Songs in Ihrem Album auf unterschiedlichen Ebenen sind, bedeutet das nicht, dass sie in unterschiedlichem Maße abgelehnt werden und somit die Balance Ihres Albums verändert?
Glücklicherweise ist die Antwort dieselbe: meistens nein. Amazon, Deezer, Pandora und Youtube verwenden ausschließlich die Track-Normalisierung, d. h. alle Tracks werden auf einen Referenzpegel gesetzt. Für Plattformen wie diese, auf denen die Nutzer meist Singles oder Radio hören, macht das Sinn. Allerdings haben diese Plattformen auch einen relativ geringen Marktanteil.
Apple Music und Spotify hingegen haben einen Album-Normalisierungsmodus. Die Technik zur Normalisierung eines Albums besteht darin, entweder den Pegel des lautesten Songs des Albums (oder der EP) oder den Durchschnittspegel des gesamten Albums zu verwenden und ihn dem Referenzpegel der Plattform gleichzusetzen. Derselbe Gain-Offset wird dann auf alle anderen Songs im Album angewendet. Bei Spotify und Apple Music wird dies ausgelöst, wenn zwei oder mehr Songs eines Albums nacheinander abgespielt werden.
Interessanterweise hat sich Tidal dafür entschieden, die Albumnormalisierung für alle Songs zu verwenden, selbst wenn sie sich in derselben Playlist befinden. Diese Methode wurde implementiert, nachdem Eelco Grimm 2017 eine Studie zu diesem Thema veröffentlicht hatte, die starke Beweise dafür lieferte, dass die Albumnormalisierung sowohl für das Hören von Alben als auch für die Wiedergabe von Wiedergabelisten von den meisten Benutzern bevorzugt wird. Wenn wir dies analysieren, weist es auf eine weitere wichtige Tatsache hin: Wir sollten uns nicht von Referenznormalisierungsebenen diktieren lassen, wie wir Songs auf einem Album ausrichten, sondern uns von der künstlerischen Absicht und dem natürlichen Fluss der Musik leiten lassen.
— Siehe auch: Warm Audio kündigt die Mikrofone WA-CX12 und WA-47F an —
Lautheitsspezifikationen
Nach all dem fragen Sie sich vielleicht, warum wir uns um bestimmte Plattformspezifikationen kümmern. Am Ende des Tages sollten wir uns wirklich nicht allzu viele Gedanken darüber machen, sondern nur sicherstellen, dass die Musik so gut wie möglich klingt (und um eine hervorragende Klangqualität zu erzielen, können Sie sie in unserem Studio mischen oder mastern lassen). Es gehört jedoch zu unserer Aufgabe als Mastering Engineers, informiert zu sein. Nachfolgend finden Sie einige Spezifikationen nach Plattform, um Ihnen zu helfen, die verschiedenen Variablen zu verstehen, mit denen wir es zu tun haben (unser Studio gibt dem Kunden beim Mischen und Mastern eine zusätzliche Variante des Tracks mit durchschnittlich -14LUFS zur Verwendung).
- Apple Music verwendet einen Referenzpegel von -16 LUFS, schaltet die Normalisierung ein, macht leisere Songs nur lauter, wenn die Spitzenpegel dies zulassen, übersteuert niemals und ermöglicht die Normalisierung von Titel und Album, je nachdem, welche Wiedergabeliste oder welches Album abgespielt wird. Der Vorbehalt hier ist, dass ältere Versionen von macOS und iOS möglicherweise immer noch Sound Check verwenden, eine Normalisierungsmethode, die nicht auf LUFS-Werten basiert.
- Spotify verwendet einen Standard-Referenzpegel von -14 LUFS, hat aber zusätzliche vom Benutzer wählbare Pegel von -23 und -11 LUFS. Die Normalisierung ist standardmäßig aktiviert, und leisere Songs werden nur so laut, wie es die Spitzenpegel für die Einstellungen -23 und -14 LUFS zulassen. Das Limit wird für die Einstellung -11 LUFS verwendet, jedoch ändern über 87 % der Spotify-Benutzer die Standardeinstellungen nicht. Mit Spotify können Sie auch Titel und Alben normalisieren, je nachdem, ob Sie eine Wiedergabeliste oder ein Album abspielen.
- YouTube verwendet ein Referenzniveau von -14 LUFS und die Normalisierung ist immer aktiviert. Die Plattform verwendet niemals Clipping und verwendet ausschließlich die Spurnormalisierung.
- SoundCloud verwendet keine Normalisierung und bietet auch keine verlustfreie Audiowiedergabe (komprimiert / verringert die Qualität des Materials). Außerdem laden Künstler Musik normalerweise direkt auf SoundCloud hoch und nicht über einen Aggregator. Aus diesen Gründen möchten Sie vielleicht ein separates Mastering für SoundCloud durchführen.
- Amazon Music und Tidal verwenden -14 LUFS, während Deezer -15 LUFS verwendet und Pandora nahe bei -14 LUFS liegt, aber überhaupt keine LUFS verwendet. Tidal und Amazon haben die Normalisierung standardmäßig aktiviert, während Deezer und Pandora es nicht zulassen, dass Sie sie deaktivieren. Amazon, Pandora und Deezer verwenden nur die Titelnormalisierung, während Tidal nur Alben normalisiert.
— Siehe auch: Audient kündigt neues iD44 MkII Soundkarten-Update an —
Offizielle AES-Empfehlung
Zusätzlich zu all dem sollte beachtet werden, dass die Ingenieure der Audio Engineering Society eine Reihe von Empfehlungen in Form von AES TD1008 vorbereitet haben. Dies ist ein umfassendes Dokument, aber hier sind einige der Highlights:
- Verwenden Sie nach Möglichkeit die Albumnormalisierung, auch für Wiedergabelisten.
- Es wird empfohlen, Sprache auf -18 LUFS zu normalisieren
- Musik auf -16 LUFS normalisieren. Wenn Sie die Albumnormalisierung verwenden, normalisieren Sie den lautesten Titel im Album auf -14 LUFS.
Überprüfung der Eigenschaften Ihres Tracks nach dem Mastering
Wenn Sie die Eigenschaften Ihres Tracks nach dem Mastering überprüfen möchten, um zu sehen, wie er verarbeitet wird, können Sie das Loudness-Panel im Insight-Plugin von iZotope verwenden. Wenn Sie diese Methode wählen, müssen Sie den Song von Anfang bis Ende ohne Unterbrechung abspielen. Wenn Sie nach einer schnelleren Methode suchen, sehen Sie sich die „Waveform Statistics“ von iZotope in RX an.
Wie man mastert, auf welchem Equipment, welche Plugins zur Analyse und Korrektur verwendet werden – ein sehr weites Thema und sollte von einem Mastering-Ingenieur in allen Feinheiten und Besonderheiten eines bestimmten Tracks betrachtet werden. Wenn Sie ein Projekt gemischt haben und nach einem Ort suchen, an dem Sie hochwertiges Mastering bestellen können, senden Sie Ihr Material an unser Studio und erhalten Sie eine kostenlose Demo zum Anhören.