Beiträge von m_tree

    Den Vorschlag, ein Schlagzeug durch die Verwendung von Rods leise zu bekommen, halte ich für völlig unbrauchbar. Zwar klingen die Trommeln auch leiser, das ist aber eher ein Nebeneffekt. Sowohl klanglich als auch vom Spielgefühl her liegen Welten zwischen normalen Sticks und Rods, und wer z.B. leise üben will, hat von Rods rein gar nichts. Für bestimmte Dinge sind sie echt klasse wie z.B. ein dezenter Train Beat und dergleichen, aber ein Rockgroove mit fettem Backbeat auf der Snare klingt mit Rods einfach nur bescheiden.


    Also ich hab Rods immer nur einzig und allein dazu benutzt, meine Lautstärke in "Spezial Situationen" runterfahren zu können. Da gings dann weder um das andere Spielgefühl und um den anderen Sound, sondern einfach um das Gesamtergebnis und die Situation.


    Aber zurück zu den Matten :)


    Zitat

    Ich habe ne Zeit lang zuhause auf solchen Matten gekloppt, das war zum Üben von Koordination auch ok, da der Aufbau exakt meinem normalen entsprach. Der Klang hatte allerdings in meinen Ohren mit Schlagzeug nicht mehr viel zu tun.


    Wenn man aber dabei noch eine Drumsound erwartet, der nur leiser ist, ist man hier falsch, mit Schlagzeugsound hat das halt nichts mehr zu tun.


    Wenn man nur Üben will ist das auch kein Problem.


    Allerdings übt es sich m.E. an einem echten und ungedämpften, "normal" befellten und gestimmten Set mit Sticks immer noch am besten. ;)

    Dacht, dass eher z. B. die Evans Sound Offs das beste Mittel sind. Davon gibts ja mind. drei Ausführungen. Standard, Fusion, Rock. Wo liegen da die Unterschiede?


    Die unterscheiden sich nur durch die Größe. Es gibt ja Standard, Fusion und Rock Tom Konfigurationen.


    Warum willst du denn überhaupt dämpfen? Und ich meine nicht, dass das Schlagzeug zu laut ist ... sondern warum es zu laut ist. ;)

    Am kostengünstigsten geht das tatsächlich damit hier: https://www.thomann.de/de/hot_rods.html


    Dann noch die Bassdrum tot dämpfen, indem man unendlich viele Decken und Kissen reinstapelt. Klingt halt auch dementsprechend.


    "Tote" Felle sind z.B. Ölgefüllte wie Evans Hydraulic. Die haben auch den Vorteil, dass die kaum gestimmt werden müssen bzw. können. :D


    Ansonsten halt hier: https://www.thomann.de/de/uebungsdaempfer.html


    Meines Erachtens ist das übrigens alles Pfusch. Die Hot Rods gehen noch am ehesten durch und kompensieren gleichzeitig, dass die Bassdrum im Bandkontext oft als erstes untergeht. Insbesondere wenn sie tot gedämpft wurde.

    Also darauf, dass man Shuffle abwechselnd und nicht snychron spielen könnte / sollte wäre ich nicht so schnell gekommen. Ich kann mir auch nicht vorstellen, dass das mit einem guten Mikrotiming klappt. Ich hätte damit jedenfalls meine Schwierigkeiten. Dann lieber üben bis es mit der Geschwindigkeit hinhaut ...


    Ist halt wie in Trainbeat, nur mit Triolen. Und das ist total easy. ;)

    m_tree: Shuffle beidhändig muss man können, gehört sich auch bei vielen Blues-Stücken, insbesondere beim Chicago-Blues. Ist in dieser Geschwindigkeit schon sportlich (und wäre auch zuviel des Guten).
    Bei mir ist das so: mit rechts komme ich klar, aber die linke Hand macht dieses Tempo nicht mit.


    Also mir geht Shuffle in dem Tenpo beidhändig wesentlich leichter von der Hand als einhändig.


    Der Rosanna Halftime Shuffle ist ungefähr bei 87bpm (oder etwas mehr) und schon auch ein kleines bisschen sportlich. Das Tempo hier ist für mich dann schon grenzwertig, aber noch machbar.


    Wobei es ja nur dann ein Halftime Shuffle wäre, wenn er bei 174bpm und nicht bei 87bpm ist. :rolleyes:

    Ich kann das spielen ... ohne zu verkrampfen. :rolleyes:


    Wenn man die Snare normal spielt und Ghostnotes nicht wichtig sind kann man so einen "Hi-Hat Groove" aber auch mit beiden Händen spielen. ;)

    Um noch mal auf das "nachträgliche" Erhöhen der Samplingrate (und Bittiefe) und den Threadtitel zu kommen. "Qobuz" bietet "Studio" Qualität mit 192kHz / 24bit an. Und ich bezweifel, dass die da nur (wenn überhaupt vorhanden) die in dieser Qualitätsstufe produzierten Alben streamen :whistling:


    https://www.qobuz.com/de-de/music/streaming/offers


    Das meinte ich damit. Noch bescheuerter gehts nicht.


    Rampen
    Interessanter Test. Ich glaube, da würde keiner Unterschiede hören. Aber je mehr Bearbeitungsschritte stattfinden, desto deutlicher macht sich die Klangfarbe des AA-Filters bemerkbar, denke ich. Oversampling in Clipper Plugins z.B. bringt wirklich was. Allerdings gehts da z.B. auch gleich um 32-faches Oversampling, nicht solche "Peanuts" wie 2-faches.

    das hast du falsch verstanden. Ich meine ein echtes 96kHz Master von einem echten 96kHz Mix versus dem CD Pendant in 44.1


    Auch mit "echten" 96kHz Aufnahmen? Ich frage mich dabei gerade, wer sowas macht. Man darf dabei ja auch nicht vergessen, dass wirklich alle Bearbeitungsschritte exakt gleich bleiben sollten und das ist eigentlich nur digital machbar.


    Ich hab meinen letzten Mix, mit dem ich auch die anderen Tests gemacht hatte, gerade mal in 88,2kHz gerendert und ich meine schon, da einen Unterschied zu hören. Hab jetzt aber keinen Nerv mehr für 'nen Blindtest.


    Höhere Samplingraten sind aber bei der ganzen Geschichte wirklich nebensächlich. Bzw. wohl eher in Anbetracht von lossy Codecs und Lautprügeln das andere Extrem, das keiner so wirklich braucht (abgesehen von Wandlern bzw. Oversampling ...).


    Ach so, ja das ist dann auch schon eher das was ich erwarten würde. 8 von 16 hätte man durch Raten erreichen können, Du kennst Deinen Mix gut und hörst daher bei 4 mehr einen Unterschied. Ich war nur durch den Ausdruck "anekeln" dazu verleitet worden dass Du den Unterschied wirklich sehr groß und äußerst offensichtlich für jedermann einschätzt.


    Nee, manchmal schreibe ich einfach wirres Zeug ... :D


    Zitat

    Beim Unterschied zwischen 24 und 16 Bit-Input bin ich noch nicht ganz bei Dir. Zu bedenken ist, dass in mp3-Encodern viele binäre Entscheidungen getroffen werden, z.B. ob ein Signalschnipsel gerade transient ist oder eher tonal. Abhängig davon werden verschiedene Tools verwendet, die sich dann auf alle folgenden Entscheidungen uim Codierverlauf auswirken. Es mag also passieren, dass beim 24-Bit-File gerade noch auf transient entschieden wird, daher braucht dieser Frame ein paar mehr Bits, daher muss beim folgenden Frame wieder etwas eingespart werden, das macht dann die Differenzcodierung in den 10 darauffolgenden Frames wiederum ineffizienter, was sich wiederum auf Entscheidungen im Verlauf des restilchen Stückes auswirkt etc. Dadurch können große Unterschiede in der Codierung auftreten, die aber nur einen minimalen Einfluss auf die Klangqualität haben. Ich halte es für unmöglich, dass das Signal in den untersten 8 Bits sich signifikant auf die Qualität der Encodierung auswirkt, denn wie Du schon sagst, bei mp3 wird mit den Signalveränderungen nicht gekleckert sondern geklotzt. Wenn es einen signifikanten Klangunterschied gibt, kann der m.E. nicht mit dem generellen Verhalten des mp3-Encoders zusammenhängen. Vielleicht gibts einen Bug, oder LAME verwendet aus irgendwelchen Gründen verschiedene Tunings für 16 und 24 Bit-Input (was aber meiner Meinung nach aus klangtechnischer Sicht keinen Sinn macht).


    Mich verwirrt das nach deiner Erklärung nur noch mehr, denn die 16 und 24bit Versionen meines Mixes unterscheiden sich ja nur durch den Dither. Der Dither nutzt ja immer das unterste Bit. Ich hab den Mix noch mal in 16bit, aber unverändert mit 24bit Dither gerendert. Die Differenz beläuft sich nur noch auf ein bisschen Quantisierungsrauschen, welches sogar einen etwas niedrigeren RMS Pegel als der Noise-Shaped 16bit Dither hat. Das daraus erstellte MP3 File unterscheidet sich aber genau so wie das zuvor geditherte vom 24bit File.


    Bei absolutem "Fremdmaterial" kann ich mir nur äußerst schwer vorstellen, dass da einer das goldene Ohr hat und zielsicher behaupten kann, um welche Art Abspielquelle es sich nun handelt.


    "Absolut" kann man das bei sehr niedrigen MP3 Bitraten durchaus auf Anhieb hören, wenn man den Klang der MP3 Artefakte kennt. Bei mittleren Bitraten kann man durch Vergleich mit einer lossless Version genau so Unterschiede raushören, wenn man sich ein bisschen Zeit nimmt und ein gutes Wiedergabegerät nutzt.



    nein, ich nichtmal zwischen 44und 96kHz.


    Ein nachträglich auf eine höhere Samplerate gebrachtes Signal kann man tatsächlich höchstens durch den Resampling Prozess (der im Optimalfall über eine DA/AD Wandlung läuft) unterscheiden. Denn die Klangfarbe des Anti-Aliasing Filters der niedrigeren Bitrate wurde ja schon mit "eingraviert". Es geht dabei, wie schon an anderer Stelle gesagt, nur um die Klangfarbe des Anti-Aliasing Filters, die sich mit geringerer Samplerate und dadurch höherer Flankensteilheit des Filters auch immer mehr im hörbaren Bereich bemerkbar macht. Aus diesem Grund ist es an manchen Stellen bei der Nachbearbeitung auch sinnvoll, Oversampling zu nutzen (vor allem wenn es um Verzerrungen und den Höhenbereich geht).


    Ich hatte mal kurzzeitig meine Mixe testweise auch in 88,2kHz zum Vergleich gerendert und einen Unterschied gehört. Hatte damals auch einen Blindtest mit Foobar gemacht. Der "Oversampling Mix" klang aber nicht unbedingt besser, sondern anders ... irgendwie weniger "kompakt" im Höhenbereich. 44,1kHz klingen nicht per se "schlechter".
    Fraglich bleibt dabei allerdings, ob der Unterschied wirklich durch den flacheren Anti-Aliasing Filter, der sich bei der Nachbearbeitung entsprechend bemerkbar macht, oder doch eher durch das Resampling der Einzelspuren selbst zu Stande kam. Welches übrigens bei guter Qualität neben dem doppelten Rechenaufwand (88,2 statt 44,1kHz) noch mal einiges an Rechenaufwand mit sich bringt.


    Eine Produktion, die von der Aufnahme bis zum finalen Medium durchgängig in 96kHz gefahren wird, wird definitiv ein bisschen anders klingen als eine 48kHz Produktion. Inwieweit man das hören kann ist natürlich eine andere Sache.


    "Oversampled" man nun allerdings eine fertige Produktion nachträglich, wird man dadurch keinerlei Gewinn haben. Nur einen viel höheren Speicherplatz Bedarf. Oversampling ist bei der Nachbearbeitung manchmal sinnvoll, weil eben Bearbeitungsschritte durchgeführt werden und der flachere Anti-Aliasing Filter diese Bearbeitungsschritte dann eben nicht mehr so stark färbt wie der steilere bei der niedrigen Samplerate.
    Ein fertig gemastertes "Produkt" hat allerdings auch die Klangfarbe des final gesetzten Anti-Aliasing Filters mit dabei und es bringt absolut nichts, im Nachhinein die Samplerate zu erhöhen. Im Gegenteil: Es ist dafür ein Resampling oder eine weitere Wandlung nötig, die beide nicht neutral klingen.



    Das hat zwei einfache Gründe:


    1) Schallplatten sind das optisch und haptisch schönste Medium, und das Abspielen bereitet einem Freude. Die Handhabung hat was Entschleunigendes und regt die Genusssinne an.
    Es bestehen Parallelen zur Vintage-Liebhaberei bei Instrumenten oder ähnlichen Dingen.


    2) Vinyl ist nicht vom Loudness War betroffen. Demnach klingen so ziemlich alle Loudness-Alben auf Vinyl besser.
    Meistens scheitert es aber an hochwertigem Abspielequipment, denn guter Phono-Krempel übersteigt den Preis eines vernünftigen CD-Spielers um ein Vielfaches.


    Den ersten Grund kann ich durchaus verstehen.
    Aber der zweite Grund zeigt einfach wieder so deutlich, was für ein Blödsinn eigentlich läuft. Die CD hat einen größeren Rauschabstand als die Schallplatte, könnte also noch viel leiser als für Schallplatten gemastert werden. Aber es wird nicht gemacht, weil es nicht notwendig ist, egal wie sch... das Lautprügeln klingt.


    Die CD ist m.E. auch nach wie vor das beste Medium, und zwar auch was ihre "digitale Qualitätsstufe" mit 44,1kHz / 16bit betrifft. Man könnte das mit FLAC noch etwas platz-sparender so wunderbar auf die digitalen Medien, die momentan von MP3 & Co. "besetzt" werden, ausweiten. Tonnenweise Musik auf Festplatten, USB Sticks, Smartphones ... Streaming usw. - das alles hat große Vorteile, klar. Aber um diese zu nutzen, braucht man schon lange keine lossy Codecs mehr.


    Ich lasse mich, auch angeregt durch diese Diskussion hier, aber gerade dazu breitschlagen jetzt doch Kunde bei einem Streaming Dienst zu werden. Und ich hab mir Spotify ausgesucht ... das Doppelte für FLAC Streams will ich nicht bezahlen. Spotify streamt mit OGG Vorbis, was bei gleicher Bitrate besser als MP3 klingt und bietet auch 320kbps an.


    Das verstehe ich glaube ich nicht richtig: was heißt die beiden MP3 Files sind identisch? Also so richtig gleich? Wie soll da beim Decodieren was anderes rauskommen? Oder habe ich das falsch verstanden?


    Ich meine damit, dass die von 16 und 24bit erstellten MP3s jeweils gleich sind. Ich wollte damit nur sicher stellen, dass der Codec bei gleichem Ausgangsmaterial auch immer gleiche Ergebnisse erzeugt. Und dass der Unterschied eben wirklich auf 16 vs 24bit Material zurück zu führen ist. Anders formuliert: Zwei aus dem 16bit erstellte MP3s sind exakt identisch, bei 24bit genau das selbe. Die von 16 und 24bit erstellten MP3s unterscheiden sich aber.


    Es handelt sich beim gemasterten Mix, mit dem ich direkt verglichen habe (da ging es nicht um von 16bit vs. 24bit erstellte MP3s), übrigens um ein 16bit File. Sonst hat er immer 24bit Masters geschickt. Aber ist auch egal, denn das übliche Abgabeformat von Mastering Studios ist immer noch 16bit. Reicht ja fürs finale Medium auch aus und so ziemlich alle MP3s etc. wurden aus 16bit Masters erstellt. Der Klassiker ist ja 'ne Audio CD, die man ript.


    Zitat

    Zum zweiten Experiment ist zu sagen, dass die Funktionsweise eines verlustbehafteten Audiocodecs ja ist, Frequenzanteile zu entfernen, die durch andere Frequenzanteile verdeckt werden. Von nix kommt ja nix, irgendwie muss die Bitrate ja eingespart werden. Aber wenn Du durch Differenzbildung zum Original nur eben diese idealerweise vom Rest verdeckten Anteile alleine für sich anhörst, sagt das ja eigentlich gar nichts aus außer dass der Codec seine Arbeit getan hat. Denn ohne die verdeckenden Anteile kann ja auch nichts verdeckt werden.


    Natürlich hast du recht. Die Differenz ist zu groß für den kaum auszumachenden Unterschied zwischen Lossless und 320kbps MP3. Ich wollte damit nur verdeutlichen, wie stark die Veränderung jedoch tatsächlich ist und wie lossy Codecs uns "verarschen". ;)


    Zitat

    Und zum Thema "ekelt mich sogar fast schon an": ich gehe davon aus, dass Du den Vergleich blind gemacht hast, oder? Denn kein Sinnesorgan ist stärker vom Unterbewusstsein beeinflusst als das Hören (wie Du als Semiprofi ja sicher weißt). Eine ganze Industrie (die High-End-Audioindustrie mit z.B. den armdicken Reinsilberkabeln) lebt genau von diesem Effekt, denn man hört was man hören will. Damit will ich nicht sagen, dass ein 320kbps MP3 sich perfekt anhört (ich kenne die Schwächen des Formats), aber im Allgemeinen sollte der Unterschied schon sehr subtil sein und im Blindtest abgesehen von eher speziellen Signalen ziemlich schwierig zu erkennen sein. Ach so, nicht zuletzt hängt das natürlich auch von der Qualität des MP3-Encoders ab. Mit dem itunes-Encoder macht man im Allgemeinen nichts falsch, ich vermute der in Logic wird der selbe sein. Es gibt aber auch ein paar Gurken.


    Ich hatte den Test nicht blind gemacht, aber das habe ich jetzt nachgeholt. Foobar hat da so eine nette Erweiterung. 12 von 16 hab ich richtig getippt. Ich hab mir Zeit genommen und Pausen gemacht, würde das aber zu einem anderen Zeitpunkt wahrscheinlich besser hinkriegen (mein Tinnitus macht mir gerade wieder zu schaffen :whistling: ). 320kbps MP3 ist schon schwierig zu unterscheiden, aber für geübte Ohren machbar. Ich kann den Test auch mal mit 192kbps wiederholen, da könnte ich zu einem guten Zeitpunkt 100% richtig tippen.
    Was mir an dem Foobar Blindtest allerdings nicht gefällt ist die Umständlichkeit mit einem doppelten Vergleich. Besser wäre für mich, die Dateien direkt zu identifizieren. Spart die Hälfte an "Hör Arbeit".


    Hab mal nen Screenshot angehängt ... ich erzähl hier ja keine Märchen. ;)


    Wie gesagt geht es hier gerade um 320kbps MP3. Üblich sind im Durchschnitt aber immer noch eher 192kbps. 128kbps ist ja auch durchaus immer noch hier und da anzutreffen (Soundcloud ...).


    EDIT
    Ich encodiere mit LAME 3.99.5. Der taugt eigentlich was, glaub ich. ;)

    Ok, jetzt habe ich den ultimativen Beweis dafür, wie besch...eiden MP3 wirklich klingt.


    Es gibt eine ganz simple Methode zum Ermitteln der tatsächlichen Differenz zweier Audiosignale. Ganz einfach, in dem man sie gleichzeitig (mit exakt selbem Startpunkt) abspielt und die Phase von einem der beiden Tracks umpolt. Dann löschen sich alle gleichen Anteile aus und das was übrig bleibt, ist die Differenz. Sicher haben manche Leute ein sensibleres und geschulteres Gehör, andere weniger und noch andere hören ständig laut Musik mit dem Handy Lautsprecher ... aber die Differenz, die dabei rauskommt, lässt auch einfach ganz ratoinal Rückschlüsse darauf zu, inwieweit man theoretisch Unterschiede raushören kann.


    Ich habe dafür das Testmaster meines Testmixes für meinen Masteringkollegen von gestern genommen (ich kann die Audio Dateien selbst hier leider nicht zeigen). Er hat mir das in 24bit geschickt und ich habe ein 320kbps MP3 File daraus erstellt. Also die maximal mögliche Bitrate ausgewählt (man beachte dazu auch noch die 24bit Quelle). Ich habe einen bestimmten Teil des Songs im Loop laufen lassen und den Durchschnittswert vom Analyzer ermitteln lassen. Man beachte aber auch die RMS Werte. Der RMS Wert der Differenz liegt ca. 10dB unter dem des eigentlichen Audio Signals, besteht aber fast nur aus oberen Mitten und Höhen, wo das menschliche Gehör empfindlicher ist.


    Siehe Screenshots im Anhang ...


    Und ich höre beim Direktvergleich auch sofort einen Unterschied. OK - ich habe den Track selbst gemischt, benutze einen guten analytischen Kopfhörer und habe mein Gehör auf das Raushören von Feinheiten trainiert. Das MP3 File ekelt mich im Vergleich zum 24bit File sogar schon fast an :D


    Die Konsumenten haben sich halt mittlerweile einfach an diesen anstrengenden und halb verhunzten lossy Sound gewöhnt. Ein paar meiner Lieblingsalben hatte ich von Freunden nur als MP3 (192kbps aufwärts) und mir dann einfach mal die CDs günstig gekauft. Das war fast eine Offenbarung, weil ich die Alben so gut kenne.


    Es gibt also durchaus einen deutlichen Unterschied und wenn man sich vor Augen führt, dass MP3 & Co. mit Psycho-akustischen Verfahren Sachen entfernen, ist klar, dass lossless das einzige wirkliche Original sein kann.
    Ich gebe daher auch ungern Geld für MP3s aus und halte auch nicht viel von Musik Streaming (es gibt Anbieter mit Flac, aber die sind auch viel teurer). Es gibt hier m.E. richtig Handlungsbedarf - die lossy Formate haben Überhand genommen. :whistling:


    Hmja, sicher dass Du nicht eher den Unterschied zwischen der 16 und der 24 Bit Version generell hörst, weil vielleicht der verwendete Ditherer nicht so toll ist? Denn mp3 arbeitet mit Fließkommawerten im Frequenzbereich, dafür ist es praktisch vollkommen wurscht, ob das Original in 16 oder 24 Bit vorliegt.


    Ich verwende Dither mit Noise Shaping. Zwischen einer geditherten 16bit und einer 24bit Version kann ich keine Unterschiede hören. Ein Phasendreher bringt da auch nur noch den Dither hervor ;)
    Aber egal wie oft ich von einer entsprechend "gleichen" 16bit und einer 24bit Version in MP3 encodiert hatte - die Files klangen immer gleich anders und brachten durch den Phasendreher eine signifikante Differenz hervor. Und genau da kommt der Faktor ins Spiel, dass 24bit nur dann sinnvoll ist, wenn das Audio Signal weiter verarbeitet wird.
    Youtube empfiehlt für Musik Uploads z.B. auch 24bit Files.


    Ich kann gerne ein Beispiel posten ...


    EDIT
    Ich hab das gerade noch mal getestet: Einen aktuellen Mix in 16bit gerendert. Die beiden Files in ein neues Projekt mit Analyzer gezogen. Bingo - die Differenz besteht nur aus dem Dither. Dann hab ich jeweils 2 MP3 Files rausgezogen. Die beiden von 24bit und 16bit encodierten MP3 Files sind jeweils identisch. Aber lasse ich von 24 und 16bit codierte MP3s mit umgepolter Phase gleichzeitig laufen, kommt eine Differenz heraus, deren RMS Pegel ca. 30dB unter dem Pegel des Audio Signals liegt und die deutlich im oberen Mittenbereich (dort ist das menschliche Gehör am empfindlichsten) dominiert. Der Unterschied ist riesig und das zweifache Encodieren in MP3 bestätigt das. Die von 24bit encodierten MP3s klingen sauberer bzw. subjektiv besser.


    Die Sache mit dem Phasendreher stützt das insofern gut, weil die Differenz ausreichend hoch ist, sodass man Unterschiede raushören kann. Den 16bit Dither kann ich bspw. nicht hören und das sollte mit Noise Shaping ja auch so sein. ;)


    Ich kann das auch gerne mit Audiodateien und Screenshots belegen, müsste dafür aber eine andere Quelle nehmen (Mix für einen Kunden).

    Bei Sachen, die ich selbst gemischt hab oder Alben, die ich sehr gut kenne, höre ich mit meinem Kopfhörer durchaus Unterschiede zwischen guter MP3 Qualität und lossless. Ich höre sogar Unterschiede von von 16 oder 24bit encodierten MP3s. Als "Audio Mensch", der damit seine Brötchen verdienen will, muss ich auch ein senbibles und geschultes Gehör haben. Und Schlagzeug Spielen ohne Gehörschutz ist seit Jahren ein absolutes No-Go ;)


    Der springende Punkte bei MP3 & Co. ist auch bei besserer Qualität aber folgendes:
    Auch, wenn man nicht bewusst Unterschiede hören kann, klingt MP3 auch bei höheren Bitraten auf Dauer anstrengend. Der Codec nimmt natürlich Klang Anteile raus, die für das menschliche Gehör nicht wahrnehmbar sind. Aber die Übergänge sind fließend und das Gehirn ist immer mehr oder weniger dazu gezwungen, fehlendes wieder hinein zu interpretieren. Folglich klingt MP3 & Co. anstrengend.


    Ganz davon abgesehen, dass in Zeiten von Terabyte Festplatten und 100Mbit/s Internet Anschlüssen eigentlich keiner mehr MP3 braucht. FLAC ist ein platzsparendes Lossless Format - in 44,1kHz und 16bit (CD Qualität) ist das m.E. das perfekte Format. Braucht ca. 3x so viel Speicherplatz wie 320kbps MP3 und 50-70% von PCM Wave (CD).


    Nur mal zur Veranschaulichung: Auf eine Terabyte Festplatte passen über 1.500 Stunden Musik in unkomprimierter CD Qualität. Mit FLAC sind es fast doppelt so viele. Die Platte kostet weniger als 50€. FLAC kommt auf Bitraten von ungefähr 1Mbit/s. Das ist auch fürs heutige Handynetz in gut ausgebauten Gebieten überhaupt kein Problem mehr.


    Die gesamte Industrie ist in der Hinsicht m.E. sowieso völlig abstrus geworden. Während sich manche Leute ihre Musik von Youtube runterladen, die dann meistens schon 3x lossy encodiert wurde (meistens wird die Musik als MP3 hochgeladen, Youtube encodiert es dann in AAC und Download Add Ons o.ä. encodieren es noch mal in ein lossy Format) - mehrfachres lossy Encodieren ist der größte Pfusch und klingt grauenhaft - kaufen sich andere wieder Schallplatten. Da ist dann z.B. Musik drauf, die digital aufgenommen und (zum Teil) digital nachbearbeitet wurde, auf einem veralteten Medium, das eine viel schlechtere Audio Qualität hat als die Audio CD.
    Oder noch ganz andere, die ihre Musik in 96khz / 24bit kaufen oder streamen, obwohl sie für CD gemastert wurde. Am besten noch mit Boxenkabeln für 1000€ - da ist die Selbstverarsche dann perfekt.


    Auch, dass MP3 immer noch so populär ist, ist eigentlich abwegig. Weil es veraltet ist. ACC liefert bei 192kbps ungefähr die gleiche Qualität wie MP3 auf 320kbps und auch OGG Vorbis ist effizienter.

    In dem Fall meinte ich letztere, über die der Masteringingenieur ja abhört. Die sind im Studio dann sicher auch superduper :) .


    Sicher :)


    Das "Zerren", um das es mir hier geht, kommt übrigens nicht zwingend durch Inter-Sample Clipping. Es sind einfach die Lautmacher selbst, die zerrem. Ich kann einen True-Peak Limiter zu heiß anfahren, sodass es sch... klingt, aber es entsteht dadurch trotzdem kein Inter-Sample Clipping.
    Es gibt sogar "Clipper Plugins", die ggf. mit softerem Knee und ordentlich Oversampling gezielt clippen. Da muss man letztendlich natürlich noch mit 'nem True-Peak Limiter drüber. Aber insbesondere da verhält es sich genau so: Man kann damit viel Lautstärke rauskitzeln, ohne dass es zu "platt" wie bei einfachem Limiting klingt. Aber wenn man es übertreibt, zerrt es immer hörbarer und man zerstört immer mehr alles. Das Maß ist einfach entscheidend. Ein bisschen Sättigung bzw. Verzerrung ist ja gerade bei digitalen Aufnahmen (Tonband sättigt selbst) sogar fast zwingend notwendig, damit es nicht zu steril klingt und durchsetzungsfähiger wird. Aber was ich auf dem Tool Album hier teilweise raushöre übersteigt jedes vernünftige Maß und ist einfach Pfusch.


    Ich würde aber sagen, wir beenden das Thema wieder. Ist ja trotzdem ein hammer geiles Album :thumbup:


    Ein Effekt der mit Sicherheit beiträgt sind die aufs letzte ausgereizten Lautmach-Tools. Die erzeugen nämlich sogenanntes Intersample-Clipping, das bedeutet dass obwohl die digitalen Zahlenwerte das mögliche Maximum nicht überschreiten beim Abspielen bei der D/A-Wandlung Überschwinger enstehen, die gerne auch mal mehr als 6dB lauter als das digitale Maximum sind. Das ist schon mal generell ein Problem, weil es vom Headroom des D/A-Wandlers abhängt, wie gut das dann noch klingt. Der Superduperwandler im Masteringstudio macht das sicher völlig lässig mit, aber so mancher günstige Wandler hat halt nicht so viel Headroom und wird dann verzerren.


    Danke ^^


    Aus diesem Grund gibt es aber auch "True-Peak Limiting" bzw. "Inter-Sample-Peak" Limiting. Oder man limitiert gleich analog, da wird man aber keinen Look-ahead haben bzw. muss diesen mit Delays herzaubern (wurde wirklich gemacht).
    Die Superduperwandler im Masteringstudio machen nach dem analogen Mastering ja eine Analog zu Digital Wandlung. Die Abspielgeräte dann wiederrum eine Digital zu Analog Wandlung.


    Es gibt übrigens sogar CDs, die selbst clippen. Beim "Sound City" Album von Dave Grohl ist mir das mal aufgefallen. In FLAC (verlustfrei) encodiert, in der DAW angeschaut und siehe da ... "normales" (kein ISP) Clipping. Das ist mir völlig unverständlich. Da sind ja Weltklasse Leute am Werk. Denn wie gesagt gibt es die nötigen Tools dafür und man könnte auch einfach 0,2dB mehr Headroom lassen.


    Zitat

    Es gibt aber ein weiteres Problem und das ist dass das mit den Intersample-Clipping auseinanderfällt sobald man am Signal irgendetwas verändert, z.B. einen Tiefpassfilter der womöglich auch noch an der Phase dreht einsetzt. Dann enden nämlich die Samples die vorher noch schön auf digitalem Maximum sind plötzlich auf einem höheren Wert. Und da das natürlich nicht geht, werden sie abgeschnitten, was wunderschönes digitales Clipping erzeugt. Und solche Filter sind (Überraschung!) Teil eines jeden verlusftbehafteten Audiocodecs. Man beachte die Ironie: ein Tiefpassfilter entfernt ja sogar Energie aus dem Signal, dennoch wird aber die maximale digitale Amplitude erhöht.


    So ein Tiefpassfilter bzw. in dem Fall der Anti-Aliasing Filter ist ja auch Bestandteil eines jeden Wandlers. So weit ich weiß kommt das Clipping in lossy Codecs weniger durch einen Tiefpassfilter (der auch nur bei niedrigen Bitraten signifikant was weg schneidet) und mehr durch das Verfahren selbst.
    Der Effekt mit der höheren Amplitude, obwohl man etwas weg schneidet, tritt bei Highpass Filtern übrigens noch viel deutlicher auf.


    Auch das ist m.E. kein Grund für Clippings. Mastering Menschen sind ja eigentlich hoch spezialisierte Techniker UND Künstler.


    Zitat

    Jetzt könnte man sich auf den Standpunkt stellen, Pech für die Streamingdienste, sollen die sich halt drum kümmern dass genügend Headroom im Signal eingefügt wird bevor codiert wird. Aber m.E. ist das falsch. Aufgabe des Masteringingenieurs ist, dass sich die Musik auf allen gängigen Wiedergabegeräten gut anhört. Und wenn der überwiegende Teil der Hörer Musik streamt, hat er in diesem Fall einen schlechten Job gemacht. Abgesehen davon, dass das Geschrei sicher groß wäre, wenn Streamingdienste mir der Rasenmähermethode alle Songs die Clippingprobleme haben leiser machen. Denn damit werden die tollen Lautmach-Tools, die das Clipping überhaupt verursachen wiederum ad absurdum geführt...


    Dazu muss man allerdings sagen, dass lautere Tracks aufgrund der Normalisierung auch mit mehr Headroom encodiert werden. Spotify streamt ja mit -14 LUFS und ein Track mit -10 LUFS wird sage und schreibe 4dB leiser gemacht, bevor er encodiert wird. Insofern bringt Streaming hier sogar Vorteile.


    Zitat

    tl;dr: Die Verzerrung kommt m.E. durch handwerkliche Fehler des Masteringingenieurs zustande. Und wie m_tree schon sagt: der Loudnesswar ist over!!!


    Leider noch nicht ganz, aber die Tendenz ist da. Ich bin da auch mit meinem Mastering Kollegen aus Berlin einig, der immer 1dB True-Peak Headroom lässt. Ich arbeite also definitiv dagegen. ;)


    Aber schade ist es wirklich ... das hätte einfach nicht sein müssen. Möglicherweise ist es TOOLs letztes LP Studio-Album.


    Was für ein Hohn, Bob Ludwig so etwas anzumuten. :D Na hoffentlich nicht! Er wäre wohl der Allerletzte in dieser Hinsicht.


    Genau deswegen hatte es mich ja so gewundert. Er unterliegt da aber halt auch einfach dem Lautheits Wahn. Und wenn ich sowas raushöre, dann könnte das schon so hinhauen ;)
    Maynards Stimme wurde im Mix bspw. an einigen Stellen wirklich kunstvoll verschiedenartig - je nach Part - angezerrt (das würde ich nie so hinkriegen) ... aber ich höre ganz genau, wenn etwas wegen übertriebenem "Prügel" auf der Summe zerrt. Kenne mich mit der Produktions Schiene ja mittlerweile auch ganz gut aus.


    What ever. Ist ja auch nicht weiter schlimm. Ich feier übrigens gerade bei "Invincible" den Part ab 9:34 total. Sooo einfach, für die "Verhältnisse", aber so treffend ;)

    Kannst du mal eine Laufzeit nennen, wo es besonders hervortritt?


    Ab 10:40 ca. hört man es ganz deutlich. Aber auch schon in dem Part davor tritt es leicht auf.


    Ich beziehe mich auf die "digitale" Version mit den 3 Lückenfüllern, die nicht auf der CD sind. Aber Bob Ludwig hat da ganz sicher nur ein Mastering gemacht. Das sieht man schon daran, dass die MP3s clippen. Das ist bei einem geringen Headroom, wie für CD üblich, normal nach dem Encodieren in ein lossy Format. Es empfiehlt sich also für lossy Formate einen größeren Headroom zu lassen, was hier nicht gemacht wurde.


    Ich habe den Track auch mal in die DAW gezogen und es ist sehr eindeutig. Die "globale" Verlaufsdynamik geht von leise nach laut und Profis wissen auch, damit umzugehen. Es ist bspw. Gang und Gäbe, die Lautstärke der Mix-Summe nach dem Summenkompressor zu automatisieren (ich spreche hier nicht vom Mastering) und das hat Joe Barresi auch ganz sicher gemacht (er erzählt davon auch was in einem Interview).
    Man kann in den leiseren Parts mit Schlagzeug am Anfang erkennen, wie dynamisch der Mix ist und wie deutlich die Drums Transienten hervorstechen. Die zerrenden Parts am Ende werden immer dichter und zerrender. Die wurden einfach brachial in "Brickwall" Lautmacher gefahren. Limiting und/oder gezieltes Clipping der A/D Wandler (das ist bei solchen Tracks auch Gang und Gäbe).
    Die durchschnittliche Lautheit nach EBU R128 von "Pneuma" liegt bei -11,8 LUFS, der letzte stark zerrende Part kommt auf -7,2 LUFS.


    Mir ist das nur noch bei einem anderen Track des Albums aufgefallen, es betrifft also glücklicherweise nur ein paar wenige kurze Stellen. Die Sache ist klar: Das Album hat eine relativ hohe Verlaufsdynamik und damit sowohl "Pneuma" als auch das laute Ende des Tracks Lautstärke-mäßig mit dem Rest mithalten kann, wurde da eben zugunsten der Gesamtlautstärke des Albums Schindluder getrieben.


    Man erkennt daran wieder, wie bescheuert dieser ganze Lautheitswahn ist.

    Ja. Auch beim Titeltrack (ab 9:00), Invincible (ab 6:50 die langsame Double Bass wackelt ab und an ganz winzig). In CCTrip ebenfalls. Wer hätte es gedacht - der Typ ist anscheinend menschlich!


    Also hatte ich doch richtig gehört ... :D


    Das Album gefällt mir nach mehrfachem Hören deutlich besser als "10000 Days". WIrkt in meinen Ohren weniger poliert, deutlich
    besser produziert und und trotz der Ruhe irgendwie böser/düsterer.


    Geht mir genau so. Insgesamt stärker als "10.000 Days", außer vereinzelte Songs wie "Right in Two" evtl. ...


    Zitat

    Was Careys "menschliches" Spiel angeht, das ist für mich eine Wohltat für die Ohren!


    Jepp. Halt einfach "echt". Das will in heutigen Zeiten ja schon was heißen :whistling:


    Zitat

    Er selbst hat in Interviews ja schon mehrfach darauf hingewiesen, das er es für wichtig erachtet, diese Dynamik (so nenne ich es jetzt mal zusammenfassend) einzubringen,
    weshalb auf Klick & Co verzichtet wird. Davon abgesehen, wenn ich mit knappen 60 (noch) so spielen kann - Hallelujah³ :thumbup:


    Also wirklich auch ohne Klick eingespielt? Man kann ja durchaus mit Klick einspielen und eben nichts nachträglich korrigieren. Macht ja nix, wenn die Band letztendlich zusammenspielt und gemeinsam mal etwas "zieht" oder "schiebt".
    Klick ist jedenfalls eigentlich nur für das Halten eines konstanten Tempos da ... und nicht um nachträglich alles Millisekunden-genau aufs Klickraster zu schieben. :whistling:


    Hab gerade noch mal "Pneuma" gehört und das war der Song, bei dem mir am Ende ein unschönes Zerren aufgefallen ist. Hört das noch jemand raus?
    Das kommt definitiv durchs Mastering. Und das ist wirklich schade, denn das zerstört einen guten Mix und das Hörerlebnis einfach ein Stück weit. Ich krieg da jedenfalls Zustände (ok, ich übertreibe ...).
    Man hätte das Album einfach insgesamt 1-2dB leiser mastern können und schon würden so vereinzelte laute Parts nicht mehr zerren. The Loudness War is over! :whistling:

    Hab's gestern mal durchgehört. Ist schon 'ne Wucht. Die Songs haben für meinen ersten Eindruck einen geringeren Wiedererkennungswert als z.B. bei Lateralus, aber sind trotzdem geil.


    Einziger wirklicher Wehrmutstropfen ist m.E., dass es stellenweise leicht zerrt. Und ich bezweifel, dass das wirklich gewollt ist. Das klingt einfach nach "Prügel" im Mastering. Was mich wundert, denn das Album wurde von Bob Ludwig gemastert (und von Joe Barresi aufgenommen und gemischt).


    Weiterhin meine ich gestern an ein paar wenigen Stellen ganz winzige spielerische Ungenauigkeiten von Danny rausgehört zu haben. Kann auch Einbildung gewesen sein, muss ich noch mal checken. Also wirklich nur ganz minimal. Mich freut das allerdings insofern, weil es zeigt, dass die Drums nicht quantisiert und wahrscheinlich auch sonst kaum korrigiert wurden. Das ist also noch echte "Einspiel Kunst" ...


    Wenn ich "7empest" covern will müsste ich den erstmal ein paar Monate üben. Aber weil ich meinen spielerischen Horizont sowieso erweitern will ... evtl. versuch ich's. Wenn dann aber erst nächstes Jahr.
    AAXplosion hier aus dem Forum wäre übrigens eher dafür prädestiniert ;)

    So Leute, es gibt wieder interessante Videos aus dem Netz zu sehen. Am meisten beschäftig mich derzeit das Thema "Pre-EQ'ing" - ein neuer Ansatz ans Recording. Neil Dorfsman (der das Album von Dire Straits Brothers In Arms gemischt hat) hat immer versucht, eine Band so nah wie möglich am endgültigen Sound aufzunehmen und bereits schon bei der Aufnahme reichlich EQ und Kompression eingesetzt. Anscheinend machen das die alten Hasen wie Edie Kramer (Jimi Hendrix), Sylvia Massy, (Red Hot..) Chuck Ainlay und viele andere auch so.


    M.E. sind dafür 3 Grundvoraussetzungen erforderlich: 1. Ausreichend (am besten richtig viel) Erfahrung - 2. Gutes Equipment, dessen Einsatz sich bei der Aufnahme lohnt - und 3., dass man die Aufnahmen selbst mischt.
    Seit den 80ern ist es immer öfter vorgekommen, dass Alben nicht vom Recording Engineer selbst gemischt werden. Hat letzterer nun schon bei der Aufnahme genau auf seinen Mixing Ansatz und seine finale Soundvorstellung hin EQt und komprimiert, kann das das Gesamt Ergebnis u.U. verschlechtern.


    Ich würde davon beim Aufnahme Prozess übrigens noch aus zwei weiteren Gründen die Finger lassen - gerade im Low-Budget / Home Bereich: Man sollte bei akustischen Aufnahmen erst mal darauf achten, das Maximum ganz ohne Effekte aus den Variablen rauszuholen und zum anderen verlangt der Recording Prozess selbst meistens schon sehr viel Aufmerksamkeit. Auch, wenn man jemand anderen aufnimmt. Stichwort Wohlfühlfaktor, gute Performance und so weiter.


    Diesmal geht es um den Einsatz des Lowcut-Filters. Interessant ist, dass sowohl Bob Clearmountain als auch George Massenburg (Erfinder des parametrischen EQs) in dieser Hinsicht genau dasselbe Konzept verfolgen und die Verwendung lediglich bei Vocals erfolgt.


    Ja, genau ^^
    Der immer wieder so sehr überschätzte Low-Cut ... viele Leute sind ja der Überzeugung, Low-Cuts wären das Mittel der Wahl, um den Bassbereich clean zu kriegen. Dabei eignen die sich vor allem, um Gerumpel unterhalb des Nutzsignals zu entfernen. Z.B. Ploppen im Tiefbassbereich auf Vocals u.ä. ... ansonsten ziemlich überschätzt, finde ich.


    ...


    Sich neuen Input über solche Videos zu holen finde ich schon sinnvoll. Aber was mir am meisten gebracht hat war, mich grundlegend zu belesen und selbstkritisch sehr viel selbst auszuprobieren, mein Gehör zu schulen usw.