Beiträge von m_tree

    Nein.
    Das (das Quantisierungsrauschen) würde nur hörbar werden, wenn es nicht durch Mikrofon- und Verstärkerrauschen, sowie durch Umgebungsrauschen überdeckt werden würde.


    Ich weiß. Hatte ich etwas anderes behauptet? :whistling:


    Zitat

    Ein Beispiel, damit es hörbar würde: Schallpegel sei 90dB SPL, mit 18dB Headroom aufgenommen. Dann liegt das Quantisierungsrauschen bei 16Bit bei um die 12dB SPL äquivalent. Mit sehr rauscharmen Mikros und Verstärkern könnte in diesem Falle der Noisefloor durch das Quantisierungsrauschen dominiert sein.


    Ich habe ein besseres Beispiel :D


    Habe kürzlich mal - wie angekündigt - mit einem SPL Meter die Lautstärke meiner Snare gemessen. Die Snare war relativ tief gestimmt, ohne Dämpfung. Habe normal drauf gehauen. Es wurden bei ca. 10cm Abstand 120dB(A) SPL angezeigt. Das Messgerät kann nur A-Bewertung. Eigentlich müssen solche Pegel - und weil es in diesem Fall hier sowieso nicht um die subjektive Lautstärkewahrnehmung geht - mit C-Bewertung gemessen werden. Der Grundton einer Snare liegt bei ca. 200Hz, also müssen noch mal max. 10dB drauf gerechnet werden.


    Einfach gerundet: Direkt an der Snare entstehen bspw. 125dB SPL. Ich würde da nur 10dB Headroom veranschlagen. Selbst, wenn man 20dB Grundrauschen des Mikrofons nimmt, bleiben so 115dB übrig. Wobei das 16bit Quantisierungsrauschen dann ganze 19dB über dem Mikrofonrauschen liegt. Nimmt man (durchaus realistische) 130dB SPL und nur 15dB Mikrofonrauschen, ist man sogar bei knapp 30dB.
    Werden nun noch leise Ghostnotes auf der Snare gespielt, die man gerne auch im finalen, gemasterten Produkt hören möchte, kann man sich den Rest selbst zusammenreimen. Und nicht nur Kompression bringt das Quantisierungsrauschen weiter hoch. Auch EQing, das über 1kHz betont und Sättigung ebenso.


    Man hört in der Praxis wirklich Unterschiede von nachbearbeiteten 16bit vs. nachbearbeiteten 24bit Aufnahmen. Probiere es doch selbst einfach mal aus. Klar geht die Welt mit 16bit Aufnahmen nicht unter. Aber warum mit 50% mehr Platzbedarf nicht einfach das Quantisierungsrauschen komplett und 100% sicher eliminieren?


    Außerdem klingt Quantisierungsrauschen nicht gut. Es gibt ja tatsächlich "schön klingendes" (analoges) Rauschen. Eine komplett rauschfreie Produktion klingt immer steril und nicht so musikalisch wie Produktionen mit leichtem Rauschen. Steht so ähnlich übrigens auch in "Mastering Audio". :)

    Man spricht bei höheren Samplingraten als (bzw. ganzzahligen Vielfachen von) 44,1 oder 48kHz, die für die Darstellung des hörbaren Bereichs eben nicht nötig sind, aber von Überabtastung. Und das nicht ohne Grund. Man kann den Informationsgewinn höherer Samplingraten nicht sinnvoll nutzen. Allerdings kann man dadurch den Anti-Aliasing Filter flacher machen, was zu einem neutraleren Klang führt.


    Bei der Bittiefe hingegen spricht man von Auflösung.


    Das ganze Thema ist sowieso mit reichlich Unverständnis und Mythen belastet. Daher versuch ich einfach, es mal auf den Punkt zu bringen.


    Edit
    Es geht hier nicht um das Oversampling in ADCs und DACs. Das sind ganz andere Baustellen als Aufnahmen in einer höheren Samplingrate zu machen oder Oversampling bei der Nachbearbeitung zu nutzen.

    Also (F)FT dient nur zur zeitlichen (Wellenform) und frequenzmäßigen (Spektrum Analyse) Darstellung des Signals, greift jedoch in keinster Weise ein. Die Wellenform kann jede normale DAW darstellen. Spektrum Analyzer gibts auch als Freeware Plugins. Ich nutze z.B. immer noch diesen hier, der reicht mir: https://www.voxengo.com/product/span/
    Sollte ja generell auch nur ein Hilfsmittel sein.


    Weiterhin interessiert niemanden, was über 20kHz passiert. Im Startpost steht ja (die Bilder sind nicht mehr abrufbar), dass bis 36kHz noch etwas passiert. Das ist aber völlig irrelevant, weil es keiner hören kann. Es geht bei der ganzen Sache nur um die Steilheit des Anti-Aliasing Filters. Der Filter rückt NICHT einfach weiter in höhere Frequenzbereiche, sondern der Cutt-Off bei ca. 20kHz bleibt, aber die Steilheit des Filters ändert sich. Durch eine geringere Steilheit gibt es weniger Artefakte / Rippling des Filters im hörbaren Bereich unter 20kHz.



    Edit 4 :D
    Will auch noch mal auf das Märchen der höheren Auflösung von höheren Samplingraten hinweisen. Bei der Bittiefe spricht man korrekterweise von Auflösung. Genaueres über die Zusammenhänge und die Relevanz höherer Bittiefen steht weiter oben.
    Aber höhere Samplingraten haben absolut nichts mit einer höheren Auflösung zu tun. Ist die Frequenz kleiner als die halbe Samplingfrequenz, kann sie abgetastet und auch genau so rekonstruiert werden (ist sie größer als die halbe Abtastfrequenz, gibt es Alias Effekte -> Anti-Aliasing Filter). Bspw. 20kHz (was sowieso schon keiner mehr - außer evtl. ein Baby - hört) sind bei 96kHz nicht höher aufgelöst als bei 48kHz, sondern "überabgetastet". Und welchen Grund diese Überabtastung hat, sieht man in der Grafik. :)

    Beeble & Drumstudio1
    Echt interessant. Danke :)



    Ich verstehe deine Argumentation. Dennoch kann man sich relativ einfach veranschaulichen, dass das Quantisierungsrauschen von 16bit in der Praxis häufiger zum Vorschein kommt. Und durch Nachbearbeitung (nicht nur Kompression) wird das dann eben auch hörbar.


    Das ist allein schon durch die Tatsache der Nahmikrofonierung begründet. Nah (oder innen) mikrofonierte Trommeln, nah mikrofonierte (ordentlich aufgedrehte Amps) - da entstehen ganz sicher über 100dB SPL. Nimmt man bspw. 110dB SPL, abzgl. (abgerundet) 10dB Rauschen des Mikrofons, plus 10dB Headroom, dann ist das 16bit Quantisierungsrauschen 14dB lauter als das Grundrauschen des Mikrofons.


    Aber selbst bei lautem, nah mikrofoniertem Gesang, entstehen nach meiner Einschätzung schnell mal 80-100dB. Kann man sich so vorstellen, dass jemand einem direkt ins Ohr brüllt.


    Also um es noch mal anders zu formulieren: 24bit bietet in jeder Aufnahmesituation genügend Reserve und färbt den Klang selbst nicht. 16bit hingegen klingt nicht immer neutral.


    Aber nicht seit jeher, wie du behauptet hast.
    Seit jeher waren dass die Systeme von Sony und Mitsubishi, und die liefen auf 16 Bit.


    24 Bit kostet nichts und schadet wenigstens auch nichts.


    Gruss


    Ok ok ... ich hab ja selbst mit der Korintenkackerei angefangen. :rolleyes:


    ...


    Aber ist schon klar. Durch 16bit Aufnahmen geht die Welt auch nicht unter. Mit 24bit hat man halt nur eine potenzielle Rauschquelle weniger in der Kette.


    Edith 2
    Ich hab ein Schalldruckpegel Messgerät. Kann ja bei Gelegenheit mal den Schalldruckpegel direkt an der Snare oder in der Bassdrum messen. :)

    Guter Thread :D


    Momentan spiele ich ein 20" Zildjian K-Custom (Medium Heavy) Ride und glaube, "angekommen" zu sein. Mal sehen, ob ich die Vorgänger noch zusammen bringe. In absteigender Reihenfolge (oben später, unten früher):
    - Zildjian K Heavy Ride 20"
    - Sabian HH Raw Bell Dry Ride 21" (das mit der dunkleren Glocke)
    - Zildjian A-Custom Ping Ride 20" (nur kurzzeitig)
    - Zildjian A Rock Ride 20"


    So ungefähr ... :whistling:

    Wie ich sehe, haben wir beide eine völlig verschiedene Auffasung von Sampling.


    Es gibt aber auch Fakten ;)


    Zitat

    Die zeitliche Auflösung wird durch die Abtastfrequenz, also die Samplingrate bestimmt. Je höher die Frequenz, desto öfter wir das Signal abgetastet.


    Nein, das Signal wird je nach Abtastfrequenz immer gleich oft abgetastet. Die Abtastfrequenz bestimmt allerdings die maximal abtastbare Frequenz. Siehe Nyquist Theorem. ;)
    Und aus diesem Grund gibts auch den Anti-Aliasing Filter.


    Zitat

    Mit deinen Antworten stimme ich keineswegs überein. Macht aber nix. ;)


    Macht überhaupt nix. Aber es gibt eben Fakten, wie gesagt 8)


    https://youtu.be/cIQ9IXSUzuM


    Ich habe aber genau aus dem Grund ja eben nicht regesampled sondern, wie beschrieben, analog beide Projekte (44,1kHz sowie 48Khz) vom einen Rechner mit der analogen Verbindung zweier zweier Firefaces auf dem anderen Rechner in 88,2kHz recordet. ;)


    OK. Dann verblüfft mich der Unterschied gerade tatsächlich.



    schon klar, aber vielleicht würde der CD-Master dieses Albums heute anders (besser?) klingen...


    Glaube ich eher nicht ... weil heutzutage der Loudness War noch nachwirkt. CD Masterings aus den 80ern und 90ern sind IMO die besten. Und richtig gut Mischen konnte man damals sowieso schon (m.E. sogar besser / musikalischer als heute ... weil nicht alles bis zum Abwinken aufgeblasen wurde, aber dafür mit ein Paar Eiern an die Frequenzverteilung schon bei der Produktion und beim Recording rangegangen wurde). Ist aber natürlich auch nach wie vor Geschmackssache. Ich stehe jedenfalls eher auf die Old School Variante.



    Zitat

    Ich sehe 48kHz auch als den besten Kompromiss zwischen Quali und Datengröße.
    Man sollte sich aber auch mal fragen, wieso nach der Einführung der CD mit 44,1kHz sehr schnell das 48kHz-Format aufkam... was machen diese knapp 4kHz aus und /oder besser? Ich finde die Antwort jedenfalls in meinem Vergleichstest und kann das nachvollziehen, was mir der fachkundige Kollege drüber berichtete (für mich schwer nachberichtbarer Aliasing-Vortrag); der war es auch, der mich zu dem Vergleichstest erst ermunterte...


    Ok, das würde mich auch interessieren. So weit ich weiß, wurden 48kHz für digitale Videos eingeführt. Aber ich schätze eher, dass man sich damals - warum auch immer genau - auf 44,1kHz für die Audio CD geeinigt hatte, aber 48kHz einfach eine rundere Sache ist und ein bisschen mehr Puffer für den Anti-Aliasing Filter bietet.

    - mehr Headroom bei der Aufnahme (so zwischen -12 und -16 dBFS ist optimal, somit wird auch der DAC Chip nicht in die nichtlineare Verzerrung gefahren)


    Jain. -10dBFS ist eigentlich die Faustregel für Peaks, aber vereinzelte Ausschläge auf -5dBFS sind auch kein Problem. Es geht da aber noch um mehr: hohe Dynamikschwankungen (Aufnahme ohne Kompression) sind bei 24bit ebenfalls kein Problem. Vor allem gehts aber auch um die Nachbearbeitung. Da werden Unterschiede von 16 zu 24bit Aufnahmen wirklich hörbar. 96dB Rauschabstand von 16bit reichen auch mit -10dBFS Headroom noch für die Dynamikspanne (Musikwahrnehmbarkeit) des menschlichen Gehörs aus, das gilt aber nur fürs fertige Medium. 24bit begrenzt aber eben nicht - das Quantisierungsrauschen liegt unter dem Grundrauschen von der Aufnahmetechnik, auch noch bei größerem Headroom, was bei 16bit nicht der Fall ist.


    Zitat

    - mehr Transienten bei der Aufnahme


    Hiermit ist wohl die Samplingrate gemeint. Und das ist falsch. Denn kein Mensch kann über 20kHz hören. Also selbst wenn sich wirklich was nennenswertes über 20kHz auf der Aufnahme abspielt, was mit höheren Samplingraten erhalten bleibt, kann das halt trotzdem keiner hören.


    Zitat

    die Amplitude, besonders im Höhenbereich, kann viel detailgetreuer nachgezeichnet werden (feinere Auflösung insbesondere im Höhenbereich)- naturgetreue Auflösung


    Nein. 44,1kHz kann im Höhenbereich bis 20kHz genau so viel darstellen wie 96kHz. Nur hat der AA-Filter bei 44,1kHz einen größeren Einfluss auf den Höhenbereich.


    Habe das hier in meinen letzten Beiträgen alles detailiert beschrieben. Wer aufmerksam liest, kann sogar was lernen oder Trugschlüsse korrigieren. :)


    Also noch mal auf den Punkt:


    • 16bit reichen für das fertige Medium aus. 24bit sind nur für den Aufnahme- und Bearbeitungsprozess relevant.
    • bei den Samplingraten geht es nur um die Klangfarbe des AA-Filters, der bei höheren Samplingraten flacher sein und damit neutraler klingen kann. Kein Mensch kann über 20kHz hören. Die Datenmenge und der Rechenaufwand sind übrigens direkt proportional zur Samplingrate. Kommt noch ein Resampling hinzu, erhöht sich der Rechenaufwand weiter.

    Also noch mal der Reihe nach:


    Im letzten Takt mit normal gespielter Snare wird auf die letzte 8tel die Snare gespielt. Im Takt darauf auf die erste 8tel ein Rimclick. Das alles bei 120-140bpm. Eine 8tel hat dabei die Dauer von 214-250ms (also weniger als eine viertel Sekunde).


    In Anbetracht der Fragestellung lautet meine Antwort da nicht mehr Üben, sondern einfach das Pattern ändern. Kann mir nicht vorstellen, dass dieser Ablauf essentiell für den Groove oder gar den Song ist.

    Cool :)


    Es ist noch ein kleiner zusätzlicher Vergleichsausschnitt drauf (vom Vinyl "Fates Warning - Perfect Symmetry) und bei dem "Death"-Song habe ich noch das original Wav von dem Death-SpiritualHealing-CD-Release in dem 88,2kHz-Sam-Projekt mit Resampling drin. (Das CD-wav ist natürlich nicht 100% synchron mit den beiden Vinyl-Takes)


    Der CD Release ist nicht nur nicht synchron, sondern auch viel lauter. Aber selbst, wenn man das auf gleiche wahrgenommene Lautstärke (LUFS / EBU R128 ) normalisiert, kann man das trotzdem nicht vergleichen. Weil sich ein Vinyl Mastering von einem CD Mastering grundsätzlich unterscheidet. Vinyl hat z.B. klare Grenzen was den Headroom und die Aussteuerungsdichte betrifft. CD Masterings können geprügelt werden wie sonst was. Und die Dynamik unterscheidet sich auch tatsächlich zwischen dem CD Master und deinem Vinyl Recording.


    Zitat

    Man achte beim Vergleich vielleicht erstmal besonders auf die Brillianzen bei Ride und Hihat.


    Mir fallen auch deutliche Unterschiede auf. Der Phasendreher bringt vor allem Differenzen im Höhen- und oberen Mittenbereich (also auch Gitarren) zu Tage. Die 48kHz klingen etwas brillianter, allerdings nicht unbedingt besser, find ich.
    Du darfst dabei nicht das Resampling in 88,2kHz außer Acht lassen. Je nach Qualitätsstufe des Resamplings färbt das den Klang noch mal. Und beim Resampling von 48 auf 88,2kHz müsste das wesentlich deutlicher in Erscheinung treten, weil der Rechenaufwand von 48 auf 88,2 wesentlich höher als von 44,1 auf 88,2 ist.


    Hier gibts Vergleiche von einschlägigen Samplingrate Convertern. Ist teilweise ziemlich übel, was da so für Artefakte auftreten:
    http://src.infinitewave.ca/


    Zitat

    Meineserachtens stinkt die CD-Quali generell am meisten ab, auch wieder besonders bei den Höhen (ok man muß auch die Zeit (1990) sehen, in der die ursprüngliche Original-CD hergestellt wurde.)


    Also vorgestellt wurde die CD schon 1980, nicht 1990. ;)
    Und meines Erachtens gabs bisher kein besseres Medium als die CD. OK, aus den 44,1kHz könnte man auch 48kHz machen. Aber mehr als 16bit und 48kHz braucht kein Mensch fürs fertige Medium. Die CD klingt gegenüber Vinyl (oder gar MCs :D ) sehr neutral und ist eben vor allem verlustfrei. Heutzutage wird fast nur noch MP3 und AAC gehört. Mittlerweile oft sogar direkt käuflich (mit allen Verlusten) erworben. Das ist m.E. das Hauptproblem.


    Wie gesagt gehts bei den Samplingraten nur um den Eigenklang des AA-Filters, mal von einem (zu vermeidenden) Resampling ohne Umweg über Analog abgesehen.

    Also erstmal ist 24bit durchaus Studiostandard, unabhängig davon, ob es deiner Meinung nach nun sinnvoll ist oder nicht :D


    Und ich hatte schon zwei mal gesagt, dass sich höhere Bittiefen vor allem bei der Nachbearbeitung bemerkbar machen. Hatte da selbst schon ein paar Tests gemacht. Nun hab ich mal einen Mix in 16bit gerendert und in das zugehörige Mastering Projekt geworfen. Spur mit Effektkette kopiert und siehe da: der Phasendreher bringt deutlich hörbare Differenzen zu Tage. Vor allem die leisen Signalanteile. Viel deutlicher als bei meinen Tests mit MP3 Encoding. Schlussfolgerung? :)


    Weiter vorne im Thread hatte es ein erfahrener Tonmensch auch schon gesagt und wurde zahlreich bestätigt.


    Die zusätzlichen Bits von höheren Bittiefen gehen nicht einfach nur weiter "runter", sondern lösen feiner auf. Nimm ein x-beliebiges, komplexes Audiosignal (Instrumenten- oder Vocal Aufnahme) und führe dir vor Augen, dass eine höhere Bittiefe die gesamte Dynamik feiner darstellt. Das kann man zwar nicht direkt unterscheiden. Aber der Eingriff mit Effekten verändert das Signal und führt immer dazu, dass vorher nicht hörbares in den hörbaren Bereich tritt. Mehr oder weniger. Und da ist es schon besser, wenn da dann nicht plötzlich ein Quantisierungsrauschen, sondern das Signal selbst verändert wird.


    Klar so weit? :)

    Ich poste hier einfach mal einen älteren Thread von mir, den ich Anfang 2015 auf recording.de veröffentlicht hatte ...


    ----------------------------------------------------------------------


    Habe mich in letzter Zeit etwas intensiver mit diesem Thema befasst und möchte mal veranschaulichen, dass dieser in der Tontechnik am häufigsten genutzte Effekt nicht nur in das Frequenzspektrum eingreift – auch nicht auf digitaler Ebene.


    Ich beziehe mich im Folgenden erstmal auf analoge Filter.


    Filter sind elektrische (passive) bzw. elektronische (zusätzlich verstärkte, aktive) Schaltungen, die von Wechselspannungen zum Schwingen angeregt werden. Sie bestehen im einfachsten Fall aus einem RC Glied (Widerstand, Kondensator), womit z.B. ein Hoch- oder Tiefpass Filter realisierbar ist. Aktive RC Glieder können außerdem noch als Bandpass wirken.
    Komplexere Schaltungen bestehen aus RCL Gliedern (Widerstand, Kondensator, Spule), die auch Schwingkreise genannt werden.


    Obwohl man mit Filtern im Normalfall nur in das Frequenzspektrum eingreifen möchte, lassen sich ein paar Nebeneffekte nicht vermeiden. Diese betreffen vor allem die Änderung der Phasenlage und das Schwingverhalten.


    ---------------------------------------------------------------


    GRUNDLEGENDES ZU "NORMALEN" MINIMAL-PHASE EQs:


    - RC Glieder haben eine maximale Phasenverschiebung von 90°, Schwingkreise 180° (halbe Periodendauer)
    - an der Resonanzfrequenz beträgt die Phasenverschiebung die Hälfte der max. Phasenverschiebung
    - die Gruppenlaufzeit definiert die Verzögerung […] des Signals und erreicht dort ihr Maximum, wo die Änderung der Phasenlage maximal ist. Sie ist von der Frequenz abhängig (je kleiner die Frequenz, desto länger die Gruppenlaufzeit). Die Gruppenlaufzeit ist die Ableitung (Änderung) der Phase nach der Frequenz. Daher „zerfließen“ bzw. „verschmieren“ Breitbandsignale durch die Phasenverschiebung.
    - die Güte (auch Q-Faktor oder Bandbreite genannt) beschreibt, wie lang ein Schwingkreis seine Schwingung (= Nachschwingen) aufrecht erhalten kann -> je größer die Güte, desto schmaler die Bandbreite und steiler die Flanke - und desto länger das Nachschwingen.
    - für höhere Gütefaktoren müssen Filter oft in Reihe geschaltet oder komplexer aufgebaut werden, was das Nachschwingen entsprechend verlängert
    - die Flankensteilheit wird durch den EQ Gain mitbestimmt (je höher der Gain, desto höher die Steilheit und desto länger das Nachschwingen)
    - Die Änderung (1. Ableitung) der Phasenlage ist bei der Resonanzfrequenz am größten und korreliert mit der Nachschwingzeit und der Gruppenlaufzeit



    Phasengang eines Schwingkreises (starke Dämpfung entspricht langer Nachschwingzeit = hoher Güte):



    Bode-Diagramm eines RC-Tiefpassfilters (oben Phasengang, unten Frequenzgang):


    -----------------------------------------------------------------


    HÖRBEISPIELE:


    Im Folgenden habe ich das Nachschwingen hörbar gemacht. Es handelt sich um eine direkt vor dem Resonanzfell mikrofonierte Bassdrum (hierfür gut geeignet wegen nicht vorhandenem Höhenanteil), deren Grundton bei ca. 75Hz liegt. Die Filter sind genau bei dieser Frequenz gesetzt. Ist ein älteres Sample von mir.


    >> Unbearbeitete Bassdrum <<


    Allpassfilter (ReaEQ) mit dem höchsten Gütefaktor (beim ReaEQ umgekehrt) bzw. schmaler Bandbreite:


    >> MP3 <<


    >> Screenshot <<


    Ein Allpassfilter hat einen "normalen" nicht-linearen Phasengang, aber einen linearen Frequenzgang (= kein Eingriff ins Spektrum) und wird zur gezielten Manipulation des Phasenverhaltens genutzt.



    12dB/Oct Bandpassfilter, Gütefaktor 10:


    >> MP3 <<


    >> Screenshot <<



    96dB/Oct Bandpassfilter, Gütefaktor 10:


    >> MP3 <<


    >> Screenshot <<



    Natürlich sind das unrealistische Einstellungen, aber das Nachschwingen ist bei hohen Gütefaktoren und Steilheiten deutlich zu hören.


    ------------------------------------------------------------------


    FOLGERUNGEN:


    - Equalizer beeinflussen nicht nur das Frequenzspektrum, sondern auch den Phasengang, was als "Verschmieren" bezeichnet wird
    - es tritt ein Nachschwingen auf, das mit dem Phasengang korreliert
    - steilere Eingriffe verursachen auffälligeres Phasenverhalten und Nachschwingen
    - beim Absenken wird die EQ Färbung abgeschwächt, beim Anheben wird sie hervorgehoben
    - Eingriffe im Bassbereich klingen auffälliger als im Höhenbereich, weil tiefe Frequenzen bei gleicher Phasenverschiebung länger nachschwingen als hohe (dazu kommt, dass es im Bassbereich am ehesten zu Phasenproblemen und Auslöschungen kommt, weil tiefe Frequenzen energiereicher als hohe sind)
    - Grund für den unterschiedlichen Klang verschiedener EQs ist das Phasenverhalten bzw. "Schwingverhalten", das durch die verschiedenen Bauweisen und Qualitätsstufen beeinflusst wird


    ----------------------------------------------------------------


    ES GIBT KEINEN PERFEKTEN FILTER ...


    Das ist der Hauptgrund für das Arbeiten mit höheren Samplingraten als 44,1kHz. Der Lowpass an der Nyquist Frequenz (= halbe Samplingrate) verursacht Artefakte (Passband-Kräuselung) über das gesamte Frequenzband.
    Höhere Samplingraten (auch Oversampling) erlauben geringere Filtergüten bzw. Steilheiten, die geringere Artefakte mit sich bringen.



    -----------------------------------------------------------------


    LINEAR-PHASIGE EQs:


    ... können in der Digitaltechnik den Phasengang durch erhöhten Rechenaufwand linearisieren. Die Gruppenlaufzeit ist damit konstant und lässt sich (Latenzausgleich der DAW vorausgesetzt) ausgleichen.
    Sie machen sich überall dort gut, wo die Phasenverschiebung problematisch ist. Z.B. bei mehrfach mikrofonierten Instrumenten, starken Eingriffen im Bassbereich auf der Summe, Crossfades von ungleich gefilterten Songteilen u.ä.
    Linearphasige EQs klingen anders. Bob Katz schreibt dazu in „Mastering Audio“, dass sie „aufgrund des Pre-Echos (Vorschwingen) auf subtile Weise die Wiedergabe von Transienten reduzieren, was ein Grund für ihren „süßeren“, weicheren Sound sein könnte.“ Weiterhin bescheinigt er den LP EQ's, Tiefe (Räumlichkeit) einer Mischung bewahren zu können.


    Die Existenz von Linear-Phase EQs untermauert übrigens, dass die oben beschriebenen Klangeigenschaften auf digitale Filter genau so zutreffen wie auf analoge.
    Warum das so ist, müsste man einen Programmierer fragen. :D


    ------------------------------------------------------------------


    Ich hoffe, ich konnte damit ein bisschen Licht ins Dunkel bringen. Meine EQ-Gewohnheiten hatten sich jedenfalls etwas verändert, seit mir die Klangeigenschaften dieser Effekte bewusst sind.

    Es gibt natürliche Grenzen, die man mit Übung natürlich nach oben hin korrigieren kann. Interessant wäre zu wissen, wie schnell der Wechsel genau gehen muss.


    Ich spiele matched Grip und drehe den Stick für den Rimclick meistens nicht rum. Mit gedrehtem Stick kriegt man einen etwas volleren und kräftigeren Rimclick hin. Aber aus Faulheit sch... ich da meistens drauf. :D


    Bist du eigentlich auch auf recording.de unterwegs? Da kenne ich auch einen Burkie. ;)

    Hast du die Dateien noch da? Würde mich interessieren.


    Im Normalfall gibts zwischen 44,1 und 48kHz keinen nennenswerten Unterschied, weil der Filter in etwa gleich steil bleibt. Da muss man schon ganzzahlige Vielfache dieser Samplingraten nutzen, damit sich signifikant was an der Steilheit des Filters ändert.


    Allerdings sollte man ein Resampling zwischen diesen beiden Samplingraten vermeiden. Bei ganzzahligen Faktoren hält sich der Rechenaufwand und damit der "Eigenklang" des Resamplings in Grenzen. In diesem Fall ist der Faktor aber nicht ganzzahlig.


    20kHz ist im Normalfall übrigens die maximale Durchlassfrequenz des AA Filters. Allerdings hat der Filter dennoch einen - mit zunehmender Steilheit größeren - Einfluss auf den hörbaren Bereich darunter:


    Ich grabe dieses ja doch "essentielle" Thema mal wieder aus ...


    Noch eine kleine Anmerkung zum Thema "Aliasing":


    Nutzen nicht moderne Wandler deswegen Oversampling?
    Spielt das also wirklich eine Rolle? ;)


    Moderne A/D Wandler arbeiten nach dem Delta Sigma Prinzip. Das sind 1bit Wandler mit extremem Oversampling. Der Hauptgrund dafür ist übrigens der einfache Aufbau des Wandlers und die Flankensteilheit des analogen Anti-Aliasing Filters. So steile Filter, die für bspw. 44,1kHz nötig sind, sind digital einfach zu realisieren, analog jedoch nicht.


    Es geht bei höheren Samplingraten übrigens genau um diesen Anti-Aliasing Filter. Je höher die Flankensteilheit, desto auffälliger der Eigenklang des Filters. An manchen Stellen der Nachbearbeitung macht sich Oversampling tatsächlich bemerkbar (speziell wenn es um den Höhenbereich und Distortion / Sättigung geht).
    Ich hatte auch schon mal meine Mixes testweise mit 88,2kHz gerendert. Das klingt tatsächlich anders. Jedoch habe ich - mal vom viel höheren Rechenaufwand ganz abgesehen - für mich rausgefunden, dass es nicht besser klingt.
    Allerdings spielt dabei auch das Resampling eine Rolle. Ein Resampling sollte im Optimalfall über eine analoge Konvertierung (bzw. generell analoge Nachbearbeitung) mit entsprechend hochwertigen Wandlern gemacht werden.


    Also alles, was über 44,1 bzw. 48kHz hinaus geht, hat höchstens bei der Aufnahme und Nachbearbeitung Relevanz. Aber auch da lohnt es sich in den aller meisten Fällen einfach überhaupt nicht (mal von Oversampling von Plugins abgesehen).
    Das aller schlimmste sind aber fertige "Produkte" bzw. Streams mit höheren Samplingraten. Weil der Großteil der bisherigen Masterings mit 16bit / 44,1kHz gemacht wurde. Die Samplingrate und Bittiefe im Nachhinein zu erhöhen ist der größte Humbug, den es gibt. Und es gibt genug Leute, die drauf reinfallen.


    44,1kHz und 48kHz können bis 22,05 bzw. 24kHz darstellen. Kein Mensch kann über 20kHz hören. Der "Zwischenraum" wird für den AA-Filter genutzt.


    Bei der Bittiefe gibts auch viele Märchen. Höhere Bittiefen als 16bit lohnen sich nur für den Aufnahme- und Bearbeitungsprozess. 16bit kann einen Dynamikumfang von 96dB darstellen. Die Musikwahrnehmbarkeit des menschlichen Gehörs hat einen Dynamikumfang von ca. 70dB.
    24bit kann einen Dynamikumfang von 144dB darstellen. Bei der Aufnahme ist das nicht nur für einen ausreichenden Headroom und höhere Dynamik (Kompression und Limiting bis zum fertigen Master lassen grüßen ...) wichtig. Sondern es ist auch unabhängig davon so, dass höher aufgelöstes Material bei der Nachbearbeitung wirklich besser klingt. Das geht sogar bis zum Encodieren in lossy Codecs wie MP3 oder AAC. Selbst getestet und mit Phasendreher bestätigt. Youtube, iTunes etc. empfehlen für den Upload auch 24bit.


    Im Normalfall wird im Mastering beim Quantisieren auf 16bit noch gedithert, was den Dynamikumfang noch mal leicht vergrößert und dem Quantisierungsrauschen entgegen wirkt.
    Und auch hier: nachträgliches Erhöhen der Bittiefe ist kompletter Mumpitz. Was einmal weg ist, ist weg.


    Ich hatte aber auch schon Mixing Jobs mit 16bit Spuren und habe da trotzdem vernünftige Ergebnisse erreicht.
    Also wenn "Digital" einen Eigensound haben sollte, dann den des AA-Filters und des Quantisierungsrauschens bzw. Dithers. Beim fertigen Ergebnis in 16bit / 44,1kHz (Audio CD) hört das aber kein Mensch mehr raus, wenn nirgendwo geschlampt wurde. :D


    ...
    Bedenklich finde ich aber die aktuelle Entwicklung mit MP3 / AAC. Unter bestimmten Bitraten leidet die Qualität dabei merklich, insbesondere wenn mehrfach in lossy encodiert wird (was häufig bei Uploads bei bspw. Youtube oder Soundcloud passiert). Verlustbehaftete Codecs mit psychoakustischen Verfahren klingen immer anstrengend. Wenn auch nur unterbewusst und ganz subtil - das Gehirn ist immer gezwungen, das Fehlende wieder hinein zu interpretieren.
    Dazu kommt, dass bei den stetig wachsenden Datenträger Kapazitäten und Internet Bandbreiten so eine starke Datenkompression gar nicht mehr nötig ist. Verlustfreie, platzsparende Codecs wie FLAC mit bspw. 16bit / 44,1kHz sollten die Zukunft sein, finde ich.

    Ich möchte an dieser Stelle Einsicht kundtun. Mein Verhalten war unangebracht, auch in anderen aktuellen Recording / Tontechnik Threads. Das hängt bei mir z.Z. tatsächlich mit Problemen im realen Leben zusammen (gewisse Sachen, die mir widerfahren sind, wünsche ich hier keinem).


    Evtl. erstelle ich hier aber mal einen zusammenfassenden Thread meiner bisherigen "Abhandlungen" an anderen Stellen. Recording, Tontechnik und Musikproduktion sind sowieso sehr komplexe Themen (womit weniger die Technik selbst gemeint ist). Aber beim Schlagzeug wirds noch mal komplizierter. :D


    Nichts für ungut ... bin erst mal wieder raus.

    Ich mein ja auch das Video. Warum soll das kategorisch Blödsinn sein? Mir gefällt die bearbeitete BD besser. Was ist der große Fehler?


    Es ist nicht nötig, Raumresonanzen auf Bassdrums wegzufiltern. Außerdem sollte ein guter Tontechniker so etwas nach Gehör machen können. Und das bezieht sich jetzt nicht auf das Ausmessen von Räumen, sondern auf die Nachbearbeitung von Spuren.


    Zitat

    Das angebliche Fachwissen finde ich da meist so cool wie "Musik studiert haben": das bringt's nämlich leider ganz oft eben nicht, wenn man das Produkt dann hört. ;)


    Das brauchst du mit nicht zu erzählen. Bin Autodidakt und werde trotzdem davon leben können. Hab in Mixing Wettbewerben Tonmeister abgezogen. Und meine Mischungen klangen deutlich anders.
    Genau das, was du mir hier erzählst, dachte ich mir über andere schon oft.


    Weiterhin sind deine Kommentare sehr selbstironisch in Anbetracht dessen, dass man von deinen "Tontechnik Skills" nichts hören kann. Wahrscheinlich kommt dann auch ganz schnell die große Ernüchterung. :D


    Diese Diskussion ist an Sinnlosigkeit kaum zu überbieten. Betrachte es halt einfach als Hinweis darauf, dass automatisches Wegfiltern von Raumresonanzen auf Bassdrum Spuren im professionellen Sektor sehr, sehr unüblich ist.


    Aber was will man auch sonst erwarten, wenn die Grundlage einer Diskussion so ein Tutorial Video ist ...

    Nein, habe es im Zorn geschrieben und wieder entschärft... es geht vor allem darum, daß es mich echt triggert, wenn einer kommt und das Ding schlechtmacht indem er "seine super Mixes" als Gegenbeweis anpreist und der "Profi" ist. Zynaptiq Plugins sind nämlich bei Profis hoch im Kurs, falls du das nicht auf dem Schirm hast. Und ja, Tool törnt echt mit Anlauf gar nicht ;), Kindergarten hin oder her. Und nun ist aber auch gut mit Kindergarten. ;)


    Die Plugins habe ich nicht schlecht gemacht. Zeig mir einen Satz, in dem ich das getan habe.


    Ich habe das Video selbst kritisiert und dass man Raumresonanzen auf der Bassdrum wegfiltert. Wer sowas im stillen Kämmerlein macht, ist ja ok ... aber sowas reißerisch ins Netz zu stellen und damit - sorry - Blödsinn zu verbreiten ist halt schon was anderes.
    Es gibt nämlich Leute, die kein Fachwissen haben und das für bare Münze nehmen.


    Und weil ich mich nun mal ganz gut auskenne, habe ich darauf hingewiesen.