Beckenstützmikros sind alle Mikros, die speziell für einzelne Becken zuständig sind (z.B. Hi-Hat oder Ride).
Beckenstützmikros sind keine Overheads.
Beckenstützmikros sind alle Mikros, die speziell für einzelne Becken zuständig sind (z.B. Hi-Hat oder Ride).
Beckenstützmikros sind keine Overheads.
Und ein ordentliches Metronom kann auch 6/8, was für einen nicht so geübten Schlagzeuger sehr hilfreich ist.
Bringt aber nichts, wenn man die 1 sowieso nicht betonen lässt und gar nicht will, dass das Metronom auf alle 6 Viertel oder Achtel klickt. Wie in meinem Fall.
Die Diskussion driftet ins Offtopic ab ...
Low Cut auf den Overheads? Ich nutze Low Cuts beim Schlagzeug nur noch auf Beckenstützmikros. Ausdünnen kann man mit Low Shelfs viel besser.
Recording und Live sind unterschiedliche Baustellen. Close Mics an Becken klingen immer scharf. Auf einer Tour letztes Jahr hatte die Band immer "Underheads" für die Becken genutzt. Ich hatte das mal für Aufnahmen probiert, würde ich da aber nie machen. Overheads klingen einfach weitaus besser.
Live kommt ja schon mehr oder weniger Natursound von der Bühne, dazu überspricht das Schlagzeug in andere Mikros.
Beim Recording entfällt das.
Ohne Overheads würde ich nie aufnehmen.
Hier geht's nur um Recording, weil ein Aligning live gar nicht möglich ist. Also bitte beim Thema bleiben. ![]()
Ist aber halt Bullshit, weil in dem Heft viele Taktarten ungleich 4/4 vorkommen. Z.B. 2/4 und bei den 6ern hatte ich das Metronom oft nur auf die 1 und 4 klicken lassen.
Wofür gibt's dieses Forum? ![]()
Mit meiner Methode bin ich sehr gut und schnell klargekommen. Das Smartphone hatte ich dabei sogar auf Flugmodus, glaub ich, damit mich keiner stört.
Formel: 60 Sek. / bpm * Zähler der Taktart * Taktanzahl
Ein 4/4 auf 80 bpm läuft über 20 Takte also genau 60 Sek., auf 100 bpm nur noch 48 Sek. usw.
Vor ein paar Jahren hatte ich das komplette Heft wie geschrieben auf einem Practice Pad durchgespielt, ohne eine einzige Übung auszulassen. Ich habe letztlich jede Übung auf Klick > 20x im Loop durchgespielt. Das Tempo habe ich jeweils auf mein "maximales Wohlfühltempo" eingestellt, z.T. habe ich nur die Halben für den Klick genutzt.
Um mir das lästige Zählen der Wiederholungen zu sparen, habe ich ausgerechnet, wie lange 20 Takte auf dem jeweiligen Tempo dauern und dann einen Timer vom Smartphone eingestellt, der ein paar Sekunden länger dauert.
Die schwierigeren Übungen musste ich mir z.T. erst ohne Metronom kurz erarbeiten, bis ich sie dann im Loop auf Klick hingekriegt hatte.
Unterm Strich hat mir das meiner Spieltechnik durchaus gut getan.
Wichtig dabei - wie schon angemerkt wurde: nicht zu viel auf einmal! Ich hatte da immer Sessions von einer maximal Stunde gemacht, glaub ich.
Da bin ich bei Dir! Wenn man nur mit Overheads und BD&SN Stütze aufnimmt, ist das was anderes, da macht ORTF schon viel Sinn, aber bei Mikrofonierung aller Trommeln klingt AB für mich auch am besten. Und die Geschichte mit den nach innen gewinkelten Mikros bei AB ist sinnfrei - erstaunlich dass man das trotzdem sehr oft sieht.
Bei Minimalmikrofonierung ist die "Glyn Johns"-Aufstellung meiner Meinung nach am besten, weil nur so z.B. das Floortom laut genug ist. Richtige Stereofonie halte ich generell für ungeeignet als Overheads. Ich hatte mal mit EBS (Sengpiel) experimentiert, aber da zeigen die Mikros ja auch wie bei XY nicht aufs Set, sondern eher in den Raum. Und bei Richtmikrofonen korreliert ja auch der Frequenzgang mit der Richtwirkung - bei 90° schwächeln z.B. die erweiterten Höhen auch bei den meisten Kondensatormikrofonen schon deutlich.
XY ist mir den Aufwand mit zwei Mikros kaum wert, weil das Stereobild ganz ohne Laufzeitdifferenz schon sehr dürftig ist.
Ist aber nur meine Meinung. ![]()
Es zeigt sich doch immer wieder sehr schnell, wie komplex das Thema ist. ![]()
Das mache ich auch immer. Dabei hängt es aber sehr stark von der Höhe der Overheads ab, ob eine Phasendrehung besser klingt oder nicht. Ist die Höhe so, dass sich gerade die Grundtöne von Snare und Toms auslöschen, dann bringt die Drehung einen viel volleren Sound. Bei mir waren die Overheads diesmal deutlich höher als sonst und es gabe keinen eindeutigen Unterschied beim Drehen der Phase.
Wenn die Raumhöhe es hergibt, hat man diese Option natürlich. Große und hohe Räume sind halt eher Luxus. Ich bin kürzlich in einen neuen Raum eingezogen - ist im Prinzip Raum in Raum - und genieße dort viele Vorteile (z.B. schnell und effektiv beheizbar, eine vollständig eingerichtete Küche, Lagermöglichkeit außerhalb des Raums, hohe Einbruchsicherheit, ...). Aber der Raum ist halt wieder nur knapp 15 m² groß und die Decke nur etwa 2,3m hoch.
Da bin ich bei der Aufstellung der Overheads jedenfalls eher damit beschäftigt, dass die weder zu nah an der Decke noch zu nah am Schlagzeug sind. Bei der Positionierung bin ich mit aktuell wieder vier Toms, zwei Snares und drei Crashbecken, China und Splash (Stützmikros für Hi-Hat + Ride) eher damit beschäftigt, dass die Overheads die Becken ausgewogen aufnehmen, dass die Becken auf den OHs gut klingen und dass die Stereobereite bei 100% Panning meinem Geschmack entspricht.
Dass die Snare auf den Overheads nicht ganz mittig ist spielt für mich im Gesamtmix mit insgesamt 14 Mikrofonen kaum eine Rolle. Ich finde eine nicht ganz mittige Snare auf den Overheads sogar gut, weil sie so eben räumlicher und breiter wird.
Für mich kommt bei meinen Schlagzeug-Overheads auch fast nur noch eine spaced Aufstellung in Frage. Mit klassischer Stereofonie haben Schlagzeug-Overheads eigentlich nichts zu tun (so sehe ich das jedenfalls). Nach wirklich vielen Experimenten finde ich den Klang der Overheads in einer AB-ähnlichen Aufstellung am brauchbarsten bei Multimikrofonierung von allen Trommeln - in exakt gleicher Höhe und exakt vertikal nach unten ausgerichtet. Klingt m.E. besser als in unterschiedlicher Höhe (bspw. um die Laufzeiten zur Snare anzugleichen) oder irgendwie schräg ausgerichtet.
Gleichen Abstand der Snare zu den Overheads hatte ich auch lange Zeit immer wieder umgesetzt. Das mag bei minimaler Mikrofonierung und entsprechendem Mix gut funktionieren. Aber bei vielen Closemics, einem größeren Set-Aufbau mit vielen Becken und Verzicht auf Raummikros sind mir die Overheads mit mittiger Snare einfach zu unausgewogen (v.a. hinsichtlich der Becken, für die sie ja primär zuständig sind). Und bei Verzicht auf Aligning macht es die Snare sogar räumlicher und breiter, wenn sie nicht mittig auf den Overheads ist.
Aber ist alles Philosophie-Sache ... am Ende geht's ja nur darum, wie's klingt und ob's einem selber gefällt.
Habe mir mal die Wavedateien gezogen. Mir fällt auf, dass die alignten Versionen jeweils über 1 dB lauter sind (bezogen auf die wahrgenommene Lautstärke bzw. Lautheit nach EBU R128). Das kann durchaus dazu führen, dass diese im Blindvergleich besser abschneiden. Ich checke und normalisiere das vor Vergleichen immer.
Mir gefallen die nicht alignten Versionen deutlich besser. Klingen viel offener und natürlicher! Aber ist natürlich Geschmackssache.
Verzichtet man auf ein Aligning, sollte man natürlich trotzdem die Phasen checken. Die Werkzeuge dafür sind die Ohren und die Phasenschalter der Tracks.
Ich stelle immer wieder fest, dass phasengedrehte Overheads oft besser mit den close mics an Snare und Toms harmonieren. Es lohnt sich auf jeden Fall, hier ein bisschen rumzuprobieren.
Nein, die Latenzkompensation lässt sich nicht abschalten, in keiner DAW. Das ist der Grund weswegen man die Asioschnittstelle erfunden hat.
Die ASIO-Schnittstelle wurde meines Wissens für Multitrack-Recording und geringe Latenzen erfunden, nicht weil sich die Latenzkompensation von DAWs nicht abschalten lässt. ![]()
Aus den Screenshots lässt sich nicht zwingend der tatsächiche Vorgang abbilden. Es handelt sich lediglich um eine Darstellung deren Algorithmen zur Berechnung und Darstellung wir nicht kennen. Um objektive zuverlässige Werte zu erhalten, müßte man die Signale zb. mit einem Oszilloskop messen, um den tatsächlichen Versatz zu bestimmen.
Vorausgesetzt, dass die in REAPER angezeigten Latenzen (die Tracks habe ich entsprechend benannt) stimmen, ist das schon ein Beweis für die Latenzkompensation der DAW. Ein Oszi kann darüber auch nicht weiter Aufschluss geben, weil "Anfang und Ende" der DA->AD-Kette ja rein digital in der DAW sind.
es spielt keine Rolle ob der Signalweg zur DAW 1ms oder 1000ms beträgt. Die Synchronität bleibt gewahrt.
Wie mein Test zeigt, gibt es u.U. schon einen leicht schwankenden minimalen Versatz. Aber ich denke bei allem was kleiner als 1 ms ist kann man schon von Synchronität sprechen.
Latenz spielt hier ausschliesslich eine Rolle beim direkten mithören über die DAW (Monitormix)
- beim einspielen und direktem Mithören von Midizuspielern.
Dem stimme ich zu.
Was für eine Ausbildung war das denn? Auf mich hatte es so gewirkt, dass du nicht so recht weißt was du tust, weil du eine manuelle Latenzkompensation in der DAW machst. Dass dir also der Umstand nicht bewusst ist, wie effektiv DAWs die Latenz ausgleichen. Ich bin bei dem Thema zwar Autodidakt, war und bin aber stets bemüht sowohl die Zusammenhänge gründlicher zu verstehen als auch im Sinne des "Großen und Ganzen" vernünftige Prioritäten zu setzen und mich fern von esoterischen Glaubenssätzen zu halten.
Ja, in meinem Test bleibt ein Versatz bestehen, der aber abhängig vom Gerät nur noch ein paar Samples bzw. 0,1-0,3 ms beträgt. Das entspricht oft weniger Abstand, als Schallquellen zu Mikrofonen haben. Und ist weit entfernt von z.B. den 47+47ms (94 ms!), die die 1024 Samples Puffer am 18i20 2nd Gen haben! Die praktische Latenz ist an meinem Interface grundsätzlich immer etwas mehr als doppelt so hoch wie die theoretische.
Ich verstehe nicht warum du das anscheinend unbedingt negieren willst.
Ich will nichts negieren, sondern nur aufzeigen, dass eine manuelle Latenzkompensation eben unnötig ist. Ein anderer User meinte ja, dass man mit Overdubs immer mit zeitlichem Versatz zu kämpfen hätte. Wenn es dabei aber nur um wenige Samples geht, ist das halt vernachlässigbar.
Nach allem was ich - auch in Fachliteratur - so gelesen und gesehen habe, ist mir nie zu Ohren gekommen, dass man in modernen DAWs für Overdubs eine manuelle Latenzkompensation machen müsste. Höchstens, dass man ein Aligning von Schlagzeugspuren machen müsste, aber ich halte das nach mehreren Blindvergleichen lieber old school.
Das Nyquist-Shannon-Abtasttheorem besagt, dass die Abtastrate mindestens grösser als doppelt so hoch wie die maximale abzutastende Frequenz sein muss.
Korrigiere ich gleich mal. Eine der Grafiken erscheint irgendwie auch nicht mehr in dem Thread ...
Aus den Screenshots lässt sich ableiten, dass die Latenzen, verursacht von der Grösse des Buffers (64, 256 & 1024 Samples) kompensiert werden.
Diese sind ja wesentlich grösser als der Rest von +- 0.3ms. Die sich interessanterweise unterscheiden.
14Spls@64, 12Spls@256 und 15Spls@1024. Dieser Unterschied von drei Samples (ca 0.068 ms) könnte tatsächlich auf die von Beeble genannten Gründe zurückzuführen sein. Das tönt für mich plausibel.
Aus den Screenshots lässt sich ableiten, dass die gesamte Latenz kompensiert wird. Bei 256 Samples @ 44,1 kHz ist die theoretisch minimale Latenz ca. 5,8 ms. Die tatsächliche und auch von REAPER angezeigte Latenz beträgt aber ca. 12 ms mit dem 18i20 2nd Gen. Weil ich nun einen Klick von der DAW aufgenommen habe, entsteht so eine Gesamtlatenz von etwa 24 ms (Output + Input) bei 256 Samples. Und diese wird von REAPER komplett ausgeglichen.
Ich hatte gestern einen weiteren Test mit einer anderen Quelle gemacht (ein Attackreicher Snare-Schlag). Bei 256 Samples betrug die verbleibende Latenz im Projekt 10 Samples. Ich habe dann mal das Gerät gewechselt und statt vom ADA8200 einen Kanal vom 18i20 genutzt. Und siehe da - so waren es nur noch 5 Samples.
Das ist alles vernachlässigbar und bedeutet sowieso schon einen sehr hohen "Komfort", weil die DAW eben die gesamte praktische Latenz ausgleicht - nicht nur die theoretisch minimale der Puffergröße!
Die manuelle Kompensation der Latenzen kannst du dir also sparen, wenn du mit professioneller Hard- und Software arbeitest. ![]()
Ich hatte hier vor einiger Zeit mal einen Thread erstellt, der ein paar Grundlagen zum Thema "Digitale Audiosignalverarbeitung" beleuchtet. Weil z.B. bei der Samplingrate und Oversampling, aber auch der Bittiefe, immer wieder Mythen und Missverständnisse kursieren.
So wie ich das bisher verstanden habe, gleicht die Latenzkompensation einer DAW die durch die eingestellte Buffergrösse entstehende Verzögerung aus. Und eben nur diese. Man möge mich verbessern, wenn ich hier auf dem Holzweg bin.
Diese Latenz ist der DAW ja bekannt. Bei 1024 Samples @48kHz wären das 21,33 ms.
Was ist mit den zusätzlichen ~31,5ms des L20?
„Weiss“ die DAW davon und kann diese bei der Latenzkompensation berücksichtigen, oder bleibt diese Information „pultintern“?
Nein, da irrst du dich und deine manuelle Latenzkompensation war auch der Grund für meinen Test. Dieser veranschaulicht doch klar und deutlich, dass die DAW die gesamte, tatsächliche / praktische Latenz ausgleicht. REAPER zeigt diese praktische Latenz auch an.
Also wenn man mit brauchbaren Audio-Interfaces und einer richtigen DAW aufnimmt braucht man sich über sowas keine Gedanken zu machen.
Latenzkompensation von Aufnahmen im Projekt und Latenzfreies Monitoring sind aber zwei verschiedene Dinge. Letzteres geht nur ohne DAW. Die einschlägigen Audio-Interfaces haben dafür eigene (interne) Signalwege bzw. DSPs, die über eine Software steuerbar sind.
Frohes Neues! ![]()
Außerdem handelt es sich um ein Rechtecksignal welches analog im Wandler je nach Abtastgeschwindigkeit ganz sicher unterschiedliche Flankensteilheit mit sich bringt,
was dann die grafische (gerundete) Darstellung erklären könnte.
Die Wellenform des Klicktracks ist da wohl irreführend, weil ich als Klicksound eine Dreieckschwingung eingestellt habe, welche sich ja auch so in den Wellenformen der Aufnahmen zeigt. Möglicherweise gibts gar keine Verzögerung, weil das Signal nicht punktgenau auf dem Raster (sondern eben um ein paar Samples verzögert) beginnt. Müsste ich noch mal mit einer anderen Quelle testen.
Aber ich denke dein Test zeigt deutlich das die Kompensation funktioniert
Jepp! So eine DAW ist schon was Feines. ![]()
Den Test kannst du dir sparen. Mir ist keine DAW ohne Latenzkompensation bekannt.
Schon zu spät - das hatte ich gestern Nachmittag im Recording-Studio sowieso noch gemacht. Hat mich sowieso interessiert, wie das in der Praxis genau aussieht.
Außerdem scheint das hier nicht allen Leuten klar zu sein (Stichwort manuelle Latenzkompensation) - deshalb wollte ich schon einen extra Thread dafür machen.
Für den Test habe ich ein Scarlett 18i20 2nd Gen (gekoppelt über ADAT mit einem ADA8200) und REAPER benutzt. Ich habe einen Klicktrack angelegt und einen der Line-Outs des Scarletts direkt in einen Line-In des ADA8200 geführt. Das habe ich dann mit 64, 256 und 1024 Samples @ 44,1 kHz aufgenommen. Die praktischen Latenzen waren jeweils mehr als doppelt so groß wie die minimal theoretischen der Puffergrößen - ich habe die Tracks in den Screenshots entsprechend benannt. Die Markierung im letzten Screenshot entspricht 14 Samples. Man erkennt, dass die Kompensation nicht aufs Sample genau funktioniert - wohl genau deshalb, weil die tatsächliche praktische Latenz ausgeglichen wird. Wo die Verzögerung herkommt, weiß ich nicht. Aber 14 Samples entsprechen bei 44,1 kHz etwa 0,3 ms, was wiederum ca. 10cm Weg der Schallgeschwindigkeit entspricht. Da hat man z.T. größere Latenzen durch entsprechende Abstände von Mikrofonen.
Nähme man zu bereits in der DAW vorhandenen Spuren etwas weiteres auf, entsteht ein zeitlicher Versatz, da sind wir uns einig. Die von mtree genannte Latenzkompensation lasse ich mal aussen vor, da ich nicht weiss, ob diese tatsächlich alle Latenzen berücksichtigen kann.
Diesen Versatz der neu aufgenommenen Spur(en) entferne ich durch verschieben dieser Spuren in der DAW. Sozusagen eine manuelle Latenzkompensation die sich an der Position der vorhandenen Spuren orientiert. Ich nehme an, die Vorgehensweise ist dir bekannt, du scheinst dich ja mit der Gesamtthematik sehr gut auszukennen und über viel Erfahrung zu verfügen.
Ich werde dazu nachher mal ein paar Tests mit unterschiedlichen Puffergrößen machen, weil mich das jetzt selbst interessiert. Ich bin mir aber sehr sicher, dass DAWs die Latenzen unmittelbar nach der Aufnahme sehr effektiv kompensieren. Dass man für Overdubs eine manuelle Latenzkompensation durchführen müsste / sollte, ist mir neu.
Die Spuren werden am Ende genau so im Projekt abgespeichert, wie man sie mit Latenz-freiem Monitoring zum Playback einspielt oder einsingt bzw. hört.
Ansonsten käme man ja mit Aufnahmen im Overdub-Verfahren mit längeren Latenzen schnell an einen Punkt, an dem das alles auseinanderfällt. Da wäre man dies bzgl. mit jedem Multitrack-Tonband besser bedient. Das bezweifel ich sehr stark! Aber wie gesagt - ich werde dazu nachher noch ein paar Tests machen.
Üblich ist heutzutage eine Vielzahl an Overdubs. Beispiel: Guidetracks -> Drums -> Rhythmusgitarren (4x / jeweils Strophe + Refrain gedoppelt) -> Bass -> 4x Keys / Synths -> 2x Lead Vocals (Strophe / Refrain) -> 4x Backing Vocals -> Solo-Gitarre ... das sind dann schon 18 Stufen, oft werden es sogar noch mehr. Mir ist beim Recording da nie ein sich aufkumulierender zeitlicher Versatz aufgefallen und ich bezweifel, dass die fremden Multitracks, die ich so gemischt habe, irgendwo manuell Latenz-kompensiert wurden.
Naja, wenn du alle Spuren gleichzeitig aufnimmst stimmt deine Theorie
Spielst du aber zu Spuren die bereits in der DAW sind, kann das eine Herausforderung werden.
Inwiefern? Einen zeitlichen Versatz der neu eingespielten Spuren zu den bereits vorhandenen hat man in so einem Fall ja mit jedem Interface, mal grösser mal kleiner. Der muss durch verschieben der Spuren ausgeglichen werden.
Wie ich bereits geschrieben habe, ist das ein Irrglaube. DAWs kompensieren die Latenzen automatisch beim Recording. Und zwar nicht nur die theoretisch minimalen Latenzen, die sich aus der Puffergröße errechnen, sondern die tatsächlichen praktischen Latenzen, die sich aus der genutzten Hardware ergeben. Da bin ich mir ziemlich sicher.
DAWs sind auch bei der Nachbearbeitung dazu in der Lage, die unterschiedlichen Latenzen von zig VSTs entsprechend zu kompensieren, damit alle Spuren unabhängig von den benutzten VSTs gleichzeitig laufen. Da sollte die Kompensation der Latenzen beim Aufnehmen pillepalle sein.
Soweit ich weiß rechnen moderne DAWs die Latenz beim Recording automatisch raus. Eingangs- und Ausgangslatenzen werden also direkt bei der Aufnahme kompensiert. Und zwar die tatsächliche Latenz, die die Latenz der Puffergröße (je nach genutzter Hardware) immer übersteigt. In meinem Fall sind das 4+4ms. Nehme ich den Klick von der DAW, wäre ich ja sonst automatisch immer 8ms hinter dem Klick - bei größerem Puffer entsprechend mehr. Und bei mehreren Overdubs würde sich das entsprechend weiter aufsummieren.
Problematisch wird es nur, wenn man das Monitoring durch die DAW schleift oder MIDI-Instrumente über die DAW laufen lässt. Dafür braucht man sehr niedrige Latenzen. Unabhängig davon würde ich aber auch zusehen, dass das benutzte Equipment keine zu hohen Latenzen mit sich bringt. Früher war da auch USB schon problematisch, weshalb Firewire dafür populär war. Heutzutage nicht mehr (die Treiber brauchen halt entsprechend mehr CPU-Power).