Beiträge von m_tree

    Falls die Overheads die Hauptmikrofonierung sind, und die restlichen Mikrofone als Stützen dienen, dann hätte ich rein vom Ansatz her das Alignen als richtig und natürlich empfunden. Man möchte ja dann etwas mehr hervorheben, was schon da ist und zwar dann wenn es passiert und nicht ein paar ms früher. Aber ich habe wie gesagt keine Ahnung.

    Kommt halt drauf an, wie man es mischt.

    Bei meinem aktuellen Mixing-Ansatz sind die Overheads nicht so wirklich die Hauptmikrofone. Sind eher für die Becken zuständig, "kleben" die einzelnen Mikros zusammen und bringen etwas Räumlichkeit und Natürlichkeit mit rein.


    Ich finde, dass es mit Aligning unnatürlich klingt und mag den dadurch entstehenden Sound nicht so. Daher spare mir einfach die Arbeit, wenn es nicht unbedingt nötig ist. Die Zeit investiere ich lieber in Detailanpassungen mit Automation z.B. ...

    Ich bin Pragmatiker: wenn ich morgen (oder irgendwann) mal wieder mit

    einem Dirigenten zu tun habe, dann ist die einzige sichere Bank, die Takte

    zu zählen und es ist sinnvoll, das vorher zuhause mal geübt zu haben.

    Aber warum einfach, wenn es auch umständlich geht - alte Mathematikerregel.

    Beim Musizieren die Orientierung zu behalten und ggf. Takte zu zählen ist aber eine andere Baustelle als bei Technikübungen sicherzustellen, dass man die lang genug übt.


    Die Hemmschwelle für solche eher trockenen Übungen ist auch deutlich niedriger, wenn man nicht immer mitzählen muss. Umständlich ist eher, bei sowas die Takte zu zählen, weil die genaue Taktanzahl da gar nicht so wichtig ist.


    So ein Forum lebt halt auch davon, dass Leute ihre eigenen Erfahrungen und ihr eigenes Wissen (u.U. sogar aus einem Musikstudium) berichten. Nur die KI-Diskussion ist hier fehl am Platz, find ich.

    Nur der Vollständigkeit wegen:

    Das sehe ich genauso. Wer hat bloß damit angefangen? :/

    Du selbst. Nachdem ich eine Möglichkeit zur Berechnung geschrieben habe. Hier nachzulesen:



    Und was dein Dreisatz da oben aussagen soll erschließt sich mir nicht. Eine Minute durch die Beats pro Minute ergibt die Dauer eines Beats. Alles weitere kann man sich entsprechend nach Belieben multiplizieren (wie eben z.B. die Taktart und Taktanzahl). Ganz einfach.

    Drum Bee

    Jetzt kennst du die Formel und kannst es mit einem Taschenrechner (bzw. einer entsprechenden App) berechnen:

    Formel: 60 Sek. / bpm * Zähler der Taktart * Taktanzahl


    Ein 4/4 auf 80 bpm läuft über 20 Takte also genau 60 Sek., auf 100 bpm nur noch 48 Sek. usw.

    Ist doch nicht nötig deswegen hier eine Diskussion über den Sinn und Unsinn von KI vom Zaun zu brechen.


    Wer sich ernsthaft mit "Stick Control" auseinandersetzt, sollte doch dazu in der Lage sein, so einfache Berechnungen zu machen.

    Dann noch eine Ergänzung von mir zum Thema:


    Mit den maximal 1-stündigen Sessions meine ich nur die Dauer, die man am Stück Übungen spielt. Ich hatte manchmal eine Pause und dann noch eine Session gemacht.

    Und es meistens sowieso mit weiteren Aktivitäten im Proberaum bzw. am Schlagzeug verbunden.


    Ich hatte das Heft aber ein bisschen zweckentfremdet, glaube ich. Es ist wohl eher so angedacht, dass man damit einzelne Sachen vertieft und immer mal wiederholt bzw. auffrischt. Siehe hier: Stick Control (Buch)

    Low Cut auf den Overheads? Ich nutze Low Cuts beim Schlagzeug nur noch auf Beckenstützmikros. Ausdünnen kann man mit Low Shelfs viel besser.


    Recording und Live sind unterschiedliche Baustellen. Close Mics an Becken klingen immer scharf. Auf einer Tour letztes Jahr hatte die Band immer "Underheads" für die Becken genutzt. Ich hatte das mal für Aufnahmen probiert, würde ich da aber nie machen. Overheads klingen einfach weitaus besser.


    Live kommt ja schon mehr oder weniger Natursound von der Bühne, dazu überspricht das Schlagzeug in andere Mikros.

    Beim Recording entfällt das.


    Ohne Overheads würde ich nie aufnehmen.


    Hier geht's nur um Recording, weil ein Aligning live gar nicht möglich ist. Also bitte beim Thema bleiben. ;)

    Vor ein paar Jahren hatte ich das komplette Heft wie geschrieben auf einem Practice Pad durchgespielt, ohne eine einzige Übung auszulassen. Ich habe letztlich jede Übung auf Klick > 20x im Loop durchgespielt. Das Tempo habe ich jeweils auf mein "maximales Wohlfühltempo" eingestellt, z.T. habe ich nur die Halben für den Klick genutzt.


    Um mir das lästige Zählen der Wiederholungen zu sparen, habe ich ausgerechnet, wie lange 20 Takte auf dem jeweiligen Tempo dauern und dann einen Timer vom Smartphone eingestellt, der ein paar Sekunden länger dauert.


    Die schwierigeren Übungen musste ich mir z.T. erst ohne Metronom kurz erarbeiten, bis ich sie dann im Loop auf Klick hingekriegt hatte.


    Unterm Strich hat mir das meiner Spieltechnik durchaus gut getan.


    Wichtig dabei - wie schon angemerkt wurde: nicht zu viel auf einmal! Ich hatte da immer Sessions von einer maximal Stunde gemacht, glaub ich.

    Da bin ich bei Dir! Wenn man nur mit Overheads und BD&SN Stütze aufnimmt, ist das was anderes, da macht ORTF schon viel Sinn, aber bei Mikrofonierung aller Trommeln klingt AB für mich auch am besten. Und die Geschichte mit den nach innen gewinkelten Mikros bei AB ist sinnfrei - erstaunlich dass man das trotzdem sehr oft sieht.

    Bei Minimalmikrofonierung ist die "Glyn Johns"-Aufstellung meiner Meinung nach am besten, weil nur so z.B. das Floortom laut genug ist. Richtige Stereofonie halte ich generell für ungeeignet als Overheads. Ich hatte mal mit EBS (Sengpiel) experimentiert, aber da zeigen die Mikros ja auch wie bei XY nicht aufs Set, sondern eher in den Raum. Und bei Richtmikrofonen korreliert ja auch der Frequenzgang mit der Richtwirkung - bei 90° schwächeln z.B. die erweiterten Höhen auch bei den meisten Kondensatormikrofonen schon deutlich.

    XY ist mir den Aufwand mit zwei Mikros kaum wert, weil das Stereobild ganz ohne Laufzeitdifferenz schon sehr dürftig ist.


    Ist aber nur meine Meinung. ;)

    Es zeigt sich doch immer wieder sehr schnell, wie komplex das Thema ist. :)


    Das mache ich auch immer. Dabei hängt es aber sehr stark von der Höhe der Overheads ab, ob eine Phasendrehung besser klingt oder nicht. Ist die Höhe so, dass sich gerade die Grundtöne von Snare und Toms auslöschen, dann bringt die Drehung einen viel volleren Sound. Bei mir waren die Overheads diesmal deutlich höher als sonst und es gabe keinen eindeutigen Unterschied beim Drehen der Phase.


    Wenn die Raumhöhe es hergibt, hat man diese Option natürlich. Große und hohe Räume sind halt eher Luxus. Ich bin kürzlich in einen neuen Raum eingezogen - ist im Prinzip Raum in Raum - und genieße dort viele Vorteile (z.B. schnell und effektiv beheizbar, eine vollständig eingerichtete Küche, Lagermöglichkeit außerhalb des Raums, hohe Einbruchsicherheit, ...). Aber der Raum ist halt wieder nur knapp 15 m² groß und die Decke nur etwa 2,3m hoch.


    Da bin ich bei der Aufstellung der Overheads jedenfalls eher damit beschäftigt, dass die weder zu nah an der Decke noch zu nah am Schlagzeug sind. Bei der Positionierung bin ich mit aktuell wieder vier Toms, zwei Snares und drei Crashbecken, China und Splash (Stützmikros für Hi-Hat + Ride) eher damit beschäftigt, dass die Overheads die Becken ausgewogen aufnehmen, dass die Becken auf den OHs gut klingen und dass die Stereobereite bei 100% Panning meinem Geschmack entspricht.

    Dass die Snare auf den Overheads nicht ganz mittig ist spielt für mich im Gesamtmix mit insgesamt 14 Mikrofonen kaum eine Rolle. Ich finde eine nicht ganz mittige Snare auf den Overheads sogar gut, weil sie so eben räumlicher und breiter wird.


    Für mich kommt bei meinen Schlagzeug-Overheads auch fast nur noch eine spaced Aufstellung in Frage. Mit klassischer Stereofonie haben Schlagzeug-Overheads eigentlich nichts zu tun (so sehe ich das jedenfalls). Nach wirklich vielen Experimenten finde ich den Klang der Overheads in einer AB-ähnlichen Aufstellung am brauchbarsten bei Multimikrofonierung von allen Trommeln - in exakt gleicher Höhe und exakt vertikal nach unten ausgerichtet. Klingt m.E. besser als in unterschiedlicher Höhe (bspw. um die Laufzeiten zur Snare anzugleichen) oder irgendwie schräg ausgerichtet.

    Gleichen Abstand der Snare zu den Overheads hatte ich auch lange Zeit immer wieder umgesetzt. Das mag bei minimaler Mikrofonierung und entsprechendem Mix gut funktionieren. Aber bei vielen Closemics, einem größeren Set-Aufbau mit vielen Becken und Verzicht auf Raummikros sind mir die Overheads mit mittiger Snare einfach zu unausgewogen (v.a. hinsichtlich der Becken, für die sie ja primär zuständig sind). Und bei Verzicht auf Aligning macht es die Snare sogar räumlicher und breiter, wenn sie nicht mittig auf den Overheads ist.


    Aber ist alles Philosophie-Sache ... am Ende geht's ja nur darum, wie's klingt und ob's einem selber gefällt.

    Habe mir mal die Wavedateien gezogen. Mir fällt auf, dass die alignten Versionen jeweils über 1 dB lauter sind (bezogen auf die wahrgenommene Lautstärke bzw. Lautheit nach EBU R128). Das kann durchaus dazu führen, dass diese im Blindvergleich besser abschneiden. Ich checke und normalisiere das vor Vergleichen immer.


    Mir gefallen die nicht alignten Versionen deutlich besser. Klingen viel offener und natürlicher! Aber ist natürlich Geschmackssache.


    Verzichtet man auf ein Aligning, sollte man natürlich trotzdem die Phasen checken. Die Werkzeuge dafür sind die Ohren und die Phasenschalter der Tracks.

    Ich stelle immer wieder fest, dass phasengedrehte Overheads oft besser mit den close mics an Snare und Toms harmonieren. Es lohnt sich auf jeden Fall, hier ein bisschen rumzuprobieren.

    Nein, die Latenzkompensation lässt sich nicht abschalten, in keiner DAW. Das ist der Grund weswegen man die Asioschnittstelle erfunden hat.

    Die ASIO-Schnittstelle wurde meines Wissens für Multitrack-Recording und geringe Latenzen erfunden, nicht weil sich die Latenzkompensation von DAWs nicht abschalten lässt. :/

    Aus den Screenshots lässt sich nicht zwingend der tatsächiche Vorgang abbilden. Es handelt sich lediglich um eine Darstellung deren Algorithmen zur Berechnung und Darstellung wir nicht kennen. Um objektive zuverlässige Werte zu erhalten, müßte man die Signale zb. mit einem Oszilloskop messen, um den tatsächlichen Versatz zu bestimmen.

    Vorausgesetzt, dass die in REAPER angezeigten Latenzen (die Tracks habe ich entsprechend benannt) stimmen, ist das schon ein Beweis für die Latenzkompensation der DAW. Ein Oszi kann darüber auch nicht weiter Aufschluss geben, weil "Anfang und Ende" der DA->AD-Kette ja rein digital in der DAW sind.


    es spielt keine Rolle ob der Signalweg zur DAW 1ms oder 1000ms beträgt. Die Synchronität bleibt gewahrt.

    Wie mein Test zeigt, gibt es u.U. schon einen leicht schwankenden minimalen Versatz. Aber ich denke bei allem was kleiner als 1 ms ist kann man schon von Synchronität sprechen.


    Latenz spielt hier ausschliesslich eine Rolle beim direkten mithören über die DAW (Monitormix)
    - beim einspielen und direktem Mithören von Midizuspielern.

    Dem stimme ich zu.

    dani808

    Was für eine Ausbildung war das denn? Auf mich hatte es so gewirkt, dass du nicht so recht weißt was du tust, weil du eine manuelle Latenzkompensation in der DAW machst. Dass dir also der Umstand nicht bewusst ist, wie effektiv DAWs die Latenz ausgleichen. Ich bin bei dem Thema zwar Autodidakt, war und bin aber stets bemüht sowohl die Zusammenhänge gründlicher zu verstehen als auch im Sinne des "Großen und Ganzen" vernünftige Prioritäten zu setzen und mich fern von esoterischen Glaubenssätzen zu halten.

    Ja, in meinem Test bleibt ein Versatz bestehen, der aber abhängig vom Gerät nur noch ein paar Samples bzw. 0,1-0,3 ms beträgt. Das entspricht oft weniger Abstand, als Schallquellen zu Mikrofonen haben. Und ist weit entfernt von z.B. den 47+47ms (94 ms!), die die 1024 Samples Puffer am 18i20 2nd Gen haben! Die praktische Latenz ist an meinem Interface grundsätzlich immer etwas mehr als doppelt so hoch wie die theoretische.


    Ich verstehe nicht warum du das anscheinend unbedingt negieren willst.

    Ich will nichts negieren, sondern nur aufzeigen, dass eine manuelle Latenzkompensation eben unnötig ist. Ein anderer User meinte ja, dass man mit Overdubs immer mit zeitlichem Versatz zu kämpfen hätte. Wenn es dabei aber nur um wenige Samples geht, ist das halt vernachlässigbar.

    Nach allem was ich - auch in Fachliteratur - so gelesen und gesehen habe, ist mir nie zu Ohren gekommen, dass man in modernen DAWs für Overdubs eine manuelle Latenzkompensation machen müsste. Höchstens, dass man ein Aligning von Schlagzeugspuren machen müsste, aber ich halte das nach mehreren Blindvergleichen lieber old school.


    Das Nyquist-Shannon-Abtasttheorem besagt, dass die Abtastrate mindestens grösser als doppelt so hoch wie die maximale abzutastende Frequenz sein muss.

    Korrigiere ich gleich mal. Eine der Grafiken erscheint irgendwie auch nicht mehr in dem Thread ...

    Aus den Screenshots lässt sich ableiten, dass die Latenzen, verursacht von der Grösse des Buffers (64, 256 & 1024 Samples) kompensiert werden.

    Diese sind ja wesentlich grösser als der Rest von +- 0.3ms. Die sich interessanterweise unterscheiden.

    14Spls@64, 12Spls@256 und 15Spls@1024. Dieser Unterschied von drei Samples (ca 0.068 ms) könnte tatsächlich auf die von Beeble genannten Gründe zurückzuführen sein. Das tönt für mich plausibel.

    Aus den Screenshots lässt sich ableiten, dass die gesamte Latenz kompensiert wird. Bei 256 Samples @ 44,1 kHz ist die theoretisch minimale Latenz ca. 5,8 ms. Die tatsächliche und auch von REAPER angezeigte Latenz beträgt aber ca. 12 ms mit dem 18i20 2nd Gen. Weil ich nun einen Klick von der DAW aufgenommen habe, entsteht so eine Gesamtlatenz von etwa 24 ms (Output + Input) bei 256 Samples. Und diese wird von REAPER komplett ausgeglichen.


    Ich hatte gestern einen weiteren Test mit einer anderen Quelle gemacht (ein Attackreicher Snare-Schlag). Bei 256 Samples betrug die verbleibende Latenz im Projekt 10 Samples. Ich habe dann mal das Gerät gewechselt und statt vom ADA8200 einen Kanal vom 18i20 genutzt. Und siehe da - so waren es nur noch 5 Samples.

    Das ist alles vernachlässigbar und bedeutet sowieso schon einen sehr hohen "Komfort", weil die DAW eben die gesamte praktische Latenz ausgleicht - nicht nur die theoretisch minimale der Puffergröße!


    Die manuelle Kompensation der Latenzen kannst du dir also sparen, wenn du mit professioneller Hard- und Software arbeitest. ;)


    Ich hatte hier vor einiger Zeit mal einen Thread erstellt, der ein paar Grundlagen zum Thema "Digitale Audiosignalverarbeitung" beleuchtet. Weil z.B. bei der Samplingrate und Oversampling, aber auch der Bittiefe, immer wieder Mythen und Missverständnisse kursieren.