Beiträge von m_tree

    Es zeigt sich doch immer wieder sehr schnell, wie komplex das Thema ist. :)


    Das mache ich auch immer. Dabei hängt es aber sehr stark von der Höhe der Overheads ab, ob eine Phasendrehung besser klingt oder nicht. Ist die Höhe so, dass sich gerade die Grundtöne von Snare und Toms auslöschen, dann bringt die Drehung einen viel volleren Sound. Bei mir waren die Overheads diesmal deutlich höher als sonst und es gabe keinen eindeutigen Unterschied beim Drehen der Phase.


    Wenn die Raumhöhe es hergibt, hat man diese Option natürlich. Große und hohe Räume sind halt eher Luxus. Ich bin kürzlich in einen neuen Raum eingezogen - ist im Prinzip Raum in Raum - und genieße dort viele Vorteile (z.B. schnell und effektiv beheizbar, eine vollständig eingerichtete Küche, Lagermöglichkeit außerhalb des Raums, hohe Einbruchsicherheit, ...). Aber der Raum ist halt wieder nur knapp 15 m² groß und die Decke nur etwa 2,3m hoch.


    Da bin ich bei der Aufstellung der Overheads jedenfalls eher damit beschäftigt, dass die weder zu nah an der Decke noch zu nah am Schlagzeug sind. Bei der Positionierung bin ich mit aktuell wieder vier Toms, zwei Snares und drei Crashbecken, China und Splash (Stützmikros für Hi-Hat + Ride) eher damit beschäftigt, dass die Overheads die Becken ausgewogen aufnehmen, dass die Becken auf den OHs gut klingen und dass die Stereobereite bei 100% Panning meinem Geschmack entspricht.

    Dass die Snare auf den Overheads nicht ganz mittig ist spielt für mich im Gesamtmix mit insgesamt 14 Mikrofonen kaum eine Rolle. Ich finde eine nicht ganz mittige Snare auf den Overheads sogar gut, weil sie so eben räumlicher und breiter wird.


    Für mich kommt bei meinen Schlagzeug-Overheads auch fast nur noch eine spaced Aufstellung in Frage. Mit klassischer Stereofonie haben Schlagzeug-Overheads eigentlich nichts zu tun (so sehe ich das jedenfalls). Nach wirklich vielen Experimenten finde ich den Klang der Overheads in einer AB-ähnlichen Aufstellung am brauchbarsten bei Multimikrofonierung von allen Trommeln - in exakt gleicher Höhe und exakt vertikal nach unten ausgerichtet. Klingt m.E. besser als in unterschiedlicher Höhe (bspw. um die Laufzeiten zur Snare anzugleichen) oder irgendwie schräg ausgerichtet.

    Gleichen Abstand der Snare zu den Overheads hatte ich auch lange Zeit immer wieder umgesetzt. Das mag bei minimaler Mikrofonierung und entsprechendem Mix gut funktionieren. Aber bei vielen Closemics, einem größeren Set-Aufbau mit vielen Becken und Verzicht auf Raummikros sind mir die Overheads mit mittiger Snare einfach zu unausgewogen (v.a. hinsichtlich der Becken, für die sie ja primär zuständig sind). Und bei Verzicht auf Aligning macht es die Snare sogar räumlicher und breiter, wenn sie nicht mittig auf den Overheads ist.


    Aber ist alles Philosophie-Sache ... am Ende geht's ja nur darum, wie's klingt und ob's einem selber gefällt.

    Habe mir mal die Wavedateien gezogen. Mir fällt auf, dass die alignten Versionen jeweils über 1 dB lauter sind (bezogen auf die wahrgenommene Lautstärke bzw. Lautheit nach EBU R128). Das kann durchaus dazu führen, dass diese im Blindvergleich besser abschneiden. Ich checke und normalisiere das vor Vergleichen immer.


    Mir gefallen die nicht alignten Versionen deutlich besser. Klingen viel offener und natürlicher! Aber ist natürlich Geschmackssache.


    Verzichtet man auf ein Aligning, sollte man natürlich trotzdem die Phasen checken. Die Werkzeuge dafür sind die Ohren und die Phasenschalter der Tracks.

    Ich stelle immer wieder fest, dass phasengedrehte Overheads oft besser mit den close mics an Snare und Toms harmonieren. Es lohnt sich auf jeden Fall, hier ein bisschen rumzuprobieren.

    Nein, die Latenzkompensation lässt sich nicht abschalten, in keiner DAW. Das ist der Grund weswegen man die Asioschnittstelle erfunden hat.

    Die ASIO-Schnittstelle wurde meines Wissens für Multitrack-Recording und geringe Latenzen erfunden, nicht weil sich die Latenzkompensation von DAWs nicht abschalten lässt. :/

    Aus den Screenshots lässt sich nicht zwingend der tatsächiche Vorgang abbilden. Es handelt sich lediglich um eine Darstellung deren Algorithmen zur Berechnung und Darstellung wir nicht kennen. Um objektive zuverlässige Werte zu erhalten, müßte man die Signale zb. mit einem Oszilloskop messen, um den tatsächlichen Versatz zu bestimmen.

    Vorausgesetzt, dass die in REAPER angezeigten Latenzen (die Tracks habe ich entsprechend benannt) stimmen, ist das schon ein Beweis für die Latenzkompensation der DAW. Ein Oszi kann darüber auch nicht weiter Aufschluss geben, weil "Anfang und Ende" der DA->AD-Kette ja rein digital in der DAW sind.


    es spielt keine Rolle ob der Signalweg zur DAW 1ms oder 1000ms beträgt. Die Synchronität bleibt gewahrt.

    Wie mein Test zeigt, gibt es u.U. schon einen leicht schwankenden minimalen Versatz. Aber ich denke bei allem was kleiner als 1 ms ist kann man schon von Synchronität sprechen.


    Latenz spielt hier ausschliesslich eine Rolle beim direkten mithören über die DAW (Monitormix)
    - beim einspielen und direktem Mithören von Midizuspielern.

    Dem stimme ich zu.

    dani808

    Was für eine Ausbildung war das denn? Auf mich hatte es so gewirkt, dass du nicht so recht weißt was du tust, weil du eine manuelle Latenzkompensation in der DAW machst. Dass dir also der Umstand nicht bewusst ist, wie effektiv DAWs die Latenz ausgleichen. Ich bin bei dem Thema zwar Autodidakt, war und bin aber stets bemüht sowohl die Zusammenhänge gründlicher zu verstehen als auch im Sinne des "Großen und Ganzen" vernünftige Prioritäten zu setzen und mich fern von esoterischen Glaubenssätzen zu halten.

    Ja, in meinem Test bleibt ein Versatz bestehen, der aber abhängig vom Gerät nur noch ein paar Samples bzw. 0,1-0,3 ms beträgt. Das entspricht oft weniger Abstand, als Schallquellen zu Mikrofonen haben. Und ist weit entfernt von z.B. den 47+47ms (94 ms!), die die 1024 Samples Puffer am 18i20 2nd Gen haben! Die praktische Latenz ist an meinem Interface grundsätzlich immer etwas mehr als doppelt so hoch wie die theoretische.


    Ich verstehe nicht warum du das anscheinend unbedingt negieren willst.

    Ich will nichts negieren, sondern nur aufzeigen, dass eine manuelle Latenzkompensation eben unnötig ist. Ein anderer User meinte ja, dass man mit Overdubs immer mit zeitlichem Versatz zu kämpfen hätte. Wenn es dabei aber nur um wenige Samples geht, ist das halt vernachlässigbar.

    Nach allem was ich - auch in Fachliteratur - so gelesen und gesehen habe, ist mir nie zu Ohren gekommen, dass man in modernen DAWs für Overdubs eine manuelle Latenzkompensation machen müsste. Höchstens, dass man ein Aligning von Schlagzeugspuren machen müsste, aber ich halte das nach mehreren Blindvergleichen lieber old school.


    Das Nyquist-Shannon-Abtasttheorem besagt, dass die Abtastrate mindestens grösser als doppelt so hoch wie die maximale abzutastende Frequenz sein muss.

    Korrigiere ich gleich mal. Eine der Grafiken erscheint irgendwie auch nicht mehr in dem Thread ...

    Aus den Screenshots lässt sich ableiten, dass die Latenzen, verursacht von der Grösse des Buffers (64, 256 & 1024 Samples) kompensiert werden.

    Diese sind ja wesentlich grösser als der Rest von +- 0.3ms. Die sich interessanterweise unterscheiden.

    14Spls@64, 12Spls@256 und 15Spls@1024. Dieser Unterschied von drei Samples (ca 0.068 ms) könnte tatsächlich auf die von Beeble genannten Gründe zurückzuführen sein. Das tönt für mich plausibel.

    Aus den Screenshots lässt sich ableiten, dass die gesamte Latenz kompensiert wird. Bei 256 Samples @ 44,1 kHz ist die theoretisch minimale Latenz ca. 5,8 ms. Die tatsächliche und auch von REAPER angezeigte Latenz beträgt aber ca. 12 ms mit dem 18i20 2nd Gen. Weil ich nun einen Klick von der DAW aufgenommen habe, entsteht so eine Gesamtlatenz von etwa 24 ms (Output + Input) bei 256 Samples. Und diese wird von REAPER komplett ausgeglichen.


    Ich hatte gestern einen weiteren Test mit einer anderen Quelle gemacht (ein Attackreicher Snare-Schlag). Bei 256 Samples betrug die verbleibende Latenz im Projekt 10 Samples. Ich habe dann mal das Gerät gewechselt und statt vom ADA8200 einen Kanal vom 18i20 genutzt. Und siehe da - so waren es nur noch 5 Samples.

    Das ist alles vernachlässigbar und bedeutet sowieso schon einen sehr hohen "Komfort", weil die DAW eben die gesamte praktische Latenz ausgleicht - nicht nur die theoretisch minimale der Puffergröße!


    Die manuelle Kompensation der Latenzen kannst du dir also sparen, wenn du mit professioneller Hard- und Software arbeitest. ;)


    Ich hatte hier vor einiger Zeit mal einen Thread erstellt, der ein paar Grundlagen zum Thema "Digitale Audiosignalverarbeitung" beleuchtet. Weil z.B. bei der Samplingrate und Oversampling, aber auch der Bittiefe, immer wieder Mythen und Missverständnisse kursieren.


    So wie ich das bisher verstanden habe, gleicht die Latenzkompensation einer DAW die durch die eingestellte Buffergrösse entstehende Verzögerung aus. Und eben nur diese. Man möge mich verbessern, wenn ich hier auf dem Holzweg bin.

    Diese Latenz ist der DAW ja bekannt. Bei 1024 Samples @48kHz wären das 21,33 ms.

    Was ist mit den zusätzlichen ~31,5ms des L20?

    „Weiss“ die DAW davon und kann diese bei der Latenzkompensation berücksichtigen, oder bleibt diese Information „pultintern“?

    Nein, da irrst du dich und deine manuelle Latenzkompensation war auch der Grund für meinen Test. Dieser veranschaulicht doch klar und deutlich, dass die DAW die gesamte, tatsächliche / praktische Latenz ausgleicht. REAPER zeigt diese praktische Latenz auch an.


    Also wenn man mit brauchbaren Audio-Interfaces und einer richtigen DAW aufnimmt braucht man sich über sowas keine Gedanken zu machen.

    Latenzkompensation von Aufnahmen im Projekt und Latenzfreies Monitoring sind aber zwei verschiedene Dinge. Letzteres geht nur ohne DAW. Die einschlägigen Audio-Interfaces haben dafür eigene (interne) Signalwege bzw. DSPs, die über eine Software steuerbar sind.


    Frohes Neues! :)

    Außerdem handelt es sich um ein Rechtecksignal welches analog im Wandler je nach Abtastgeschwindigkeit ganz sicher unterschiedliche Flankensteilheit mit sich bringt,

    was dann die grafische (gerundete) Darstellung erklären könnte.

    Die Wellenform des Klicktracks ist da wohl irreführend, weil ich als Klicksound eine Dreieckschwingung eingestellt habe, welche sich ja auch so in den Wellenformen der Aufnahmen zeigt. Möglicherweise gibts gar keine Verzögerung, weil das Signal nicht punktgenau auf dem Raster (sondern eben um ein paar Samples verzögert) beginnt. Müsste ich noch mal mit einer anderen Quelle testen.

    Aber ich denke dein Test zeigt deutlich das die Kompensation funktioniert

    Jepp! So eine DAW ist schon was Feines. :)

    Den Test kannst du dir sparen. Mir ist keine DAW ohne Latenzkompensation bekannt.

    Schon zu spät - das hatte ich gestern Nachmittag im Recording-Studio sowieso noch gemacht. Hat mich sowieso interessiert, wie das in der Praxis genau aussieht.

    Außerdem scheint das hier nicht allen Leuten klar zu sein (Stichwort manuelle Latenzkompensation) - deshalb wollte ich schon einen extra Thread dafür machen.


    Für den Test habe ich ein Scarlett 18i20 2nd Gen (gekoppelt über ADAT mit einem ADA8200) und REAPER benutzt. Ich habe einen Klicktrack angelegt und einen der Line-Outs des Scarletts direkt in einen Line-In des ADA8200 geführt. Das habe ich dann mit 64, 256 und 1024 Samples @ 44,1 kHz aufgenommen. Die praktischen Latenzen waren jeweils mehr als doppelt so groß wie die minimal theoretischen der Puffergrößen - ich habe die Tracks in den Screenshots entsprechend benannt. Die Markierung im letzten Screenshot entspricht 14 Samples. Man erkennt, dass die Kompensation nicht aufs Sample genau funktioniert - wohl genau deshalb, weil die tatsächliche praktische Latenz ausgeglichen wird. Wo die Verzögerung herkommt, weiß ich nicht. Aber 14 Samples entsprechen bei 44,1 kHz etwa 0,3 ms, was wiederum ca. 10cm Weg der Schallgeschwindigkeit entspricht. Da hat man z.T. größere Latenzen durch entsprechende Abstände von Mikrofonen.


    Nähme man zu bereits in der DAW vorhandenen Spuren etwas weiteres auf, entsteht ein zeitlicher Versatz, da sind wir uns einig. Die von mtree genannte Latenzkompensation lasse ich mal aussen vor, da ich nicht weiss, ob diese tatsächlich alle Latenzen berücksichtigen kann.

    Diesen Versatz der neu aufgenommenen Spur(en) entferne ich durch verschieben dieser Spuren in der DAW. Sozusagen eine manuelle Latenzkompensation die sich an der Position der vorhandenen Spuren orientiert. Ich nehme an, die Vorgehensweise ist dir bekannt, du scheinst dich ja mit der Gesamtthematik sehr gut auszukennen und über viel Erfahrung zu verfügen.

    Ich werde dazu nachher mal ein paar Tests mit unterschiedlichen Puffergrößen machen, weil mich das jetzt selbst interessiert. Ich bin mir aber sehr sicher, dass DAWs die Latenzen unmittelbar nach der Aufnahme sehr effektiv kompensieren. Dass man für Overdubs eine manuelle Latenzkompensation durchführen müsste / sollte, ist mir neu.

    Die Spuren werden am Ende genau so im Projekt abgespeichert, wie man sie mit Latenz-freiem Monitoring zum Playback einspielt oder einsingt bzw. hört.


    Ansonsten käme man ja mit Aufnahmen im Overdub-Verfahren mit längeren Latenzen schnell an einen Punkt, an dem das alles auseinanderfällt. Da wäre man dies bzgl. mit jedem Multitrack-Tonband besser bedient. Das bezweifel ich sehr stark! Aber wie gesagt - ich werde dazu nachher noch ein paar Tests machen.


    Üblich ist heutzutage eine Vielzahl an Overdubs. Beispiel: Guidetracks -> Drums -> Rhythmusgitarren (4x / jeweils Strophe + Refrain gedoppelt) -> Bass -> 4x Keys / Synths -> 2x Lead Vocals (Strophe / Refrain) -> 4x Backing Vocals -> Solo-Gitarre ... das sind dann schon 18 Stufen, oft werden es sogar noch mehr. Mir ist beim Recording da nie ein sich aufkumulierender zeitlicher Versatz aufgefallen und ich bezweifel, dass die fremden Multitracks, die ich so gemischt habe, irgendwo manuell Latenz-kompensiert wurden.

    Naja, wenn du alle Spuren gleichzeitig aufnimmst stimmt deine Theorie

    Spielst du aber zu Spuren die bereits in der DAW sind, kann das eine Herausforderung werden.

    Inwiefern? Einen zeitlichen Versatz der neu eingespielten Spuren zu den bereits vorhandenen hat man in so einem Fall ja mit jedem Interface, mal grösser mal kleiner. Der muss durch verschieben der Spuren ausgeglichen werden.

    Wie ich bereits geschrieben habe, ist das ein Irrglaube. DAWs kompensieren die Latenzen automatisch beim Recording. Und zwar nicht nur die theoretisch minimalen Latenzen, die sich aus der Puffergröße errechnen, sondern die tatsächlichen praktischen Latenzen, die sich aus der genutzten Hardware ergeben. Da bin ich mir ziemlich sicher.


    DAWs sind auch bei der Nachbearbeitung dazu in der Lage, die unterschiedlichen Latenzen von zig VSTs entsprechend zu kompensieren, damit alle Spuren unabhängig von den benutzten VSTs gleichzeitig laufen. Da sollte die Kompensation der Latenzen beim Aufnehmen pillepalle sein.

    Soweit ich weiß rechnen moderne DAWs die Latenz beim Recording automatisch raus. Eingangs- und Ausgangslatenzen werden also direkt bei der Aufnahme kompensiert. Und zwar die tatsächliche Latenz, die die Latenz der Puffergröße (je nach genutzter Hardware) immer übersteigt. In meinem Fall sind das 4+4ms. Nehme ich den Klick von der DAW, wäre ich ja sonst automatisch immer 8ms hinter dem Klick - bei größerem Puffer entsprechend mehr. Und bei mehreren Overdubs würde sich das entsprechend weiter aufsummieren.


    Problematisch wird es nur, wenn man das Monitoring durch die DAW schleift oder MIDI-Instrumente über die DAW laufen lässt. Dafür braucht man sehr niedrige Latenzen. Unabhängig davon würde ich aber auch zusehen, dass das benutzte Equipment keine zu hohen Latenzen mit sich bringt. Früher war da auch USB schon problematisch, weshalb Firewire dafür populär war. Heutzutage nicht mehr (die Treiber brauchen halt entsprechend mehr CPU-Power).

    Hab eben mal den Flugmodus vom Smartphone aktiviert und dann Moises gestartet. Es kommt zwar eine Warnung "Verbindungsfehler. Bitte check deine Internetverbindung.", ich kann die Tracks aber ansonsten ganz normal abspielen und regeln.


    Anders verhält's sich am PC. Ohne Internet erscheint da gar nichts in der App, mit Internet ist dann alles da. Für mich aber auch kein Problem, weil ich bspw. Audiodateien aus der App runterlade, auf einen Stick ziehe und dann offline in der DAW auf dem Recording-PC im Proberaum nutze.


    Logischerweise ist die Nutzung der App ohne Internet eingeschränkt bzw. kann man ohne Internet ja nicht mal Tracks hochladen und separieren lassen. Und dass auf dem PC hochgeladene Tracks automatisch auch in der App auf dem Smartphone verfügbar sind geht auch nur über die Moises-Server.

    Was mich mehr interessiert: arbeit jemand hier im Forum mit KI für Musikzwecke und wie wird sie konkret (kreativ, arbeitserleichternd, …) eingesetzt?

    Ja, mit Moises. Wie schon weiter vorn geschrieben. Nutze ich für Covervideos und fürs Unterrichten, aber z.B. auch für die kommende Challenge hier. Es geht für mich dabei nur um die Trennung von Gesang und Instrumenten und das Generieren eines Klicktracks. Und auch das finde ich schon grenzwertig. Aber immer noch kein Vergleich mit von KI generierter Musik.

    Ich habe ebenfalls das Premium-Abo. Zahle aber nur 38 Euro pro Jahr. Also 3,17 Euro im Monat.

    Hängt das mit Beginn des Abos zusammen? Ich habe es im Juni 2022 abgeschlossen.

    Ja, scheint mit dem Beginn des Abos zusammenzuhängen. Hätte wohl auch lieber ein Jahresabo nehmen sollen.


    Naja. Ich wollte schon am Schlagzeug sitzen und zu einem Playalong spielen. Aber eben eines was auf einem Instrument gespielt wird welches eher untypisch ist für das besagte Stück.

    Ach so. Evtl. später mal. Es gibt ja noch viele "normale" Sachen, die ausstehen und für die man auch einfacher Material findet. ;)

    Was Bekanntes mal mit anderen Instrumenten begleiten. Also nicht mit den üblichen Verdächtigen. z.B. ein Hardrock-Stück mit Geige Querflöte oder was auch immer als Playalong.

    Das wäre sowieso schon speziell, aber weil wir hier ja auf drummerforum.de. sind, dann auch ziemlich abwegig. Und auch nicht vergleichbar.


    Generell finde ich 2 besser als 3. Kann Vor- und Nachteile haben: bei 3 könnten je Challenge weniger Teilnehmer sein, bei 2 kann’s sein, dass manche genau dann keine Zeit haben…

    Ich probier's nächstes Jahr auf jeden Fall mit drei. Dafür spricht für mich, dass das Format hier gut ankommt, dass wir verschiedene Genres auf unterschiedlichen Spielniveaus bedienen wollen und dass ich aktuell nicht weiß, wie lang ich die Challenges noch weitermache. Momentan passt's.


    Mehr als drei pro Jahr finde ich aber auch zu viel.

    Das klingt für mich doch etwas zu abwertend.

    Das war einfach nur bewusst überspitzt und auf den Punkt formuliert. So arrogant sehe ich es nicht. Wobei ich Dummheit (in Kombination mit zu viel Selbstbewusstsein) und Egoismus schon als die Grundprobleme der Menschheit ansehe. Und in Anbetracht von einer sich aktuell schamlos ausbreitenden Argumentation und Politik aus immer mehr dreisten Lügen, Fake-News und Manipulationen halte ich nichts von einer KI, die bestimmte Stimmen täuschend echt nachahmt und Musik kreiert, von der keiner mehr weiß ob diese Person das tatsächlich gesungen hat oder nicht.


    Mir fällt zu diesen ganzen Entwicklungen an vielen Stellen einfach nur noch "Bullshit" ein.

    Ich muss hier immer kurz inne halten und überlegen, in welchem Forum ich bin.. Scheinbar sind Drummer wohl doch Denkertypen (anders als Bassisten) :) Find ich cool..!

    Nach meiner Erfahrung sind Schlagzeuger oft eher die ruhigen introvertierten Typen, die sich schriftlich gut ausdrücken können. Und stille Wasser sind bekanntlich tief. ;)

    Ich wiederhole nochmal meine Frage (eine Art Turing-Test): was ist wenn dich Musik emotional erreicht aber der niemals jemand sagen kann ob sie von einer KI stammt oder von einem Menschen? Magst du sie dann nicht mehr, lehnst du sie ab, wenn die Herkunft nicht bekannt ist?

    Ich meine das nicht böse - ich frage mich das ja auch für mich selbst.

    Diese Frage braucht man erst zu stellen, wenn dieser Fall eintritt. Und das bezweifel ich.


    Man darf einen weiteren Faktor dabei nämlich nicht vergessen:

    KI ist auf "echten" menschlichen Input angewiesen und büßt deutlich an Qualität ein, wenn sie mit KI-generiertem Input gefüttert wird. Es gibt bei der ganzen Sache also sowieso natürliche Grenzen.