Wie triggern die (Metal-) Profis

  • Ich habe ca. 2 Jahre all meine Konzerte bei denen ich als Techniker gebucht war mit Computern gemischt. Also nicht nur irgendwas getriggert, sondern gleich alles gemischt... Ich hatte im wesentlichen zwei Setups: Einmal MOTU2408 an 19" 4HE Rack Rechner und einmal Lenovo Laptop mit RME Digiface und entsprechenden Preamps/Wandlern. Mir ist in all meinen Shows der Kram nicht einmal verreckt....


    Du vergisst, dass die Latenzangaben sich auf Roundtrip Latenz beziehen (AD --> Processing --> DA Wandlung). Wenn du aus nem Drum Modul per MIDI in ein Audio Interface gehst wird nix gewandelt... das geht 1:1 durch ohne Latenz.


    Das Babyface macht, keine Ahnung, niedrige Latenz :D Ich konnte damit nie irgendeine Latenz feststellen, wird sich aber von der Roundtrip(!) Latenz her <5ms bewegen. Mit meiner MOTU Lösung hatte ich so 2,8ms, was ungefähr der Entfernung von Ohr zu Bassdrum in Schallgeschwindigkeit entspricht wenn man ohne alles am Set sitzt und spielt. Wenn der Sound genauso schnell bei mir ist (sprich: im InEar) wie Schall durch Luft von der BD aus bis zu meinem Ohr brauchen würde, dann ist mir das schnell genug :D


    Niedrige Latenzen sind ja wirklich nur fürs Monitoring wichtig... nach vorne darf alles ruhig 10-20ms später rauskommen, das entspricht dann wenigen Metern Schallgeschwindigkeit. (Bei Wacken wo dann 80k Leute vor der Bühne stehen kannste ja mal ausrechnen welche Latenz die Leute haben die ganz hitnen stehen :D)

    sieg natur.

  • Live Professor ist ein VST Host. In Live Professor läd man VST Plugins, wie z.b. Slate Trigger. Dadrin kann man dann die Slate Drum Samples oder irgendwelche anderen laden. Live Professor ist nur dazu da mit dem Interface zu sprechen und die Daten ans Plugin weiterzugeben und abzuholen und zu verwalten was wo rein/raus geht/kommt.


    Slate Trigger kann Audio to Midi, oder in meinem Anwendungsfall Audio to Audio

    sieg natur.

    Einmal editiert, zuletzt von slo77y ()

  • Ja, aber ein Plugin wie Slate erwartet ja digitale Mididaten um Sounds auszulösen. Wenn du von den Inserts der Pults in das Babyface gehen, ist das ja noch alles akustisch.Irgendwo muss du doch eine Wandlung der Akustiksignale der Mikros in digitale (MIDI) Daten, damit Slate weiß, wann es auszulösen hat?


    Ich mein, dass es bei den Soundkarten auch Midilatenzen gibt?


    Das Drum Modul selbst hat allerdings auch eine Latenz. Die soll bei den Roland Modulen eben um 4ms liegen.


    Klar, ob beim Publikum die Summe mit 20ms ankommt oder nicht, ist egal. Ich dachte nur, wenn man das Akustiksignal der BD gleichzeitig mit (durch Modul und VST Rechner) 8ms späteren Triggersound klingt, könnte das Probleme geben. Das es vielleicht doppelt/undefiniert klingt oä.
    Beispiel: Spiel ich mit meinem TD11 und hör gleichzeitig die TD11 Sounds und die Addictive Drums Sounds (die durch mein UR22 eben auch ca. 8ms Latenz haben) klingt es über die Kopfhörer schon recht breeig. Könnte live, fürs Publikum, aber auch entspannter sein ;)

  • Ja, aber ein Plugin wie Slate erwartet ja digitale Mididaten um Sounds auszulösen.


    Falsch. Das kann Anhand von Mikrofonsignalen direkt Triggern, nix MIDI.


    Akustiksignal gleichzeitig mit Trigger ist immer unterschiedlich von der Latenz her, da kann man gar nix dran machen. Als Mischer delayed man dann das Mikrofon einfach um die gleiche Latenz wie sie das Triggergerumpel hat (in fast allen gängigen Digitalpulten geht das) und hat sie wieder zusammen. Wenn man das nicht tut dann phased es... sprich im schlimmsten Fall kann sich der Bassbereich der BD wenn beide Kanäle an sind fast gänzlich auslöschen ^^.

    sieg natur.

  • OK, dann hat Steven Slate wohl einen internen Wandler, der die Aufgabe des Moduls übernimmt.
    *Gerad gefunden, müsste das hier sein:
    http://www.slatedigital.com/pr…er/Trigger-User-Guide.pdf
    Gar nicht doof eigentlich. Ich seh gerade, dann kann man die üblichen Modulparameter in Steven Slate direkt einstellen.



    OK, der zweite Teil beantwortet meine Frage! "Misst" du die Latenz oder geht das nach Gehör?


    *edit:
    Aus dem PDF les ich auch heraus, der eine Midi Wandlung vornimmt. So besteht auch die Möglichkeit aus den empfangen Mikrosignalen, einen Midi Out zu generieren.

  • zum "alignen" (also das zeitliche anpassen mehrerer spuren) gibts nen trick:


    man legt beide signale auf (mikro + trigger), dreht bei einem die phase, und erhöht dann in 0.5ms schritten langsam die latenz vom früheren der beiden signale (in dem fall mikrofon), bis man im master-kanal den geringsten ausschlag hat. dann ist die auslöschung am grössten, es wird leiser als wäre nur ein signal an. dann dreht man die phase wieder zurück und ist fertig :)


    mit geschultem gehör kann man das auch per ohr machen, setzt aber erfahrung vorraus.



    man muss es damit auch nicht päpstlicher halten als der papst... wenns gut klingt hat man was richtiges gemacht. ob es dann nun auf .1-ms genau die richtige latenz ist oder nicht. manchmal können auslöschungen auch cool klingen, sind ja prinzipiell nix anderes wie EQ.

    sieg natur.

    Einmal editiert, zuletzt von slo77y ()

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!