E-Drums + VST + Playalong

  • und musst nicht gleich 700 Euro

    Naja, das obergeile an den neuen "FS - Steady Clock" DAC ist eindeutig auch der Klang -> absoluter Gamechanger (habe ca fast 20 Audiointerfaces gecheckt und erlebt und kann eigentlich alle in die Tonne kloppen, nach Erfahrung mit den neuen RMEs. Ich habe da dran einen highendigen LakePeople Kopfhörerverstärker und dadran den AKG K872: diese "Chain" ist der totale Bringer (RME AIO Pro is my new software drumming reference: LINK )

  • die 3ms, die fälschlicherweise auf seiner Webseite stehen, kommen nicht hin.

    Interessant, Wusste ich nicht.
    Falls das stimmt kann man sich streiten ob einem die 2ms wert sind einen tausender für ein Roland auszugeben wo man dann wieder von der Hardware abhängig ist.


    Ursprünglich gings ja nur um eine Verbesserung der Latenz in einen spielbaren Bereich.
    Da gibt es zwischen der Obergrenze TD50 und einem Babyface mit Oberklassewandlern noch viel dazwischen.
    Mit einer gebrauchten Juli@ PCI Karte für 100 Euro kommt man bei 96kHz/64Samples auch unter 0,3ms.


    Wenn ich auf niedrige Latenzen aus wäre, würde ich immer eine PCIe Karte vorziehen.
    Abgesehen von kleineren Latenzen belasten diese auch die CPU nicht.


    Da reicht dann vielleicht sogar das Medeli Modul um unter 12ms zu kommen je nach Rechner.
    Verglichen mit einem A4a Treiber und Realtek/NVidia Onboardsound sind das Welten und das für kleines Geld.

    don´t panic

  • Mit einer gebrauchten Juli@ PCI Karte für 100 Euro kommt man bei 96kHz/64Samples auch unter 0,3ms.

    Du meinst wohl 3ms. 0,3 gibt's nicht.



    Verglichen mit einem A4a Treiber und Realtek/NVidia Onboardsound sind das Welten und das für kleines Geld.

    Ich kann mir nicht vorstellen, daß die Wandler von Onboard-Soundchips so lahm sind, daß es "Welten" sind. Die Werte, die A4A rausgibt sind die reinen Treiber-Latenzen ohne DAC.

  • Du meinst wohl 3ms. 0,3 gibt's nicht.

    ne ich meine schon 0,3ms. Runden auf 1/100ms reicht mir. Genaugenommen sinds dann 0,333ms bei 32Samples und 96kHz.
    Aber mein Rechner mochte erst ab 64 Samples arbeiten und da sind dann immer noch 0,6ms (gerundet)

    Unterschiedliche Latenzen bei unterschiedlichen Interfaces liegen an der Latenz der Wandler, der Datenübertragung (bei USB und FW höher als bei PCI)
    Manche Treiber zeigen nur eine, manche auch 3 Nachkommastellen an.
    Wenn man einen flotten Rechner und ein gutes PCI Interface hat, welches mit 196kHz und 32 Samples Speicher klarkommt, kommt man unter 0,2ms,

    das darf man dann auch als Echtzeit betrachten.

    Schneller ist das latenzfreie Hardwaremonitoring auch nicht welches die Hersteller so nennen.


    Ein Behringer X32 zb. hat eine Round Trip Latency von 0,8ms. Die RME PCIKarten dürften vermutlich ähnliche bis leicht bessere Werte haben.


    Ich kann mir nicht vorstellen, daß die Wandler von Onboard-Soundchips so lahm sind

    Die Werte, die A4A rausgibt sind die reinen Treiber-Latenzen ohne DAC.

    doch, sie sind deutlich langsamer als zb. die RME Wandler. Alleine schon mangels Hardwarebuffer
    Aber das ist weniger das Problem als die WDM Treiber von Windows, die A4A ja nutzen muss.
    Mit A4A sind Latenzen von >20-100ms normal. Abhängig vom Motherboard, DAC, Ram, CPU und wo die Daten sonst noch überall durch müssen.

    don´t panic

  • Ich musste hier aufräumen, auch wenn vielleicht inhaltlich korrektes dargestellt wurde.


    Warum ist es so schwierig, technisch verifizierbare Sachverhalte ohne Emotion zu diskutieren? Bitte bleibt bei den Fakten, falls jemand weniger weiß als der andere, darf man es erklären, ohne jemanden zu diskreditieren, beschimpfen oder mit Häme zu überschütten.

  • Vielleicht sollte man etwas Licht ins Dunkel bringen und versuchen den Begriff Latenz etwas verständlicher aufzudröseln.
    Ein Versuch:


    In der analogen Signalverarbeitung gibt es keine Verzögerung, alles geschieht in Nullzeit.
    In der digitalen Signalverarbeitung gibt es immer eine Verzögerung durch Signallaufzeiten.


    In der anlogen Welt mussten Geräte wie Hall und Delay dafür durch sehr aufwändige Schaltungen realisiert werden.
    Man musste sich die Latenzen teuer erkaufen mit sehr vielen Nachteilen, wie starkem Rauschen und hohen Kosten (Eimerkettenschaltung)

    In der digitalen Signalverarbeitung möchte man Latenzen möglichst klein halten.
    Sind die analogen Signale erst einmal digitalisiert, kann man damit sehr einfach nach Gusto rumspielen, ohne Qualitätsverlust, ohne Rauschen, ohne Kosten für aufwändige diskrete Schaltungen. Möchte man dann diese wieder in die analoge Welt überführen, hat man wieder das selbe Problem mit Qualitätsverlusten und Latenzen.


    In der digitalen Welt geht nichts ohne Takt, alles muss in klar definierten Zeitintervallen passieren.

    Möchte man ein Signal digitalisieren, will man das so genau wie möglich.


    Ist so ähnlich wie malen nach Zahlen:

    Je feiner wir das Signal rastern sowohl horizontal (Abtastrate/Samplerate)

    als auch vertikal (Auflösung/Bittiefe) desto mehr Werte erhalten wir und desto genauer lässt sich aus diesen Werten auch wieder das ursprüngliche Signal reproduzieren.
    pasted-from-clipboard.png

    Diese erhaltenen Werte kann ich aufschreiben, jemandem schicken der das Signal nicht kennt und er wird anhand der Zahlenwerte das Signal rekonstruieren können.
    Dabei gilt je feiner ich die Messungen mache desto genauer wird es.

    Aber je genauer ich das mache desto mehr Zeit und Papier braucht es, es fallen viele Daten an, sowohl bei meiner Messung als auch bei demjenigen der es wieder rekonstruieren soll. Je mehr Daten desto mehr Zeit braucht es
    (in der Grafik sieht man das Problem zwischen dem Punkt 11 und 12 auf der Abtastachse, der Bereich dazwischen wird nicht erfasst. Würde man die Messpunkte auf der x-Achse verdoppeln , schon)


    In den frühen 80er Jahren als die Rechner noch leistungschwach und teuer waren, einigte man sich auf einige Eckdaten um dafür zu sorgen das alles schön kompatibel bleibt.
    Die Audio CD bekam eine Abtastrate von 44,1kHz und eine Bittiefe von 16 Bit. Kann somit Musik bis 22kHz und einer theoretischen Dynamik von 96dB darstellen und dadurch deutlich besser als eine Vinylplatte. (abgesehen von vielen weiteren Vorteilen gegenüber Vinyl)


    Jetzt zurück zum Thema

    Seit Ende der 90er die Rechner leistungstärker wurden und die Musikproduktion began auf digitale Techniken umzustellen, arbeiteten die Hardwarehersteller solcher Geräte stetig daran die Auflösung hoch und die Rechenzeit runterzudrücken.
    Heute ist es problemlos möglich und meist ausreichend mit 24Bit und 44,1, bzw 48kHz zu arbeiten.

    Intern rechnen fast alle DAWs mit 32 und 64Bit, was einen enormen Headroom zulässt.

    Jetzt gibt es mehrere Faktoren welche für die unerwünschte Verzögerung sorgen.


    Eine DAW arbeitet mit einem Zwischspeicher der Daten.

    Dafür hat Steinberg den AsioTreiber entwickelt, der als Schnittstelle zwischen dem Digitalwandler und der DAW dient.


    Während der Audio-Verarbeitung muss der Computer zahlreiche unterschiedliche Aufgaben ausführen. Dazu gehören die grafische Anzeige, der Festplattenzugriff, der Datenaustausch mit externen Geräten wie z. B. MIDI-Controllern sowie natürlich die Audio-Verarbeitung selbst. Da der Computer die genannten Aufgaben nicht alle auf einmal erledigen kann, müssen Daten aus den verschiedenen Prozessen "gepuffert", also zwischengespeichert werden.


    Als Beispiel ein Samplebuffer von 512 Samples.

    Die Rechnung ist simpel: Wir teilen 512 Samples durch 44,1 (44100 Samples pro Sekunde) und erhalten 11,6 Millisekunden .
    Arbeiten wir mit einer höheren Abtastrate, verringert sich die Latenz. Betreiben wir unsere DAW mit 96 kHz statt 44,1 kHz, halbiert sie sich.

    Das selbe gilt für die Änderung des Samplebuffers. Verkleinern wir ihn, ist er schneller voll und die Latenz verkleinert sich.

    Ein Buffer von 32 Samples und eine Samplerate von 96kHz ergibt immer eine Asiolatenz von 0,3ms.

    Bei 192kHz kämen wir auf nur 0,15ms. Klingt doch gut, oder?
    Ja, aber in der Praxis kaum umzusetzbar, da kleinere Sampleraten und höhere Abtastraten auch eine höhere CPU Belastung mit sich bringen.


    Und in der Praxis zb. beim Audiorecording auch unnötig weil:
    Es macht keinen Unterschied, ob man beim recorden mit 1ms oder 100ms arbeitet.
    Die DAW kennt die Zeiten und sorgt dafür das die Signale an der richtigen Position landen, indem sie die Latenz berücksichtigt.

    Anders sieht es aus, wenn man die DAW auch fürs Monitoring benutzt und intern mit Plugins arbeitet die teilweise die Latenz erheblich erhöhen, bis zur unspielbarkeit.
    (einige Plugins verursachen Latenzen weit über 100ms)


    Üblicherweise beziehen sich die Latenz Angaben bei Mischpulten auf die Zeit, die ein Signal benötigt, um von einem analogen Eingangskanal zum analogen Summenausgang zu gelangen. Dieser Vorgang wird auch „RTL“ genannt, die Abkürzung für „Round Trip Latency“. Die tatsächliche RTL eines Audio Interfaces hängt von vielen Faktoren ab: Die Art der Schnittstelle (USB, Thunderbolt, AVB oder DANTE), der Performance des Recording Computers, das verwendete Betriebssystem, die Einstellungen der Soundkarte/Audiointerface und die des Recording Projektes (Samplerate, Anzahl an Audio & Midi-Spuren, Plugin Auslastung) und die Signallaufzeiten der verwendeten Wandler.

    RME hat Ende der 90er das sogenannte Hardwaremonitoring entwickelt. Die gesamte Berechnung findet im Gerät und nicht im Rechner statt.
    Mehrere Kanäle können teilweise mit komplettem Channelstrip und Halleffekten latenfrei ausgegeben werden.
    RME gibt diese Latenz mit ca 0,1ms an.
    Zum Vergleich hat ein Behringer X32 "nur" einen Latenz von ca.0,8 ms
    Heute bieten viele Audiointerface dank schneller DSPs (spezielle Signalprozessoren) internes latenzfreies Hardwaremonitoring an.


    Kommt jetzt aber Midi ins Spiel und virtuelle Instrumente, vergrößert sich die Gesamte Signallaufzeit.
    Zuerst einmal dauert es bis die Mididaten aus dem Keyboard/Drummodul erzeugt werden und dieses Verlassen.
    Dann dauert es eine Zeit bis sie den USB Buffer passiert haben und in der DAW ankommen.

    Dort werden damit zb. virtuelle Instrumente getriggert, die ebenfalls Rechenzeit benötigen.

    Und dann kommt noch einmal die Asiolatenz des Ausgangs hinzu.


    Die tatsächliche Latenz des Interface sollte auch vom Treiber angegeben werden.
    Die von den Herstellern angegebenen Werte sind leider häufig aufgehübscht – mit unerfreulichen Nebenwirkungen.
    Wenn man die Echtheit der angegebenen Latenz Audio-Interfaces messen will, führt man einfach einen Loopbacktest durch.
    Der Ausgang wird einfach an den Eingang geschickt und recordet.
    Stimmen die Werte die vom Interface angezeigt werden, sind beide Signale Deckungsgleich.
    Cubase zb. bietet intern einen Loopbacktest an. Dadurch lassen sich flasche Werteangaben kompensieren.


    Im Grunde ist eine geringe Abweichung auch nicht tragisch, solange man kein Outboard wie EQs und Kompressor verwendet.

    PCI Karten sind gegenüber USB Geräten latenzmäßig im Vorteil. Zum einen wegen der wegfallenden USB Pufferung und weil sie

    durch die geringere CPU-Last meist kleinere Sampleraten ermöglichen.



    ASIO4All

    Grundsätzlich kann man damit arbeiten wenn der Hersteller keine Asiotreiber anbietet.
    Was ja meist bei Onboardsound der Fall ist. -Vom Klang und der Wandlerqualität wollen wir hier nicht reden.


    Solange man in the box arbeitet und nur Audio recordet funktioniert das recht gut.
    Allerdings hat A4A den Nachteil, das es nicht die Hardware kennt und auf Windows und seine WMA Treiber angewisen ist.
    Dort greift A4a den Sound ab. So das die Werte sehr ungenau sind. (lässt sich mit dem Loopbacktest leicht überprüfen)



    David Courant
    Der Lookbacktest den du gemacht hast wird immer die selben bzw. fast ähnliche Werte liefern, unabhängig was du im A4A Treiber einstellst.

    Du kannst damit ausschliesslich die Latenzangaben überprüfen und gegebenenfalls korrigieren wenn deinen DAW das bietet.

    Auch kannst du mit deiner DAW nicht die Gesamtlatenz ermitteln, da du die Latenz deines Drummoduls nicht kennst.
    Was du in der DAW machen kannst ist die Zeit ermitteln vom Anschlag Pad bis zur Tonausgabe.
    Um die Modullatenz verlässlich zu ermitteln braucht es ein Oszilloskop.
    Dort schliesst du ein Mikro zur Abnahme des Anschlags und den Midiausgang des Moduls an.
    (die wenigen Millimeter Abstand Mikrokapsel/Pad muss man nicht rausrechnen)
    Jetzt hast du den zeitlichen Versatz den du zu der ermittelten Zeit in der DAW hinzuadierst.


    Grob und etwas ungenauer geht es dann doch wenn du dich 100% auf die Latenzangaben verlassen kannst.
    Aber das kannst du bei Asio4all nicht.

    don´t panic

  • PCI Karten sind gegenüber USB Geräten latenzmäßig im Vorteil. Zum einen wegen der wegfallenden USB Pufferung und weil sie

    durch die geringere CPU-Last meist kleinere Sampleraten ermöglichen.

    sollte es hier "höhere Sampleraten" oder "kleinere ASIO-Puffer" heißen?

    Zum Vergleich hat ein Behringer X32 "nur" einen Latenz von ca.0,8 ms

    Ich habe die Diskussion nur quergelesen im Trash, aber speziell diese Aussage hat den jetzt gesperrten Kollegen ja zur Weißglut gebracht - ich denke, weil ihr aneinander vorbei geschrieben habt: Du hast diese Zeit als RTL des X32 angegeben und das stimmt sicher auch annähernd, aber es es nur die Zeit, die das X32 benötigt, um ein Signal vom Eingang an den Ausgang durchzureichen - also ohne das das Signal das Pult verlässt. Wenn das X32 dagegen als USB-Interface am Rechner hängt, dürfte die Zeit vom Eingang des Signals in einem Input via USB - Rechner - USB zurück auf einen Output deutlich länger sein. So hatte der Kollege das wohl verstanden.


    Noch etwas zu Vorteilen von PCI-Karten: bei meinem aktuellen System hat die RME HDSP 9652 bezüglich des notwendigen Buffers keinen Vorteil gegenüber dem USB-Interface - beide wollen bei 48 kHz 512 Bit als Puffer (sonst gehen bei der Wiedergabe Asiopakete verloren, wie mir Samplitude anzeigt und bei der Aufnahme werden Fehlermarker gesetzt). Bei 96 kHz muss ich auf 1024 hoch (bei beiden Interfaces). Die absolute Höhe des notwendigen Buffers mag an meinem System liegen (nicht auf Audio optimiertes Win10 auf einem i7 Rechner), aber PCI ist beim Buffer hier nicht prinzipiell im Vorteil. Der Vorteil der PCI-Karten liegt darin, dass sie den Prozessor nicht belasten - es ist meinem Rechner schlichtweg egal, wenn ich da 48 Kanäle rein/raus drüber laufen lasse - die Prozessorlast ist Null. Das sieht beim USB-Interface anders aus.

  • sollte es hier "höhere Sampleraten" oder "kleinere ASIO-Puffer" heißen?

    ja natürlich, sowohl als auch ;)


    bei meinem aktuellen System hat die RME HDSP 9652 bezüglich des notwendigen Buffers keinen Vorteil gegenüber dem USB-Interface

    Das wundert mich. Mein System ist auch nur ein alter i5 und etwas auf Audio getweakt.


    Das Behringer verweigert kleinere Buffereinstellungen als 88Samples. Wie man sieht wird etwas gelogen. 88Samples sind 1,96ms
    Mit den Komplete von NI bekomme ich 5,1ms angezeigt obwohl ich einen Buffer von 62 Samples einstelle. Alles mit 48kHz
    Was ich nicht weiß, inwiefern die angezeigten Werte mit den tatsächlichen übereinstimmen mit denen Cubase dann rechnet.


    Bei der Juli@ kann ich noch mit 32Samples arbeiten.
    Unterschiedliche Prozessorlasten kann ich subjektiv nicht feststellen.
    Das Behringer lässt kleinere Buffer zu als das Komplete.
    Die Juli@ ist in Kombination mit einem Midizuspieler die Latenzärmste. Fällt aber nur beim edrum auf,

    beim Keyboard, einem Nectar Panorama merke ich keinen Unterschied zwischen 64 und 128 Sample Buffer bei beiden USB Geräten.


    Beim recorden stelle ich den Buffer auf 1024 und das reicht meist für umfangreiche Projekte mit mehr als 60 Spuren.

    Ich arbeite überwiegend mit Audio und wenns doch mal eng wird, kann man ja noch Spuren einfrieren.
    Monitoring über die DAW nutze ich nicht. Nicht nur weil es mit meinem schwachen System nicht geht, sondern

    weil es am X32 besser und einfacher ist.

    don´t panic

  • Oh ha, das scheint hier ja irgendwie eskaliert zu sein. Ich wollte eigentlich "nur" wissen, ob man Live-Software-Drumming betrieben könnte, ohne ein Vermögen aufzuwenden und nicht die Community spalten, sodass langjährige Mitglieder auf einmal gesperrt werden. Heieiei... Ein super Debutauftritt meinerseits hier.

  • Dass das Thema derartig kompliziert wird, hätte ich auch niemals vermutet. Beeble ganz herlichen Dank, dass du dir die Mühe für so einen detaillierten Artikel gemacht hast. Unter diesen Umständen kann ich verstehen, dass man live besser zu einem allzeit verlässlichen Akustikkit greifen sollte. Das hängt ja an tausend Faktoren.

  • Irgendwie ist es total zum schmunzeln :) Da werden Erinnerungen wach...lol!


    Wenn ich deinen Eingangspost richtig verstehe möchtest du deine Playalongs oder Musik ab und an zuspielen und der Asio4All blockt das Ganze! Warum ist ja bestimmt schon geschrieben worden.


    Es gibt ein Programm das nennt sich VST Host (wenn zu z.B. nicht gerade Cubase oder ähnl. verwendest) Meiner Meinung läuft das ganz passabel mit den entsprechenden MP3 Plugins. Müsstest du mal recherchieren im Netz.


    Auch in Cubase habe ich Musiktitel oder Playalongs einfach als Audiospur hinzugefügt. LÄUFT! Natürlich haben hochwertige Audiointerfaces oder PCi-Karten da schon ihren Stellenwert. Bist du aber zufrieden mit der Performance und nimmst die Latenzen nicht als störend war, ist doch alles wunderbar. Ich habe jahrelang so Spaß gehabt .-)


    So...Butter bei die Fische! Ich hatte um das alles zu umgehen Asio4All auf meinem Laptop und für die Zuspielung meiner Musik ( MP3 Player, Smartphone) einen einfachen Behringer USB-Mini Mixer verwendet. Da ich mit der Latenz hochzufrieden war, schien mir das der beste Weg.

  • Dass das Thema derartig kompliziert wird, hätte ich auch niemals vermutet.

    das ist es ja gar nicht, es scheint nur so wenn man es unnötig verkompliziert. ;)

    live über Superior Drummer zu spielen. Das klappt mit Asio4all wunderbar.

    Damit wäre dein Luxusproblem schon fast gelöst.
    Der Luxus wäre dann noch eine DAW und gegebenenfalls ein "vernünftiges" Audiointerface


    Als Budget Lösung würde ich zu einer kostenfreien DAW greifen, die meistens der Hardware beiliegt.

    Oder ab ca 14 Euro am Bahnhofskiosk zu kaufen.


    Soundkarten von Steinberg liegt Cubase bei,
    Presonus liefert Studio One mit und

    Focusrite und Native Instruments legen Ableton Live bei. Alles in den kleinen Abgespeckten Versionen.

    Von Behringer, Swissonic usw. und generell von Geräten weit unter 100 Euro sollte man die Finger lassen.
    Die taugen nicht für dein Vorhaben.


    Die Geräte kosten etwas alles das gleiche, um 100-140 Euro
    Außer Focusrite kann ich jedes empfehlen. (die haben für mich einen miesen Service und ein schlechtes Preis Leistungsverhältnis)


    Sehe gerade das Steinberg gerade das neue UR22 (hier für 133 Euro) rausgebracht hat und sogar ein Cubase Elements dabei ist, das kostet alleine schon 100 Euro.

    Wäre meine Wahl wenn ich jetzt eins kaufen wollte.


    Wenn du jetzt schon zufrieden bist, sehe ich keinen Grund ein Roland Modul und eine hochpreisige Soundkarte zu kaufen.


    don´t panic

  • Außer Focusrite kann ich jedes empfehlen. (die haben für mich einen miesen Service und ein schlechtes Preis Leistungsverhältnis)

    Sehe gerade das Steinberg gerade das neue UR22 (hier für 133 Euro) rausgebracht hat und sogar ein Cubase Elements dabei ist, das kostet alleine schon 100 Euro.

    Wäre meine Wahl wenn ich jetzt eins kaufen wollte.


    Wenn du jetzt schon zufrieden bist, sehe ich keinen Grund ein Roland Modul und eine hochpreisige Soundkarte zu kaufen.

    Super Beeble, vielen Dank für den Tipp und deine Warnung vor Focusrite - genau das hätte ich nämlich gekauft xD Ich hab jetzt direkt das UR22 mit Cubase Elements bestellt! Ich werd euch mal auf dem Laufenden halten, wie es so weitergeht!

  • Wie würdet ihr denn von einem MPS-850 Modul in das UR22 gehen? Das Interface hat ja vorne 2x XLR-Eingang und 1x Midi-Eingang auf der Rückseite. Momentan nutze ich USB-Midi-Out am Drummodul.


    13575926.jpg

    Einmal editiert, zuletzt von derflip85 ()

  • Sorry, ich habe den urpsrünglichen Post gerade überschrieben. In einem Imagevideo von Steinberg habe ich gesehen, dass eDrums hinten am Midi-Eingang angeschlossen werden sollen. Allerdings habe ich mal gelesen, dass das angeblich ziemlich Oldschool ist und man das eigentlich nicht mehr verwenden solle, da die Latenz auch darunter leiden kann. Oder hab ich da wieder irgendwas falsches erfahren?

    Einmal editiert, zuletzt von derflip85 ()

  • In der Theorie erzeugt die Konvertierung in eine klassische Midiverbindung und zurück eine zusätzliche Latenz. Aber ob das ein Problem ist, hängt von der Latenz der USB-Midiverbindung des Moduls ab. Ich würde es ausprobieren, vermutlich merkst Du eh keinen Unterschied ;).

    Nix da.

  • Ich habe ein Mischpult (Behringer 22 Kanal) mit USB am PC hängen, was auch als Interface fungiert. Dann alles andere mit USB Midi am PC. Mein Modul hat nur DIN Midi und dazu habe ich einen Adapter - USB im PC. In der DAW (Steinberg Cubase 11 Elements) muss alles mal eingerichtet sein. Dann kann man analog recorden, andere Instrumente triggern, MIDI recorden und abspielen. Ich habe auch schon Midi Drumspuren abgespielt und gleichzeitig analog aufgenommen.

    Ich merke da aktuell nichts mit Latenzen. Im Zweifel könnte man es auch "geraderücken".


    Die Spuren vom Mischpult kann ich direkt aufnehmen.
    Midi eben über USB als Midispur aufnehmen.

    Midispur intern an ein Gerät "schicken" und dessen output durch den Mixer aufnehmen.

    Alles möglich.

    Wie sich das Live darstellt weiß ich nicht, da keinerlei Erfahrung damit. Muss aber auch irgendwie gehen.


    Viele Grüße

    Ivo

    Tama Royalstar mit Zola Coat Beschichtung (BD, HT, FT), Tama Imperialstar (BD, HT, FT), E-Drum 2box 5 MK2 mit umgebauten Kesseln

    Mein Vorstellungsthread

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!