Beiträge von lite


    Ja. Sie brauchten ein midifiziertes SDSV für genau einen Song. Ich meine es war "The Brazilian" oder "Home By The Sea". Nachdem ich nur leihweise eins rausrücken wollte hat er anderswo eins aufgetrieben. Das wurde dann allerdings von einem Sequenzer getriggert


    The Brazilian wurde nur auf der zugehörigen Album-Tour live gespielt (Invisible Touch Tour). Danach nie wieder. Die SDS V Sounds werden, neben einigen kurzen Effekteinsätzen, bei "second home by the sea" gespielt.


    Wolfgang, was mich sehr wundert, Du schreibst, das SDS V wurde live von einem Sequencer getriggert? Wie kommst Du darauf? Es wurden SDS-V-Samples vom Fantom abgespielt (getriggert über TD-12 via MIDI). Das SDS V kam live nicht zum Einsatz. Es diente nur als Sample-Quelle, so steht es auch im Sticks-Interview vom Collins-Drum-Tech. Also klär uns bitte mal auf, wie Du darauf kommst, bzw. wo Du die Info her hast, wenn da was dran sein sollte?!?! ;)

    Das ddrum Ding nennt sich performer (auch gern kit selector genannt). Es ist nicht richtig, dass es nur am ddrum2 funktioniert. Der ddrum performer hat zwei Möglichkeiten der Steuerung. Einmal die bereits erwähnte Steuerung mit dem ddrum2, die über einen speziellen Anschluss erfolgt (6 poliger Telefonstecker). Mit diesem Anschluss kann man in der Tat nur was mit einem ddrum2 anfangen.


    Aber der performer ist gleichzeitig ein MIDI controller. Man kann damit Programwechselbefehle senden (MIDI program change Befehle) und damit die Kits auswählen. Dies ist nicht ddrum spezifisch, sondern MIDI Standard. Ich habe so z.B. damit die Bänke im ddrum3 über MIDI gewechselt. Das ddrum3 läßt sich nämlich nicht wie das ddrum2 über die spezielle Buchse ansteuern, sondern wie jedes anderes Drummodul nur über MIDI. Der performer ist bezüglich program change Befehle programmierbar. Darüber hinaus hat der performer ein Metronom, das sogar MIDI timecode sendet. Somit kann man damit z.B. einen sequencer steuern, etc. . Audioausgang für das Klicksignal ist ebenfalls vorhanden.


    Es gab noch ein anderes Gerät dieser Art: Das RC-1. Dies ist damals zum ddrum3 erschienen. Ich habe es aber nie gehabt und kenne mich damit nicht aus.


    In der Regel ist aber der performer auf ebay zu finden (schwarzes Gerät). Das RC-1 ist sehr sehr selten anzutreffen (graues Gehäuse).


    Toontrack Superior Drummer unterstützt das umfangreicher ;)


    Hi drumdidi,


    habe mir bei einem Bekannten gerade Superior Drummer mal angesehen. Ich finde da z.B. bei den Snares keine weiteren Zonen?!? Nur center und edge, mehr nicht, genau wie bei BFD. Wo finde ich die zusätzlichen Zonen? Oder sind das nur spezielle Erweiterungen, die Du meintest?


    Danke und Gruss.

    Kann Dir leider nicht mit einem USB Interface dienen. Aber man kann ja auch mit jedem Laptop Firewire nutzen. Falls kein Firewire Anschluss, sollte zumindest ein PCMCIA / Cardbus Schacht vorhanden sein. Dann geht's.


    DDrum4 - Terratec Phase X24 (88 Samples) - PCMCIA Firewire Karte (mit TI Chipsatz!) - BFD2 (32 Samples) - Laptop - Windows XP Pro - 4GB DDR3 RAM - Core2Duo CPU 2.53GHz.
    Gesamtlatenz: 12ms.


    Wenn ich anstatt des DDrum4 das Roland TD-12 nehme, sind es 14,5ms Gesamtlatenz. Also gerade noch unter Deiner gesetzten Schallmauer.


    Das Audio-Interface kostet bei ebay gebraucht nicht viel mehr als 100 Euro. Die PCMCIA Karte vielleicht nochmal 20-30 Euro oder so.


    Habe allerdings keine wochenlangen Knackstests gemacht. Ich habe nur einige Tage damit rumgespielt und dann doch lieber die BFD Multisamples ins DDrum3 übertragen und direkt angetriggert. Bis dahin habe ich allerdings keine Knackser wahrgenommen.

    Das vielfache war auf schnelles Modul vs. Rechnerlösung bezogen. Und da ist es ein vielfaches. 2,4 vs 4 sehe ich auch nicht als wahrnehmbares Problem an. Wie ich schon öfters geschrieben habe, sehe ich auch die Puffergrössen nicht als das Problem an. Die halten sich ja in relativ geringem Bereich. Nur verdaddeln die Rechner nach meiner Erfahrung noch so einige Millisekunden bis das Signal im Puffer landet. Modullatenz inkl. MIDI + Pufferlatenz sind ja scheinbar wesentlich geringer, als was man im Gesamtsystem nachher hat.

    Ich kann nur von mir selbst sprechen. 15ms oder 20ms merke ich definitiv und ohne Zweifel im Gegensatz zu einem sehr latenzarmen System im Bereich 2-4ms.
    20ms klingt für mich auch ziemlich viel, wenn ich mir überlege, dass bei Tempo 120 eine 1/32 Note 62ms hat - gerade mal das dreifache.


    Ich sag nicht, dass man bei 10-15ms nicht spielen kann. Klar geht das. Aber für mich trotzdem wahrnehmbar und es fühlt sich nicht "instant" an. Aber das wird individuell sicher sehr unterschiedlich und subjektiv sein. Eine handvoll Drummer kenne ich, die das genauso wahrnehmen. Ich würde vermuten, dass es Im direkten Vergleich eigentlich jedem auffallen sollte, wenn man zwei Systeme im A/B Vergleich nebeneinander anspielt.


    Ich stimme Dir zu, dass die Latenz des Systems ja noch erweitert wird durch weitere Umstände wie Lautsprecherdistanz, etc. . Daher halte ich es auf jeden Fall für erstrebenswert, die Latenz des E-Drumsystems gering zu halten. Und hier sehe ich noch erheblichen Bedarf an Fortschritt. Ich finde es nur schade, dass die Hersteller vor 20 Jahren sich wirklich Mühe gegeben haben und wir mit ein paar Millisekunden sehr gut bedient waren. Für mich besteht daher kein Grund, heute ein vielfaches davon als Ende der Entwicklung zu akzeptieren.

    ASIO-Puffer muß man (hab ich mir sagen lassen) immer verdoppeln: einen für den Eingang und einen für den Ausgang. Wäre also in dem Fall 88 x 2.


    Das Audiosignal wird doch erst im Rechner erzeugt. Audioeingangslatenz brauchst Du nur, wenn Du auch ein Audiosignal in den Eingang des Interfaces laufen lässt. Und der Sample Buffer hat nichts mit einem "MIDI-Eingangsbuffer" zu tun ;)
    Bleibt also bei 1x 88 Samples für den Audioausgang, wie beschrieben.


    Zu Cubase und BFD: Hast Du es mal mit der Standalone-Variante verglichen? Aber wenn, dann bitte nicht mit Mikroaufnahmen ;)
    Es ging darum, dass dort zusätzliche Latenz entstehen kann. Das kann passieren, wenn in Cubase einiges mehr abläuft, als nur der BFD VST Pluginbetrieb, je nachdem, was man parallel damit macht und was für einen Rechner man hat. Das bedeutet: Die Latenz kann sich je nach Auslastung und Konfiguration noch verschlechtern. Verbessern wohl kaum. Das ist eben eine Eigenschaft eines hostbasierten Systems im Vergleich zu einem tighten Hardwaremodul. Auch wenn es in Deinem Fall gut laufen zu scheint und Du nicht parallel noch mehrere Echtzeiteffekte, etc. pp. betreibst.

    pete55:
    Es ist schon richtig, dass die Zeit vom Schlag bis zum Eintreffen des Sounds am Ohr letztendlich die Gesamtlatenz beim Spielen darstellt. Nur wenn wir einzelne Komponenten und Konfigurationen anhand von Latenz beurteilen wollen, halte ich die Einbeziehung des Monitorweges nicht für sinnvoll. Dann hat nämlich User A bei gleichem Drummodul und gleicher Hardware einen anderen Latenzwert, weil der Weg vom Audioausgang des Moduls (oder Audiointerfaces) zum Messmikro ein anderer ist: kleine Boxen / große Boxen / Verstärker / ggf. Mixer (vielleicht auch noch digital – hehe :) ) / Mikrofonabstand / etc.. Man muss dann wieder drauf achten, dass hier keine Unterschiede aufkommen, wenn verschiedene Leute messen. Bei einem Y-Kabel und direktem Messen am Ausgang besteht das Problem nicht. Ein Y-Kabel am Pad und den Ausgang des Systems (Drummodul oder Audiointerface) halte ich immer noch für besser und eindeutiger. Der Rest ist zwar in der Praxis nicht unwichtig, aber macht es nicht einfacher, wenn man es messtechnisch und vergleichstechnisch nicht trennt.
    Nur meine Meinung dazu :)


    Habe Anfang der 90er 10ms mit einem Ensoniq ASR10 gehabt. Der Umstieg auf 2ms war für mich schon wahrnehmbar. Es fühlt sich für mich wirklich direkter an beim Spielen. 10ms sind natürlich noch kein Delay :) aber für mich im direkten Vergleich wahrnehmbar. Was ich nicht wahrnehme sind 4ms anstatt 2ms, wenn ich das eine Modul zum Ansteuern des zweiten Moduls per MIDI verwende.


    Da würd´ mich ja mal heftigst interessieren, welcher Hersteller bzw. welches Modul die am wenigsten träge Verarbeitung bis zum Midi-OUT liefert.


    Ich kenne nichts schnelleres als Clavia's DDrums.



    Und haben die Flaggschiff-Module eines Herstellers Roland oder Yamaha da bessere Werte als die günstigeren Geräte?


    Also ein 20 Jahre alter Simmons Drum-To-MIDI-Konverter ist zumindest flotter als ein TD-12 :)
    Mit Hüllkurven-Sample-Funktion gegen Crosstalk (2ms Scantime eingestellt wie bei Roland), aber natürlich damals ohne Position-Sensing-Zeugs, Cymbal-Zones, etc.


    Von daher kann man nicht unbedingt sagen, dass aktuelle hochpreisige Module automatisch schnell sind. Zumindest nicht bei Roland. Die Yamaha Module habe ich selbst nicht gemessen. Würde mich auch mal interessieren.


    Gruss :)

    Der Löwenanteil der Gesamtlatenz kommt aus meiner Erfahrung nie vom Audiointerface, sondern 1. von der trägen Verarbeitung der Triggermodule a la Roland / Alesis / etc. und 2. von der latenzbehafteten Arbeitsweise der Hostbasierten Systeme (letzteres überwiegt gewaltig).


    Anders ist es nicht zu erklären, dass man z.B. eine Latenz beim Triggermodul + MDI von (sagen wir mal beispielsweise) 5ms hat und beim Audiointerface von 2ms. Die Gesamtlatenz solcher Systeme liegt dann gerne mal bei 15ms. Da bringt die Optimierung eines Audiointerfaces um 1ms kaum was.


    Ich würde die Gesamtlatenz auch nicht per Mikrofon messen. Das bringt zuviele Variablen rein meiner Meinung nach. 30cm Entfernung des Mikros vom Pad, oder von den Speakern, machen schon 1ms Schallweg aus. Die einzig zuverlässige Messmethode ist, ein Y-Kabel am Pad anzuschließen und das Signal aufzunehmen. Mit dem gleichen Aufnahmegerät muss auf dem anderen Kanal der Audioausgang des Gesamtsystems aufgezeichnet werden (darf nicht die gleiche Kiste mit Cubase, etc. sein, die das Signal abspielt). Nur dann kommt man auf zuverlässige Gesamtlatenzwerte.


    Wenn jemand nach dieser Messweise wirklich nachvollziehbar und reproduierbar konstant deutlich unter 10ms liegt, wäre ich hellhörig.


    Solange sich die Latenzwerte allerdings bei hostbasierten Systemen in solchen Größenordnungen aufhalten, werde ich weiter bei 2ms Gesamtlatenz (von Padanschlag bis Audioausgabe) bleiben und BFD(2) Multisamples per Hardware-Lösung spielen.


    Sorry, ich weiß, dass ich keine lösungsfördernden Vorschläge äußere. Aber ich würde halt nur raten, ein konsequentes Meßverfahren wie oben beschrieben anzuwenden, um den einzelnen Komponenten und Latenzabschnitten wirklich auf den Pelz zu rücken.


    Viele Grüsse.

    @Trommetotti,


    Ja, so isses.


    Allerdings ... "richtige" Geräte aus den 90ern können das 8) (z.B. DDrum3, oder ein oller Add-Two, etc.). Roland kann es 20 Jahre später noch nicht mal. Scheinbar nur über Umwege (Sequenz erstellen), ohne die entsprechende Einflussnahme per Crossfading, etc. :S


    Von daher tust Du den Geräten aus den 90er Jahren evtl. unrecht, wenn Du sie mit einem aktuellen Roland Modul vergleichst. So dürftig war die Technik damals nicht 8) :P

    Wie jesses schon schreibt, wären die Yamaha Module eine Variante, bei denen man zumindest eigene Samples laden kann. Allerdings sind hier auch Grenzen gesetzt was die Anzahl der einzelnen Samples bei Multisamples (ich meine 4?) und der Einflussnahme (Filter, Effekte durch Parameter wie Velocity, Anschlagposition, etc.) angeht.


    Der beste Drumsampler für Dein Vorhaben wäre eigentlich ein DDrum3. Hier kommt kein Modul an die Möglichkeiten ran, die Du hast. Entweder echte Drums mit komplexen Multisamples, oder abgefahrene E-Drum-Sounds mit fast endlosen Möglichkeiten zur Beeinflussung der Sounds (Stacken per Crossfade, gesteuert durch Velocity, position, pressure, etc. . Oder z.B. komplexe Filtersteuerungen, EQ, pitchbend, etc. pp.). Das DDrum4 wäre nur interessant, wenn Du keine eigenen Multisamples reinladen willst, sondern nur einfache Samples, bzw. aus der doch recht großen Werkslibrary was machst, die auch zahlreiche Effekte und E-Sounds enthält.


    Über MIDI entsprechende Hardware ansteuern wäre auch möglich, allerdings teilweise eingeschränkt von den Möglichkeiten der Einflussnahme durch Triggerparameter wie proition sensing und pressure sensing, auch je nach angesteuerter Hardware. Und natürlich größere Latenz.


    Für echte Drumsynthie-Geschichten wäre ein Simmons SDS7 noch genial. Vintage-Lo-Fi 8bit Samples + Synhie-Section pro Soundkanal. Da kannst Du dann richtig viel rumexperimentieren mit den Synhtie-Parametern. Aber ein nicht ganz so sobustes Gerät, was oft mal gerne Probleme macht.


    Wenn Du ein Neugerät haben willst, fallen die Lösungen bis auf das Yamaha natürlich alle raus :)

    Moin,


    ich habe beim Überfliegen jetzt keine Antworten zu den Fragen gefunden, die eko gestellt hatte bezüglich Roland Pads am DDrum4. Falls ich was überlesen haben sollten, bitte die Doppelung zu entschuldigen.


    Roland Bass Drum & Tom Pads am DDrum4:
    Geht.


    Roland Snare Pad am DDrum4:
    Geht. Wie Du schon richtig beschrieben hast, hat das Roland Snare Pad ein Stereo Signal. Das DDrum4 Modul hat zwei Mono-Triggereingänge: Snare & Rim. Einfach einen Adapter kaufen, der das Stereo-Klinkensignal vom Roland Snare Pad in zwei Mono-Klinken-Signale splittet und entsprechend ans DDrum4 anschließen.


    Was dabei nicht geht:
    - Position Sensing. Einwandfreies Position Sensing geht nur 100%ig mit den DDrum Pads (Cast Precision DDrum4 Pads oder DDrum3 Pads). Allerdings sind die meisten Sounds in der DDrum4 Library, die Position Sensing unterstützen, Percussion Sounds.
    - Pressure Sensing. Du kannst auf das Fell kontinuierlichen Druck ausüben (mit Stick, Finger oder Handballen,etc.) und der Sound wird dadurch beeinflusst. Ist aber auch meistens nur bei den Percussion Sounds anzutreffen (Z.B. wird die Tonhöhe einer Timbale oder Conga beeinflusst, wenn Du das Fell nach unten drückst und solange hälst, während Du mit der anderen Hand/Stick drauf spielst).


    Ich habe selbst mein DDrum4 öfters bei einem Bekannten an seinen Roland Pads gespielt. Becken sind natürlich völlig inkompatibel, weil andere Technik. Nur Crash Becken sollten funktionieren. Aber das hattest Du ja auch gar nicht vor.


    Ich würde das DDrum4 bevorzugt nicht über MIDI ansteuern. Abgesehen von den 1000 Dynamikstufen, die sich auf 127 reduzieren, erhöht sich die Latenz. Das TD-12 ist in der MIDI Ausgabe recht träge und die Latenz erhöht sich um 4(!) Millisekunden, so dass Du bei etwa 6,4 Millisekunden Gesamtlatenz landest. Wenn Du das DDrum direkt mit den Pads anspielst, liegt die Latenz nur bei etwa 2,4 Millisekunden (TD-12 direkt angespielt bei etwa 4 Millisekunden).


    Ich hoffe, das hilft Dir etwas weiter.


    Theo: Das DDrum4 hat keinen EQ. Das Gerät wurde damals eher für Umgebungen geschaffen, wo EQs, Effekte, etc. extern angewendet werden, z.B. Studio. Metronom, Playalongs, interne Effekte, sowie weitere bells and whistles etc. gibt es (leider) nicht.
    Das DDrum3 hat einen EQ pro Sound(!), als Filter mit Q-Wert, etc. ansteuerbar z.B. durch positional sensing, etc., also nicht als Mixerersatz, sondern als E-Drum-Tool.


    Gruss.

    Moin,


    ich lese immer wieder, dass man doch möglichst mehrere Gigabytes an Flash-Speicher nehmen müsse, da dies für realistisch klingende Multisamples nötig wäre. Meine Erfahrung hat genau das Gegenteil gezeigt. Man sollte sich mal anschauen, wie die Gigabytes in den Softwarepaketen zusammenkommen und wirklich überlegen, ob das notwendig ist. Ich hatte neulich was dazu geschrieben und meine eigene Erfahrung mit der Portierung von BFD Multisamples ins E-Drum-Modul geschrieben (mittlerer Teil vom Beitrag):


    Superior Drummer 2.0 Fragen über Fragen


    Zitat hippo:
    <<Ich habe mir jedoch erklären lassen, dass Speicher nicht gleich Speicher ist. Mit herkömmlichen Speichern kann man das Tempo von 1ms Zeitverzögerung (Midibedingt) nicht erreichen.>>


    Ich befürchte der Wunsch nach 1ms Gesamtlatenz ist nach meiner Erfahrung komplett unrealistisch, insbesondere wenn das Gerät quasi ein "MIDI-Sample-Player" wird. Die MIDI Schnittstelle macht dabei noch nicht mal den größten Teil aus:


    Latenzmessungen: TD12, DDrum4, PC/BFD, Simmons ADT


    Selbst wenn man es schafft, den geplanten "MIDI-Drum-Sample-Player" so schnell wie ein DDrum zu bekommen, würde man nach meinen Erkenntnissen mit einem Roland Modul als Triggerinterface immer noch bei über 6ms Gesamtlatenz liegen. Für mich würde der Reiz eher darin liegen, dass das Gerät auch die Triggerauswertung selbst erledigt. Ich bin fest davon überzeugt, dass man anders niemals eine markant geringe Latenz hinbekommt, solange man auf vorgeschaltete Triggerinterfaces setzt. Leider.


    Gruss.

    Hi,


    ein spezieller Konverter, bzw. das Konvertieren in ein DDrum-Format ist bei eigenen Samples nicht nötig. Das DDrum 4 unterstützt den seit Ewigkeiten verbreiteten MIDI Sample Dump Standard. Du kannst mit jedem Soundeditor, der das unterstützt, einfach eine Sounddatei (egal ob wav, aif, etc.) im Editor öffnen und sie dann per MIDI Sample Dump zum DDrum 4 schicken. Du benötigst keine spezielle Software, die das DDrum in proprietärer Weise unterstützen müsste, denn der MIDI Sample Dump Standard ist genormt und Geräte- und herstellerübergreifend gültig (Dumpen geht z.B. daher auch von anderen Samplern).


    Auf dem PC gehen zum Beispiel Sound Forge (aktuelle Software, kostet aber ordentlich), Awave, etc.


    Aufm Mac wirst Du sicher die verfügbaren Editoren besser kennen als ich.


    Einzig und allein für die DDrum Werksounds brauchst Du das PC Programm, da hier ein Clavia-eigenes Format eingesetzt wird. Hier werden keine einzelnen Soundfiles übertragen, sondern komplette Multisample-Sets, die zusätzliche Parameter enthalten und in einem eigenen DDrum Format komprimiert sind (daher geht die Übertragung hier auch ca. 4-6 mal so schnell).


    Gruss.

    Hallo GrupAlem,


    ich bin in der BFD Library fündig geworden, habe die ausgewählten Multisamples ins Modul übertragen und entsprechend angelegt. Allerdings kostet die Software natürlich was. Du kannst Dir aber Demo-Samples auf der Homepage von fxpansion vorher online anhören und gucken, ob evtl. für Dich was dabei ist. Ich habe zumindest momentan meinen "Ultimativen Snare-Sound" gefunden, den ich zurzeit zu über 90% spiele. Vielleicht ist ja auch für Dich was dabei.

    - oder wie das Instrument "anspricht" (dies ist kaum mit Samples zu lösen, da die Triggertechnik nicht sehr Ausdrucksstark ist)

    Ich glaube ich kann Dir nicht ganz folgen. Als Alternative zur Multi-Sample-Technik sind mir nur die heutzutage so genannten "Modeling"-Verfahren bekannt, die im Gegensatz zu gut angelegten und angetriggerten Multisamples eher unnatürliche Maschinengewährsounds produzieren, als das sie "ausdrucksstark" daher kommen. Daran gibt es grundsätzlich nichts auszusetzen, wenn es jemanden gefällt. Aber darin sehe ich kein Vorteil zur Multisample-Technik, ganz im Gegenteil.


    Gruss.

    Hi Trommeltotti,


    war ein paar Tage unterwegs, daher die späte Antwort. Freut mich, wenn Du mit meinem Beitrag etwas anfangen konntest. Die 2ms sind sicher kein in Beton gegossener Wert. Aber ein doch sehr gängiger Wert, der Hersteller- und Padtyp übergreifend meistens passt.


    Mit dem Megadrummodul habe ich mich noch gar nicht beschäftigt, finde aber den DIY Ansatz gut und man kann hoffen, dass ein unter idealistischen Gesichtspunkten entstandenes Gerät nicht so viele Millisekunden vertrödelt, wie das aktuelle Module von großen Konzernen tun.


    Ich kann auch verstehen, dass man den aktuellen Stand der (Rechner-)Technik nutzen möchte und berechtigterweise den Anspruch erhebt, diese Technik ohne große Nachteile (Latenz) nutzen zu können. Habe ja selbst BFD auf dem Rechner.


    Es ist nicht so kompliziert, das DDrum3 mit Multisamples zu füttern und diese dann zu verknüpfen. Es ist halt nur zeitraubende Arbeit, weil man bestimmte Einstellungen x-mal für verschiedene Samples wiederholen muss. Hat halt ein bisschen was von Ameisen tätowieren ;)
    Und natürlich hat auch das DDrum3 seine klaren Grenzen, z.B. keine Cymbalpads. Daher beschränkt sich die Nutzung von externen Musltisamples auf die Trommeln. Für die Cymabls nehme ich immer noch das DDrum4. Das ist nicht verkehrt und die Werkssounds sind sehr gut, nix Maschinengewähr, etc., aber man hat halt nicht die Auswahl von externer Software.


    Du würdest wohl drei Module benötigen, die 10 Triggereingänge pro Modul sind Monoeingänge (ausgenommen Hi-Hat DD4: Stereo) :) Zwar mit positional sensing (8 definierte Zonen pro Pad) und Pressure-Sensing (Steuerung vieler Parameter wie Tonhöhe, Decay, Attack, etc. durch Druck aufs Fell), aber eben keine seperaten unabhängigen Stereo-Trigger.


    Für mich ist die Kombi immer noch die beste, um gute Multisamples naturgetreu zu spielen, ohne dabei Latenz- und Triggerproblemen ausgesetzt zu sein. Da gibt's, so traurig das ist, keine Alternative zu dem vor 17 Jahren(!) auf den Markt erschienenden Gerät!


    FSR-Folie für die Beckenpads zu nehmen, ist eine gute Idee, da stimme ich Dir voll zu. Denn damit hätte man den typischen Zonenbrei eleminiert und keine Übersprechprobleme, die bei Beckenpads ja echt nerven können.


    Ich bin recht froh, dass man zumindest bei BFD Zugriff auf die wav files hat. Bei Toontrack ja leider nicht, wie ich jetzt auch weiß. Weiß jemand, wie es da bei anderen Softwarepaketen aussieht?


    Was mir bei den Soft-Drum-Dingern fehlt, sind die verschiedenen Zonen. Bei BFD sind es gerade mal zwei bei einigen Snares. Auf den Toms nur eine Zone. Da könnte ich mehr gebrauchen für die 8 Zonen des DDrums. Man kann beim DDrum3 auch ein Crossfade von zwei Samples über die 8 Zonen machen. Das werde ich mal bei einigen Sounds ersatzweise probieren, da leider nicht genug Zonensamples vorhanden sind.


    Aber halte uns bitte auf dem Laufenden, wenn Du Fortschritte, bzw. neue Erkenntnisse bei Deinem PC-E-Drumprojekt hast. Interessiert mich, wie weit man dort bezüglich Latenz kommt.


    Viele Grüsse :)


    PS: Wolle: Ja, wäre schön, wenn Du das wirklich mal schaffen würdest, das SDX zu messen.

    Dazu sollte man aber ganz klar erklären, dass es zur Zeit gar kein kommerzielles Trigger-Interface am Markt gibt welches ohne wesentliche Verzögerungen beim umwandeln der Trigger-Signale in Midi-Steuerbefehle arbeiten kann. Denn auch die DDrum Module sind im Grunde genommen keine reinen Trigger-Interfaces und waren ja wohl auch seinerzeit gar nicht dafür konzipiert. (nebenbei sei auch bemerkt, dass auch diese Module nicht genügend Trigger-Eingänge für ein ausgewachsenes E-Setup zur Verfügung stellen)


    Überhaupt kann man nach meiner Meinung an diesem Punkt sehr deutlich erkennen, wie unausgereift grundsätzlich diese simple Piezo Trigger-Technik ist! In den ROLAND Geräten ist die eingebaute deutliche Verzögerung von etwa 4ms nämlich sicherlich nicht ohne Grund erfolgt! Die Entwickler von ROLAND haben darin scheinbar die einzige Lösung gesehen, dass Schwingungsverhalten speziell von Meshpads und die damit verbundenen Problemen mit der Ausgabe von exakten Velocity-Werten bei einer schnellen Schlagabfolge auf dem Pad, als Midi-Steuerbefehle korrekt an dem Midi-Out Port zu senden. Mit diesem Problem haben alle Trigger Konverter zu kämpfen! Auch das nicht kommerzielle MD Modul.


    Mit Deiner Vermutung bezüglich Roland und den notwendigen 4ms liegst Du vermutlich eher falsch. Die Scan-Zeit im Rolandmodul beträgt per default 2ms. Dieser Wert kommt nicht von ungefähr, sondern war schon vor 20 Jahren ein gängiger Wert, der erforderlich ist, bis der Peak des Triggersignals eintrifft. Erst dann wird der Dynamikwert bestimmt. Die 2ms werden übrigens auch im Simmons ADT immer von der Learn-Funktion automatisch ermittelt, die die Hüllkurve des Triggersignals abtastet und den Zeitpunkt des Peaks dabei ebenfalls ermittelt. Die 4ms des Rolandmoduls sind für mich eher ein Produkt aus geringer Rechenleistung des Prozessors und der Hardware-Architektur, wo eine CPU alles übernimmt. Wenn es Dich interessiert, kannst Du ja mal etwas im VDrum-Forum lesen, dort wurden Tests gemacht, die gezeigt haben, dass die Latenzwerte davon abhängig sind, ob und wie die internen Effekte genutzt werden. Hat also nichts damit zu tun, dass man solange brauchen würde, um ein Triggersignal anständig abzutasten.


    Die DDrum Module sind ja der Beweis. Etwa 2ms werden benötigt, bis der Peak eintrifft. Und 0,4 ms später schmeißt das DDrum4 bereits das Audiosignal raus. Macht eine Gesamtlatenz von 2,4ms, wovon 2ms ja fürs Scannen des Triggers draufgeht. Egal ob Fell-Pad, Mesh Pad, Triggerpickup am A-Set, mit Händen gespielt, etc.


    Klar waren die DDrum-Module keine reinen Triggermodule. Trotzdem kenne ich kein Triggerinterface, was die Qualitäten und die Geschwindigkeit bietet, wenn man das DDrum eben nur als reines Triggerinterface einsetzt, was man ja machen kann ;) . Gute 2ms, mehr darf ein gescheites Interface nicht brauchen bis das Signal per MIDI oder USB zur Verfügung steht. Wenn DDrum das vor 15 Jahren konnte, dann würde ich heute nix kaufen, was zwei- bis dreimal so lange braucht.


    Ja, das DDrum hat nur 10 Triggereingänge. Daher habe ich auch zwei Module. Ist mir lieber als ein Modul, was sich immer viel Zeit läßt beim Triggern ;)



    Also ich finde das ja bemerkenswert, kann mir aber überhaupt nicht vorstellen wie das funktionieren soll. ?( Die einigermaßen gut vorhandene Lebendigkeit und Ausdrucksstärke der großen Drum Libraries wie bfd und SD beim Echtzeit-Triggering (jedenfalls im Vergleich zu herkömmlichen Modulsounds) funktioniert nur deswegen, weil hunderte bis gar tausende einzelne Samples - teils mit aufwändigen Algorithmen geschickt innerhalb einer Software Applikation gesteuert - in Echtzeit entsprechend "abgefeuert" werden. Dazu sind auch die DDrum Module gar nicht in der Lage, weil sie allein schon gar nicht die entsprechende Software laden können. Geschweige denn davon das sie genügend Festplatten Kapazitäten und Arbeitsspeicher aufweisen können. Ich weiß ja nicht wie das beim bfd ist. Aber die Toontrack Samples sind in einem speziellen Kompressionsverfahren auf der Disc abgelegt, damit diese innerhalb der Toontrack Software schneller in ein Setup "eingelesen" werden können. Wie kann man denn bei den DDrum Modulen bfd Samples einlesen? Das wäre mir neu! Ich lasse mich da aber gerne auch eines besseren belehren.


    Es kommt drauf an. Die Software-Schmieden werben ja gerne mit den vielen vielen Gigabytes, die notwendig sind, damit es eine gut und realistisch klingende Library ist.
    Wie kommen denn die vielen Gigabytes zustande?


    Bei BFD kann man das ganz gut sehen, da die Samples nicht im proprietären Format abgelegt sind. Es handelt sich dabei um ganz normale wav files. Eine wav Datei hat allerdings 11 Kanäle. Das können nicht alle Editoren öffnen. Mit SoundForge geht es zum Beispiel. In der Regel ist der 11. Kanal das eigentliche dry signal (direkt abgenommen). Die anderen Kanäle sind zusätzliche Signalanteile von anderen Mikros (Raummikros, etc.). So kommt z.B. beim Snareschlag auch der Anteil, der über die anderen Mikros (Kick,Toms,OH,Room,etc.) geht, mit in das Sample. Das bedeutet, dass das eigentliche Dry-Sample nur 10% der Dateigröße ausmacht. Die Samples haben auch extrem lange Ausklangphasen. Zum Teil mit einigen Sekunden am Ende, die sich im Bereich -60dB abspielen! Bei der Installation der Sounds hat man ja auch noch die Wahl, wieviel Velocity-Layer man haben möchte. Wenn man dann einen Snaresound hat, der 1GB belegt, man das Dry-Signal rauszieht, ab -50dB mit z.B. 0,5s ausfadet, von 24 auf 16bit runterrechnet und sich sinnvolle Abstufungen bei den Multisamples raussucht, dann bleiben von dem Gigabyte schnell nur noch z.B. 10MB übrig!


    Jetzt ist natürlich die Frage, worum es geht. Geht es


    a) darum realistisch klingende Dry-Kits zu haben, die sich nicht nach E-Drums anhören, sondern nach Akustik-Set ohne Maschinengewähreffekt? Und man möchte eigene (Hall-)Effekte rauflegen?


    Oder geht es zusätzlich


    b) darum, dass man die volle Flexibilität beim Mix aus dem Hall des Originalaufnahmeraums hat und man auf Knopfdruck zwischen verschiedenen Raummikroentfernungen umschalten kann und den Signalanteil über die "Fremdmikros" stufenlos kontrollieren kann?


    Mir geht es hier ganz klar um a) ! Das wollte ich nochmal erwähnen bevor man aneinander vorbei redet :)
    Wenn es um b) geht, wird man mit einem DDrum sicher nicht glücklich und muss auf (latenzbehaftete) Software setzen.


    Zu Deiner Frage: Die Multisamples lassen sich per MIDI (langsam) oder sehr flott per SCSI ins DDrum3 laden. Dort können sie dann den verschiedenen Velocity-Layern und den verschiedenen Zone-Layern (positional sensing) zugeordnet werden.


    Nach viel rumprobieren bin ich für mich zu dem Schluss gekommen, dass absolut keine unzähligen Velocity-Multisamples erforderlich sind, um ein echt klingendes System zu haben. Wichtig ist vielmehr, dass intelligente Algorithmen dafür sorgen, wie die Samples abgespielt werden. Dazu gehört eine anständige Intervallkontrolle und Filter, die sich in Abhängigkeit von Dynamik-, Spielposition, etc. steuern lassen, eine sensible Dynamikumsetzung (die oft genannten 1000 Stufen des DDrums vs. 127 MIDI/Roland/PC/etc.). Und das ganze beherscht das DDrum sehr gut. Nachdem ich einige BFD Kits ins DDrum3 importiert hatte, viel Zeit mit der Erstellung und Verknüpfung der einzelnen Samples verbracht habe, hat es sehr viel mehr Spaß gemacht, die guten Sounds ohne fühlbare Verzögerung direkt anzuspielen. Rückschritte bei der Echtheit, Dynamik, etc. empfinde ich nicht. Auch wenns keine 100 Samples pro Trommel sind :) . Man hat halt nur nicht die ganzen Mix-Spielereien von BFD. Aber mit insgesamt 14 Einzelausgängen kann ich ausreichend differenziert mixen :)


    Für mich bietet das DDrum zurzeit immer noch die beste Variante, gute Multisamples (z.B. BFD) mit robuster und flinker Triggertechnik verzögerungsfrei zu spielen. Und zwar so, dass es wirklich zuverlässig funktioniert. BFD verschluckt z.B. bei mir aufm PC gerne mal ein paar Schläge. Zwar selten, aber es kommt vor.


    Dazu zähle ich:


    • Eine völlige Neuentwicklung der Trigger-Technik die ohne diese simplen Piezo Abnehmer funktioniert! Diese muss genauso unkompliziert und Herstellerunabhängig auf jede erdenkliche Trommel zu montieren sein, wie ein normaler Fellwechsel auf einem A-Set. E-Drum Pads sind IMHO eigentlich überflüssig! (Ausnahme: Platzsparende FX-Pads wie etwa Tubes usw.)
    • Ein neues Übertragungsprotokoll muss eingeführt werden.
    • Auch bei den Cymbals muss gelten: Weck mit diesen simplen Piezos! Aus Lautstärke Gründen kann man aber hierbei wohl nicht auf eine Neukonstruktion von Pads verzichten. Diese sollten dann aber auch gleich entsprechendes Äußere aufweisen wie A-Cymbals.
    • Leistungsfähige Hardware möglichst ohne bewegende Teile in einem Gerät , die neben den Computer Komponenten sowohl die Trigger-Technik enthält, wie auch die (Multi) Wandler-Technik.
    • Ein neues kleines und schnelles Betriebssystem mit eigener Audio-Treiber Architektur muss her, welches auf nutzen von VST Instrumenten in Echtzeit abgestimmt und optimiert ist.
    • Das Gehäuse sollte wahlweise als 19" Bauform für den Bühnenbetrieb und als Standalone Bauform für den Haus/Studio Gebrauch vorliegen.
    • Entsprechende Drehpotis, Fader und Transporttaster usw. und gegebenenfalls ein Touchscreen Monitor zum steuern sämtlicher Funktionen muss vorhanden sein.


    Simmons hat damals die FSR-Folie eingeführt. Vorteil gegenüber Piezos: Absolut kein Crosstalk, da direkt die Kraft des Anschlags abgenommen wurde. Damit sollte sich auch der Aufwand bei der Triggerauswertung reduzieren. Wer ein Simmons SDX hat, kann ja mal eine Latenzmessung durchführen. Würde mich brennend interessieren!
    Die DrumKATs haben glaube ich auch mit FSR Folie gearbeitet. Aber heute will ja jeder Mesh-Heads. Und auch wenn man die 2ms bei der Triggerverarbeitung noch reduzieren kann, bringt das nicht viel, wenn der Weg bis zur Audioausgabe am Rechner dahinter nochmal über 10ms verschlingt :)


    Ja, ein schlankes und dafür optimiertes Betriebssystem müsste her. Dass wiederum braucht natürlich auch eine passende Software. Das ganze müsste natürlich perfekt mit dafür selektierter PC-Hardware zusammenspielen und beides aufeinander abgestimmt sein. Dazu noch ein bühnentaugliches Gehäuse ..... . Und schon sind wir wieder weg vom PC und hin zu einer optimal abgestimmten Hardware-Lösung ;)


    Gruss.