dfh superior 2.0

  • PCI ist auf jeden Fall die beste Alternative, allerdings dürfte das mit einem Laptop schwierig werden. Eine Alternative wäre für Dich für den Probenraum ein selbst zusammengebastelter "Mini"-Pc, soll heißen einen Dual-Core mit über 2 GHZ, 4GB Ram, eine SATA-Festplatte, Onboard-Grafik, eine gute nicht überdimensionierte Soundkarte (z.B. M-Audio Delta Audiophile), das ganze bleibt inkl. Maus und Tastatur unter 500 Euro. Nimm noch die Idee vom Eisi auf und benutzr einen Touchscreen, dann bist Du auch unabhängig von den Eingabegeräten, wie MAus und Tastatur. Und wenn Du das ganze noch schön in ein Case integrierst, bist Du auf einmal auch wieder mobil. Die ganze Geschichte mit einem Laptop wird teuer, wenn man genau diesen noch genau dafür kaufen muss.
    Firewire vs. USB...dieses Thema wurde schon mal in einem anderen Thread diskutiert, ich persönlich spreche aus Erfahrung, mein Laptop hat einen DualCore mit 1,8GHz und 2 GB Ram und da war es mit dem USB-Teilchen nicht so dolle, USB kann Leistungsspitzen nicht so gut wegstecken wie Firewire.

  • Ich versuche zu verstehen, ob in diesem Fall der Flaschenhals beim Midi-Input liegt (kann ja eigentlich nicht, da ja bloß ein paar Daten übertragen werden) - oder eben beim Sound-Output. Oder ob eben doch alles mit der Rechenleistung für SD2.0 steht und fällt. Leider kann ich die Komponenten, bzw. deren Zusammenspiel nirgendwo testen...


    Tja, das ist wahrscheinlich leider nicht so einfach zu bestimmen. Grundsätzlich sind die zu übertragenden Midi Datenmengen erst einmal für heutige Schnittstellen als "Witz" zu betrachten. Ein einigermaßen solides Midi-Interface vorausgesetzt und die Midi-Datenübertragung sollte eigentlich ohne große Verzögerung von Statten gehen. Leider beginnt das Problem schon an den meisten Derzeit erhältlichen Sound/Drum-to-Midi Modulen am Markt. Ich habe z.B. bei meinem TD-8 festgestellt, dass schon alleine das Modul eine gewisse Zeit benötigt um die Trigger-Signale in Midi Befehle umzuwandeln und es damit schon am Midi Out zu Verzögerungen kommen kann. Mein Alesis Trigger I/O mit seinem vermeintlichen "modernen" USB Anschluss ist da leider auch nicht viel schneller. (ca. 4-5ms Latenz) Das summiert sich dann in der Summe mit den PC Latenzen doch schon ganz schön zusammen. Daher habe ich mich vor mittlerweile fast vier Jahren dazu entschlossen, mal tief in die Tasche zu greifen und ein wirklich professionelles Audio-Interface zu kaufen (RME Multiface) welches im ASIO Betrieb unter WinXP wirklich sehr smarte Latenzwerte im praktischen Betrieb aufweisen kann. (bis zu 0,7ms bei 32 Buffer Size) Die Multiface Karte benutzt noch die PCI Schnittstelle, welche für kleinste Latenzwerte wohl immer noch die beste Lösung darstellen soll. Ein USB Audio-Interface im Zusammenhang mit zeitkritischen Percussiven Instrumenten im Echtzeitbetrieb würde ich auch nicht empfehlen wollen. Nun, dass RME Interface war nicht gerade billig, ich habe aber die hohe Investition nie bereut. (Treiber Support vom feinsten!) CPU-Seitig bist Du mit heutigen Dual-Core Einheiten wie etwa dem E5200mit 2500MHz absolut im grünen Bereich. Speicher ist momentan "Spottbillig" da können es durchaus 4GB sein! (Vorsicht ein WinXP 32bit BS unterstützt keine 4GB Ram) macht aber nix bei den Preisen gehen halt ca. 800MB Ram verloren.


    Gruß
    Trommeltotti


    Ups: mc.man war schneller! Sorry

    Einmal editiert, zuletzt von trommeltotti ()

  • So. Jetzt habe ich mich doch tatsächlich mal wieder mit Windowsmaschinen auseinandersetzen müssen (Bin seit fast 25 Jahren Mac-User...).


    Danke für die Hinweise Trommeltotti und mc.man. Laptop war zum Glück nie geplant. Und ein Monitor ist vorhanden. Portabel muss die Sache nicht sein. Nur funktionieren.


    Folgendes habe ich jetzt auf dem Schirm: nen Core2Duo E7400, 2.8Ghz. Und eine M-Audio Delta Audiophile 2496 PCI-Karte. RAM muss ich sehen - 2 oder 4 GB. Das System würde damit immer noch unter 450,00 EUR bleiben. Was ziemlich cool ist - bei dem "Gegenwert".


    Noch Einwände? Anmerkungen? Wie ist denn die Konfiguration bei Euch, die Ihr SD2.0 schon einsetzt?

  • Auf meiner Feststation habe ich einen AMD 5000+ (2,6 GHz) mit 2 GB Ram und einer M-Audio Delta 2496 PCI-Karte. Damit geht S.2.0 richtig flüssig und läßt noch Spielraum für andere Anwendungen.
    Auf meinem Laptop (s.o.) ist die Konfiguration grenzwertig, das liegt aber daran, dass ich eben Firewire und keine PCI-Karte nutze. Lasse ich nur Cubase mit S.20 laufen funktioniert es einwandfrei. Der "Preis" dafür war, dass ich Vista heruntergeschmissen und XP installiert habe...Mit den von Dir angegebenen Daten sollte also alles laufen.
    Noch ein Tipp, nimm das kleinste Gehäuse in das Du die Hardware hineinbekommst, damit läßt Du Dir die Chance auf Mobilität. S2.0 ist absolut bühnentauglich!


    Übrigens, S2.0 läuft auch auf Deinem Mac!

  • mac.man, Danke, jetzt freue ich mich noch mehr auf mein "Sound-upgrade". Kann's kaum erwarten auf "Bestellen" zu klicken. Muss nur leider noch den nächsten Gehaltseingang abwarten 8|


    Auf/mit meinem Mac-System muss ich arbeiten. Den schleppe ich also nicht immer ans Schlagzeug und wieder zurück... Und zwar glaube ich sofort, dass SD absolut bühnentauglich ist - allein: ICH bin es noch nicht. :whistling: Aber ich arbeite dran.

  • Die Frage tauchte weiter vorne im Thread auf. Ich sehe da eine ganz einfache Lösung, für den Fall, dass der Host keinen Klick anbietet:
    Ein Miniminimischpult. Und einfach den Klick aus dem Drummodul oder aus dem Metronom im Mischer mit dem Sound aus dem PC verheiraten und dann aus dem Mischer in Kopfhörer oder Anlage gehen.

  • Hallo Alex,
    auf http://www.toontrack.com - bei den Produktbeschreibungen und im Supportforum gibt es einige ausführliche Erklärungen dazu. Ganz kurz gesprochen bietet Superior Drummer noch aufwendiger produzierte Kits, wesentlich mehr Einstellmöglichkeiten für den Sound und eine andere/bessere Engine, die bei den Superior-Kits zum Beispiel für das Durchreihen der Samples sorgt. Grundsätzlich lassen sich aber alle Kits und Erweiterungen aus EZDrummer auch in SD2.0 spielen.

  • Ich nutze zurzeit den EZdrummer zusammen mit Toontrack solo, meinem Laptop und einer Echo Indigo DJ PCMCIA-Karte. Bis auf die Hihat klappt alles gut, bei der Hihat muss ich, um closed hinzubekommen, halt feste auftreten... :rolleyes:


    Ich hoffe, ich hab es nicht überlesen, meine Frage in diesem Zusammenhang wäre, welche Vorteile superior 2.0 ggü der Verbindung EZdrummer und toontr. solo hat.


    Vielen Dank für die Antworten


    Gruß
    Alex

  • sopcak:


    probier mal, bei den Hihat-Settings (Trigger -> Hihat) des TD20 den CC-Max-Wert auf 90 statt 127 zu stellen. Alternativ dazu kannst du den maximalen Midi-Wert für die getretene Hihat runtersetzen: Setup -> F1 (Midi) -> F3 (Ctrl) -> HH Note Border runtersetzen

  • Hallo,
    .
    hab mal weil das Booten des Notebooks zu lange gedauert hat, die Kopfhörer am Modul angeschlossen....großer Fehler!!!
    Die Sound vom TD6 sind einfach unterirdisch, das fällt vor allem bei der Snare auf
    (Ich muss gestehen bevor ich Superior 2 einsetzte war ich eigentlich ganz zufrieden mit dem TD6),
    dass man sowas überhaupt verkauft.... Roland sollte sich schämen im hinblick darauf was überhaupt möglich ist.
    .
    .
    Naja so viel dazu, ich wollte mich erkundigen ob jemand schon Ehrfahrung mit den Expansion Packs von Superior 2 hatte.
    lg TD6

    Ich editiere zu viellll :D

  • ...(Ich muss gestehen bevor ich Superior 2 einsetzte war ich eigentlich ganz zufrieden mit dem TD6),
    dass man sowas überhaupt verkauft.... Roland sollte sich schämen im hinblick darauf was überhaupt möglich ist...


    Hallo TD6 (im Zusammenhang mit Deinem Post hier ein wirklich schöner User-Name :D )


    Das ist doch Derzeit die große Problematik im E-Drum Sektor. Ich denke für viele klingen Heutige Modul-Sounds nur deswegen noch gut, weil sie bisher überhaupt noch keine konkreten Vergleichsmöglichkeiten mit virtuellen Instrumenten zur Verfügung hatten. Hätten sie diese, würden sie mit ziemlicher Wahrscheinlichkeit nie wieder Modul-Sounds nutzen wollen. Und warum das Ganze? Weil eben virtuelle Klangerzeugunger leider noch nicht in der Lage sind sofort auf Knopfdruck die Klänge zuverlässig und unkompliziert reproduzieren zu können. Siehe: "... weil das Booten des Notebooks zu lange gedauert hat ..." So lange dieser Umstand so bestehen bleibt, reiben sich Firmen wie mit dem großem "R" genüsslich die Hände, weil Sie dadurch weiterhin mangels unkomplizierter Alternativen Ihr "Uralt" Equipment für extrem überhöhte Preise weiterverkaufen können.


    Die Audio Beispiele der neuen Expansion Packs von Toontrack haben mich jetzt nicht so wirklich überzeugt. Das sind aber auch nur Beispiel Clips und könnten einen verfälschten Eindruck vermitteln.


    Gruß
    Trommeltotti

    Einmal editiert, zuletzt von trommeltotti ()

  • Das neue expansion pack hat schon geile sounds. Unbedingt haben muss man es sicherlich nicht. Will man allerdings eine große palette von sounds, für studio oder so, dann lohnt sich das absolut ! Da gibt es z.b eine 26er bassdrum die ist sowas von geil und fett, sowas fehlte mir noch. Eine sache die mir nach wie vor fürchterlich auf den sack geht, ist dass toontrack es nicht gebacken bekommt head- und rimshots separat zu trennen. Es gibt zwar separate rimshots bei allen snares, das sind dann aber solche die mit den ersten 10cm des sticks gespielt worden sind (so klingt es jedenfalls), also mehr "effekt-rimshots". Für einen knackigen backbeat ist das schrott. Knackige "backbeat-rimshots" kommen wenn man normal mit voller anschlagstärke normal aufs fell drischt (ohne den rim zu treffen). Für den edrumbetrieb ist das ziemlich nervig. Ein paar wenige snare sind aber zu gebrauchen was mein "problem" betrifft.

  • Eine sache die mir nach wie vor fürchterlich auf den sack geht, ist dass toontrack es nicht gebacken bekommt head- und rimshots separat zu trennen. Es gibt zwar separate rimshots bei allen snares, das sind dann aber solche die mit den ersten 10cm des sticks gespielt worden sind (so klingt es jedenfalls), also mehr "effekt-rimshots". Für einen knackigen backbeat ist das schrott. Knackige "backbeat-rimshots" kommen wenn man normal mit voller anschlagstärke normal aufs fell drischt (ohne den rim zu treffen). Für den edrumbetrieb ist das ziemlich nervig. Ein paar wenige snare sind aber zu gebrauchen was mein "problem" betrifft.


    Dem darf ich absolut zustimmen. Hier sollten sich die Hersteller von realen Drumsounds noch einmal ausgiebiger mit den möglichen Anschlagtechniken insbesondere der Snaredrum beschäftigen.


    Wie Buddy Poor hier schon treffend zum Ausdruck gebracht hat, ist ein Rimshot nicht gleich ein Rimshot Anschlag. Toontrack hat zwar schon bei einigen Snaredrum Instrumenten eine weitere Artikulation mit der Bezeichnung "Rims Only" implementiert, hat es aber noch nicht geschafft eine wirkliche überzeugende Lösung anbieten zu können.


    In der anologen Praxis sieht das nämlich so aus:


    Schlage ich mit normaler "Hit" Stockhaltung nur auf dem Spannreifen erklingt ein dünner und metallischer Grundsound. (Bitte nicht verwechseln mit einem "Sidestick" Anschlag bei aufgelegten Stick auf der Snaredrum) Das entspräche der Artikulation "Rims Only". Um so mehr ich dabei aber gleichzeitig das eigentliche Fell mit anschlage erhöht sich der Anteil des Kesselsounds der Trommel. Insbesondere wenn ich dabei gezielt die Fellmitte treffe erhalte ich den erwünschten fetten "Backbeat" Sound auf der Snaredrum. Eben ein richtigen Rimshot Sound.


    Allerdings liegt das Problem wohl eher in der Derzeitigen Triggertechnik die diese Nuancen leider noch nicht umsetzen können. Im Grunde genommen müsste ein TMC-Interface registrieren können wie ich den Rimshot geschlagen habe. Das Heist: Erst einmal muss das Interface erkennen können ob ich gleichzeitig mit meinem Stick den Spannreifen und das Schlagfell treffe und ganz wie in der analogen Welt ein Rimshot Sound auslösen und zwar mit Zuhilfenahme der Anschlagstärke und Position-Erkennung der Fellschlagfläche. Das Geheimnis eines Rimshots besteht ja eigentlich darin, dass da zwei Sounds gemischt werden. (Spannreifen und Fellsound und je nachdem an welcher Position ich das Fell dabei treffe) So gesehen müsste eigentlich das Interface zwei gleichzeitige Midi-Noten mit Anschlagwerten und CC Controller-Daten senden und die Software diese intelligent auswerten können. Also quasi je nach Anschlagtechnik die entsprechenden Sounds geschickt in Echtzeit mischen.


    Noch komplizierter wird es wenn das Interface erkennen soll wenn ich mit aufgelegten Stick einen "Sidestick" Sound am Spannreifen auslösen möchte. Bisher wird das ja ganz primitiv und absolut unbefriedigend an den Pads/Modulen gelöst: Schlage ich den Spannreifen an wird bis zu einer gewissen Anschlagstärke ein Sidestick Sound erzeugt und bei höheren Velocity-Werten eben ein Rimshot Sound obwohl ich das Fell dabei gar nicht gleichzeitig mit anschlage. Das entspricht natürlich überhaupt nicht der realen Welt. Ändern wird man das wohl nur können, wenn es zu einem entscheidenden Entwicklungsschub der Triggertechnik kommen sollte.


    Gruß
    Trommeltotti

  • Deswegen sollte man imho so etwas auch nicht über dieses antiquierte serielle 8-bit Midi Protokoll lösen.
    Die komplette Architektur von Midi ist nicht mehr zeitgemäss. Hinsichtlich Timing sogar eine Katastrophe!
    Wollte man besagte Funktionen über das Midiprotokoll unter Zuhilfenahme von Controllerbefehlen realisieren, ist der Timing Gau schon sicher!
    Den hat man ja jetzt schon! Und die ganze Problematik der Limitierung der Midiauflösung auf nur 128 Stufen (defacto in der Realitiät auch noch weniger) noch aussen vorgelassen...
    Ein neues Protokoll muss her, schneller getaktet mit grösserer Wortbreite und schon wären viele Drummerrelevante Optionen verfügbar.
    Aber ich befürchte, da wird sich in naher Zukunft nichts tun, da die meisten Edrum-Hersteller tatsächlich einzig und allein auf das Midi Protokoll setzen ;(

    Einmal editiert, zuletzt von drumdidi ()

  • Deswegen sollte man imho so etwas auch nicht über dieses antiquierte serielle 8-bit Midi Protokoll lösen.
    Die komplette Architektur von Midi ist nicht mehr zeitgemäss. Hinsichtlich Timing sogar eine Katastrophe!
    Wollte man besagte Funktionen über das Midiprotokoll unter Zuhilfenahme von Controllerbefehlen realisieren, ist der Timing Gau schon sicher!
    Den hat man ja jetzt schon! Und die ganze Problematik der Limitierung der Midiauflösung auf nur 128 Stufen (defacto in der Realitiät auch noch weniger) noch aussen vorgelassen...


    Nur mal kurz zum Thema Midi. Ich weiß nicht welche Timing-Probleme du hast. :?: Mit Midi kannst du gleichzeitig 16 Kanäle und Multi-Instrumente mit geringster Latenz (Latenz = Übertragungsweg) verarbeiten. Daher verstehe ich dein Timing-Problem bei nur nur einem Multi-Instrument überhaupt nicht. Wenn es Latenzen gibt, hat das nichts mit dem Midi-Protokoll zu tun, denn der Übertragungsweg ist für alle Protokolle gleich. Es gibt einfache Lösungen wie man vorhandene Midi-Latenzen minimieren kann. Thema 128 Abstufungen; Was hält einem davon ab CC-Werte in Kombination zu verarbeiten? Dafür gibt es ebenfalls schon Beispiele. Somit wären um ein vielfaches an Abstufungen möglich.


    Gruß Ruby

  • Hi drummdidi,
    ich habe eben mal auf Deine "myspace"-Seite geschaut und war echt überrascht!
    1. Ich habe noch nie etwas von Dir gehört... sorry.
    2. Du spielst tatsächlich mit dem Hammerbassisten zusammen, der in den letzten
    Jahren auf der Musikmesse immer mit einer Funkband aufgetreten ist. Boah.... der ist ja
    echt klasse der Junge!
    Fragst Du ihn bitte mal, ob er sich clonen lässt?
    Gruß Kathar


    Das liegt wohl in der Natur der Sache ;)


    Das liegt wohl in der Natur der Sache


    Das liegt wohl in der Natur der Sache

  • Zitat

    Hallo TD6 (im Zusammenhang mit Deinem Post hier ein wirklich schöner User-Name )


    Wie heißt es so schön "Namen sind Schall und Rauch" :thumbup: .

    Ich editiere zu viellll :D

  • Nur mal kurz zum Thema Midi. Ich weiß nicht welche Timing-Probleme du hast. Mit Midi kannst du gleichzeitig 16 Kanäle und Multi-Instrumente mit geringster Latenz (Latenz = Übertragungsweg) verarbeiten. Daher verstehe ich dein Timing-Problem bei nur nur einem Multi-Instrument überhaupt nicht. Wenn es Latenzen gibt, hat das nichts mit dem Midi-Protokoll zu tun, denn der Übertragungsweg ist für alle Protokolle gleich. Es gibt einfache Lösungen wie man vorhandene Midi-Latenzen minimieren kann. Thema 128 Abstufungen; Was hält einem davon ab CC-Werte in Kombination zu verarbeiten? Dafür gibt es ebenfalls schon Beispiele. Somit wären um ein vielfaches an Abstufungen möglich.


    Gruß Ruby


    Kennst du die technische Grundlage des Midi Protokolls?


    Die Übertragungsgeschwindigkeit von Midi beträgt 31250 bit/s.
    Klingt ja erst mal viel.
    Jetzt ist es aber so, das ein Byte, also eine Info, die dem Gerät überhaupt sagt, was passieren soll, aus 8 bit besteht.
    31250 /8= 3906 byte/s
    Klingt immer noch viel...
    Willst du aber eine Note nicht nur antriggern, also den Befehl Note on inkl. der Lautstärkeinformation, sondern auch noch zusätzliche Infos über Controller, Aftertouch o.ä. senden, bedeutet das das du mehrere Bytes für einen einzigen Schlag sagen wir Hihat senden musst.
    Da Midi ein serielles Protokoll darstellt, erfolgt die Übertragung für die Note g2=Hihat auf Midikanal 1 hintereinander.
    Sagen wir mal es kommen noch, wie von dir vorgeschlagen, weitere CC Befehle dazu, um eine möglichst feine, nuancierte und Klangmodulierende Sounddarstellung zu ermöglichen.
    Nehmen wir an, dafür werden insgesamt 4 Bytes gesendet.
    Damit können wir feststellen, das vom Anschlag bis zum erklingen des Tons eine Latenz von ca. 1ms rauskäme
    Klingt immer noch gut...
    Dummerweise spielen wir aber nicht alle Noten fein säuberlich auf einer Perlenschnur aufgereit hintereinander.
    Es finden auch Aktionen gleichzeitig statt.
    Ein Drummer hat (gewöhnlich) 2 Hände und 2 Füße und es kommt durchaus vor, das man alle 4 Extremitäten gleichzeitig benutzt.
    Dann besteht zwischen der Aktion, alle 4 Extremitäten schlagen ein Instrument an, und dem letzten erklingenden Schlag schon eine Latenz von 4ms...
    Das klingt schon nicht mehr so gut...
    Sollte auch noch ein Pedal des edrums permanent kontinuierliche Controllerdaten senden (das ddrum Hihat Pedal sendet z.b. kontinuierlich Midi Pressure Daten, um den Druck zu messen, wie fest man das Pedal runterdrückt, um den Sound der Hihat Becken zu modellieren), dann können auch schon mal 5-6ms rauskommen.
    Kommt dann noch der open/close Effekt dazu, kommt es in solchen Situationen schon zu "witzigen" Effekten.


    geringste Latenz sind aber keine 5ms...


    Wenn man jetzt auch noch zur gleichen Zeit nicht nur einen Schlag unisono spielt, sondern mit beiden Händen einen sehr schnellen 32stel Twobeat Roll auf der Snare, dazu Bassdrum + Hihat mit den Füßen, dann kommt es zu Timingveränderungen des ursprünglichen Signals.
    Hab ich hier schon eindrucksvoll hörbar gemacht dadurch, das ich mein Ddrum-Set komplett über Audio aufgenommen hab und gleichzeitig über Midi.
    Ich spreche gar nicht von der Timingverschiebung, die erst mal auch zwischen der Midispur, die ein Soundmodul antriggert, und der Audiospur entsteht.
    Diese generelle Latenz lässt sich ja z.b. durch Korrektur im Miditrack durch leichtes vorziehen korrigieren.
    Ich spreche davon, das schnell gespielte Passagen im Drumtrack tatsächlich über Midi anders klingen als die Audiospur.
    Das Midiprotokoll verurscaht eine Art Auto-Quantisierung der Datenmenge, weil es die Daten seriell hintereinander abarbeiten muss.
    Dies führt zu Verschiebungen innerhalb des gespielten Materials.
    Alles im ms Bereich aber hörbar!
    Dies passiert heute schon unter Einsatz weniger Controller.
    Würde man das Midiformat exzessiv über Kontrollerbefehle nutzen, um Drums realistischer zu modellieren, stösst man sehr schnell auf echte Probleme.


    Ich hoffe, ich schreibe gerade nicht zu wirr, weil ich leider heute Migräne hab und das Nachdenken etwas schwer fällt.
    Aber ich hab in meinem Musikstudium 4 Semester nur Midi pauken müssen, damals sogar noch den ganzen Hexadezimalkram schreiben und eigene softwarebasierete Mdidmixer bauen und Keyboard Arrays zusammenschrauben müssen.
    Da wurde schon Anfang der 90iger permanent auf die Lücken und Mängel des Midi Protokolls hingewiesen und diese auch im Unterricht mit aufwendigen Verschaltungen eindrucksvoll vorgeführt.

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!