Beiträge von phanaton

    Tja, ASIO4ALL erstaunt immer wieder ;).
    Ich kann aber erklären, warum du 48 Samples parallel mit den 64 Samples von ASIO4ALL laufen lassen kannst:
    ASIO4ALL ist ja bekanntlich kein richtiger Treiber, lediglich ein Layer für WDM-Audio, also nutzt es die WDM-Audio-Schnittstelle von RME, und gibt darüber den Sound aus, Das echte ASIO läuft dann direkt über den Treiber von RME, und sollte eigentlich besser sein(gerade bei RME). Hier noch mal die Erklärung vom Entwickler:

    Zitat

    ASIO4ALL is a hardware independent low latency ASIO driver for WDM audio devices. It uses WDM Kernel-Streaming and sometimes even more sophisticated methods to achieve its objectives.


    Das mit REAPER war ja auch eigentlich eher als Test gemeint, das man ein Cubase für 0.5k€ nicht so einfach in den Ruhestand schicken will kann ich verstehen, hier noch mal ein Link für Cubase:
    http://www.cubase.net/phpbb2/v…260d0a064ad07d574c2078d36
    Das mit Cool'n'Quit könnte tatsächlich helfen, aber das bedeutet auch, das der Prozessor immer mit seinem vollem Takt läuft, und dadurch mehr Strom verbraucht...
    Echtzeit-Prioritätsvergabe im Taskmanager kannst du auch mal probieren.


    Bezüglich Prozessor, da gibt es keine Standard-Empfehlung.
    Ich denke ein aktueller i7 mit vielen Kernen, sollte sicher das Optimum rausholen(die viele Kerne, für parallel-Verarbeitung, und daher niedrigere Latenz-Möglichkeit).
    Aber wie gesagt, ich kenn mich mit dem ganzen Low-Level-Kernel-Kram von Windows nicht aus, um da eine allgemeingültige Empfehlung zu geben.



    Gruß
    Philipp

    Naja es hängt leider nicht unbedingt immer an der Hardware, (wie ich eindrucksvoll im Technik-Thread zeigen konnte).
    Das Knacksen deutet eigentlich darauf hin, dass der Prozessor nicht schnell genug Daten an die Soundkarte/interface liefern kann, demnach kann irgendwas im Buffer sein, was dann das Knacksen erzeugt...


    Mit den 48 Samples hast du ziemlich genau eine Latenz von 2ms zwischen den beiden Kanälen, also Gesamtlatenz ca. 6-8ms, ein relativ ordentlicher Wert.


    Zitat

    was könnte man gegen das knacksen unternehmen? oder versuchen es zu unterbinden?


    Unter Windows ist man leider recht unflexibel, was helfen könnte, wäre es irgendwie die Priorität vom VST-Host hochzuschrauben.
    Bei REAPER hätte man sogar die Möglichkeit dem ASIO-Thread Echtzeitpriorität zu geben, viellecht probierst du das mal kurz, REAPER kann man umsonst für 60 Tage testen, wäre auf jeden Fall einen Versuch wert.
    Auch hier unterrichte uns ob es etwas gebracht hat, dann sind wir wieder ein Stück schlauer :)


    Gruß
    Philipp

    Hi, gerade noch mal angeschaut, seltsame Ergebnisse, irgendwie werde ich nicht 100% schlau daraus, teilweise fangen die Wellen gleichzeitig an, manchmal gibts Latenzen von 10ms, aber im Allgemeinen würde ich sagen, dass es 6ms Latenz sind, aber es wird alles ein wenig aussagekräftiger, wenn du mal das ASIO Latency Test Tool verwendest, dazu einfach Eingang mit Ausgang des Interfaces verbinden.


    Was mich allerdings sehr wundert, ist, das dass RME nicht mit 48 Samples vernünftig läuft, RME lobt ja immer ihre 0% CPU ultra-low-latency-sonstwas Technologie zum Himmel...
    Was hast du für einen Unterbau, also PC/Laptop, Prozessor etc.? Vielleicht musst du noch ein wenig mit den Einstellungen rumspielen...
    Es wird ja sicher noch was zwischen 48 und 128 Samples geben...


    Ich frage mich allerdings tatsächlich was du genau erreichen willst, spürst du die Latenz sehr, hörst du einen guten Unterschied zwischen 128 und 48 Samples(mal abgesehen vom Knacken)?


    Gruß
    Philipp

    Zitat von trommeltotti

    Also: Für mich wird Linux erst dann interessant, wenn es das VST-Protokoll vollständig unterstützen sollte und damit in der Lage wäre, gängige VST PlugIns zu laden.


    Leider glaub ich wird da nicht so schnell was passieren, da die Hersteller der VSTs selber auf die Idee kommen müßten.
    VST ist leider vor allem Windows vorbehalten(sieht man ja schon an der Endung der VSTs ".dll")


    Zitat von trommeltotti

    Die intelligente Steuerung der Samples in Echtzeit macht die Würze. Von den immensen virtuellen Mixer Möglichkeiten der ausgewachsenen VST Drum-PlugIns einmal ganz abgesehen.


    Ich behaupte mal, dass da nicht soviel intelligente Steuerung stattfindet.
    Das womit die kommerziellen Sampler punkten können ist vor allem die Sample-Menge, bei gleichzeitig überragender Qualität.
    Das in Software zusammenzumischen ist nicht die große Arbeit, die findet nämlich m.E. eher im Studio statt, bzw. nachher beim Sample zurechtschneiden/rauspicken...
    Auch Sachen wie Bleeding, Kompressor, Eq, ist alles keine Hexenarbeit in Software...


    Klar wenn man noch mehr erreichen möchte, als die Möglichkeiten, die z.B. Superior Drummer derzeit bietet(ich spreche da vor allem die Hihat an), kann das sehr wohl, sehr schnell ziemlich komplex werden.
    Alleine die verschiedenen Stufen der Hihat so überzublenden, dass man da nichts mehr hört, stell ich mir sehr schwer vor...


    Zitat

    Bei diesen sensationellen Werten würde ich glatt danach rufen wollen, dass große etablierte Software Hersteller nunmehr für das ALSA Protokoll eine größere Gewichtung zukommen lassen sollten.


    Das liegt in erster Linie glaub ich nicht mal direkt an ALSA, sondern eher an der Echtzeitfähigkeit des Kernels, welcher gleichzeitig so gut mit der Soundkarte zusammenarbeitet. Die Treiber sind ja schon im Kernel eingebaut, welchen ich genau auf mein System optimiert kompiliert habe...


    Und natürlich, die Software, welche die Sounds reichen muss. Da ist das Programm von jeffg schon ein sehr gutes Beispiel für.
    Aber ich muss sagen ich war selbst sehr überrascht, was da möglich ist(der Entwickler im Übrigen auch).



    Zitat von buff

    Die Messung stimmt schon so. Bei der Snare-Schaltung werden die negativen Wellen ja nicht "hochgeklappt" wie in der anderen Schaltung, sondern bleiben so. Der A/D-Wandler vom TD-12 kann aber offenbar keine negativen Spannungen messen, also wird der Nullpunkt einfach auf ca. 1.65V hoch geschoben (das passiert in der zweiten Hälfte der Snare-Schaltung ab dem "Continue", simulier den Teil vielleicht einfach mal, wenn es nicht klar ist). So passt dann ein komplettes Wechselsignal in den Bereich von 0-3,3V, den der Wandler digitalisieren kann.


    Alles klar das ergibt Sinn.


    Zitat von buff

    ...(was ich noch schlimmer finde) weil jemand sein Wissen nicht weitergeben möchte....


    Das Problem was ich dabei sehe, ist, je mehr wir in den technischen Bereich gehen, desto leichter/größer ist die potenzielle Kopiermöglichkeit, daher, kann dann einfach jemand mit den Erkenntnissen eine neue "Geschäftsdidee" darauf gründen. Das klingt jetzt zwar was hochgesetzt, aber es gibt nicht umsonst Patente, die eben sowas verhindern sollen...
    Ich bin generell auch eher für offen verfügbares Wissen, nur ist das Ganze in der heutigen Zeit ein wertvolles Gut, das man in bestimmten Fällen schützen muss...


    Gerade in diesem Bereich, sehe ich eine Marktlücke, die wenn man es geschickt umsetzt selbst Roland gefährlich werden könnte(man muss schneller als Roland handeln).


    Zitat von buff

    Linux mit Realtime-Kernel hat auf jeden Fall viel Potential, ich hatte selber auch mal vor einiger Zeit damit rumprobiert und kam bei Tests auf einem Atom-Board (lüfterlos) mit Onboard-Soundkarte auf (nachgemessene) 1,3ms Latenz zwischen Eingang des Midi-Signals und der Soundausgabe.


    Sehr schön noch ein Linuxer, die Welt ist ja doch nicht so klein :D . Schön was du schon mit dem Atom-Board erreicht hast, da werde ich ja noch zuversichtlicher mit meinem Vorhaben das mal mit einem Odroid X2 zu probieren.
    Da man ja auch noch einen Quadcore bei dem Odroid x2 hat, und dadurch theoretisch einen kompletten Kern für die Soundausgabe nutzen kann, sollte latenztechnisch vielleicht noch mehr drinnen sein.


    Aber ich glaube das, dass Programm von jeffg, welches ich heute getestet habe schon mehr als ausreicht(2%CPU Last, bei 1 Sample Framesize und 96khz, ich kanns immer noch nicht ganz glauben...).
    Vielleicht willst du es mal damit versuchen. Das Salamander Kit klingt schon recht ordentlich, Qualität vergleichbar mit EzDrummer, nur sehr trockener Sound(die Snare ist der Knüller ;) ).
    Das Ziel was jeffg erreichen möchte, ist ein einfach bedienbarer extrem schneller/effizienter/ressourcensparender Echtzeit-Drumsampler, also eigentlich genau das was wir unter anderem suchen.


    Mein Traum/Ziel ist es ja irgendwie, etwas in Richtung Raspberry Pi/Odroid X2 zum Laufen zu bringen, welches mit einer ADC(Multiplexer)-Leiste die Triggereingänge in entsprechende Informationen verarbeitet, diese dann in Echtzeit entsprechende Samples aus dem RAM picken, und ausgeben. Dazu noch einfach bedienbare Möglichkeiten wie Bleeding oder Effekte(EQ/Kompressor), ähnlich wie in Superior Drummer.
    Und fertig ist der Roland-E-Drum-Modul-Killer.
    Hat jemand Lust in dem Bereich Karriere zu machen? :D


    Wie schon oben mal angedeutet, versuche ich mal in den Semesterferien mein Set mit Samples abzunehmen, selbst wenn ich dabei lange nicht auf die Qualität des Superior Drummer komme, ist das Ganze wie du ja schon meintest, ein guter Erkentnisgewinn. Auch auf das Recording an sich bezogen, da ich, wie ich zugeben muss noch keine Erfahrung in dem Bereich habe...
    Außerdem: Wer kann schon auf seinem E-drum Set sein eigenes akkustisches Set spielen 8) .


    Gruß
    Philipp

    Auch wenn das wieder ein "wenig" OT wird, und eigentlich eher in den E-Technik Thread gehört:


    Zitat

    Genau! Um ein ausgewachsenes VSTi Drumset (etwa Toontrack SD) in einem speziellen Hardware Sampler laden zu können, bedarf es leistungsfähige Komponenten die halt nur mit modernen Computertechniken (bezahlbar) machbar sind.


    Das ist nicht ganz wahr. Um genau zu sein: Was an neuster Technologie benötigt wird, ist eine Menge RAM. Je mehr desto besser, da man entsprechend viele Sample-Abstufungen dort hinein lagern kann.
    Ich denke die Aufgabe des DSPs, nämlich die Samples aus dem Ram holen, bei "bleeding" zusammenmixen und gegebenenfalls ein paar Effekte daraufanzuwenden(EQ, Kompressor, etc.), lässt sich schon mit einem mittelmäßigem FPGA realisieren(sauberste Lösung), oder in Software mit einer der relativ aktuellen ARM-Cores(Cortex A9 z.B.). Aber ein Intel Core i7 ist wahrscheinlich viel zu überdimensioniert(zumindest in Hinsicht der wirtschaftlichen Produktion).
    Ich(bzw. jeffg aus dem Linux-Musicians Forum) hab im Technik-Thread, quasi schon den Beweis geliefert, das es vor allem auf die Software, bzw. den Kernel ankommt, der über die Prioritätsverteilung quasi den Großteil der Latenz bestimmt.(derzeit bei mir 1 Sample buffersize bei 96khz möglich = 0.01ms Latenz)


    Gut genug des technischen Ot-Geschwafels...


    Gruß
    Philipp

    So, noch was neues aus der Linux/Informatik-Szene:


    Hier ist ein relativ frisches neues Sampler-Programm, explizit für Linux und ALSA.
    Das Ganze ist ein Standalone-Programm, welches das Midi-Gerät über den Raw-Modus öffnet, und über eine direkte Verbindung zum ALSA Treiber, die Samples ausgibt.
    Derzeit gibt es leider erst das Salamander Drum-kit dafür. Aber der Entwickler(jeffg) plant ein Tool dafür zu veröffentlichen, mit welchem man eigene Samples dort einbinden kann.


    So nun zu dem Grund warum ich das hier veröffentliche: Ich habe sagenhafte 1 Sample/Frames-size bei 96khz Samplerate hinbekommen, mit fast keinen Störgeräuschen, das sind theoretische 0.01ms Audiolatenz!(natürlich mit RT-Kernel)


    Ich war erst mal fassungslos, als ich das erreicht habe(wie man auch an meinem Post dort merkt :D ). Aber ein paar Messungen haben das Ganze mehr oder weniger bestätigt: 3.3ms Gesamt-Latenz!
    Das will mir mal einer nachmachen ;) .


    Tja es hängt eben doch alles an der Software...
    Von dem Gedanken ein RME zu holen bin ich auf jedenfall erst mal abgebracht worden =) .


    Also an die Linuxer hier: Support für das Programm ist angesagt ;).
    Vielleicht will sich ja mal einer erbarmen, sein akkustisches Set in Samples aufzunehmen(ich weiß ist 'ne Heidenarbeit)
    Ich mach das vielleicht mal in den Semesterferien, falls ich irgendwie an halbwegs vernünftige Mikros komme.


    Gruß
    Philipp

    Zitat

    Was mir ein wenig Kopfzerbrechen bereitet, ist die Frage nach einem neuen Gerät - sprich: wann es auf den Markt kommt?


    Tja ich glaub darauf warten viele... (mich eingenommen)


    Zitat

    ...Entwicklungskosten sehr in einen Bereich emporschnellen können


    Ich glaub bei Roland zählt das Argument nicht mehr wirklich, die haben seit dem TD20 allenfalls ein wenig an der Triggertechnologie gefeilt, ein paar neue Sounds(wahrscheinlich sogar mit der gleichen Soundengine) dazu getan, und ein neues äußerliches Design für das Modul entworfen. Ich behaupte das ist alles nicht sehr viel Entwicklung, und sollte in ein paar TD30 Modulen schon wieder eingenommen sein(bei dem Preis...)


    Klar bei einer neuen Firma, die in dem Bereich anfangen möchte entstehen da wesentlich mehr Enwicklungskosten, da ein Modul von Grund auf neu entworfen werden muss.
    Ich denke bei dem exzessivem Marketing, dass Roland betreibt, trauen sich nicht viele da anzugreifen, oder werden von Roland in eine Enge "gemarktet" (Beispiel 2box)


    Ich denke viele professionelle Musiker, die sich ein wenig in dem Bereich auskennen(VSTi-Sampler etc.) wären schon erstmal mit einem ordentlichem Trigger2MIDI-Gerät zufrieden, wäre also m.E. eine Marktlücke.


    Zitat

    Wäre ich Hobby-Musiker der keine Kohle verdient, hätte ich kein TD10, kein TD20 und erst Recht kein TD30 besessen.


    Tja und ich als Hobbymusiker möchte(geschenkt natürlich schon ;) ) bzw brauche gar kein TD30 Modul, da ich mit VSTis m.E. besseren Sound-Output erreichen kann.


    Wozu allso 4 Gigs komplett in ein TD30 Modul stecken, wenn man mit dem TD20+VSTi bessere Sounds erreichen kann?


    Ein Argument im Livebetrieb für das TD30 ist lediglich die Umständlickeit, die bei der VSTi-Lösung entsteht(Verkablung, starten des Rechners/der Programme) Aber nachdem das alles geschehen ist, sollte es auch keine Probleme mehr geben.
    Ist aber finde ich dennoch ein schlagfertiges Argument.


    Gruß
    Philipp

    Hi buff,


    jetzt bin ich längere Zeit irgendwie nicht dazu gekommen zu schreiben:
    Ich finde es klasse wie viel Engagement du da rein steckst!
    Du baust uns bald noch den Triggerteil eines Rolandmoduls nach... ;) .


    Zitat

    C77 macht ihn zusätzlich zum Tiefpass, und die D7-Dioden sollten ihn darüber hinaus zum Logarithmierer machen.


    Genau das vermute ich auch. Das ist mir schon bei dem Snare-Signal aufgefallen, jetzt hast du es ja quasi schaltungstechnisch bewiesen.


    Ein Logarithmierer ist auch definitiv sinnvoll, dann geht man den Problemen aus dem Weg, die man derzeit teilweise beim Megadrum Modul hat:
    Man muss je nach Stärke des Eingangssignals ein Potentiometer davor setzen, um halbwegs "vernünftige" Dynamikerkennung zu erhalten.


    Zitat

    Das geht dann zwar auf Kosten der Auflösung bei stärkeren Signalen


    Ich glaub das ist noch nicht mal so schlimm, wenn man die (logarithmische) Kurve relativ gut kennt.
    Denn wenn der AD-Wandler halbwegs vernünftig auflöst, kann man das Ganze sehr gut Software-technisch ausgleichen.
    Man hat einfach ein Array mit vielen Werten der Kurve, und wendet dieses dann einfach auf das Eingangssignal an, dann hat man theoretisch wieder das Ausgangsignal, nur digital(und damit weniger Probleme).
    (ist jetzt eher der informatische Teil ;) )


    Kann es sein, dass du bei dieser Messung ausversehen vielleicht die falsche Referenzspannung genommen hast? Mich wundert es irgendwie ein wenig, dass es anscheinend eine Grundspannung gibt.


    Signale (türkis=Signal vom Pad, gelb=Ausgang auf dem 1. und 2. Bild):



    Übrigens, um vielleicht auch noch mal was "beizutragen":
    Ich plane, und versuche derzeit/demnächst, mit "jack audio"(nette API) unter Linux einen DSP-Trigger zu programmieren, um da vielleicht ein paar Erkenntisse der Triggersignalverarbeitung zu sammeln.
    Die Soundkarte löst ja mehr als ausreichend auf(24bit, bei 192khz Samplerate).


    Latenzmäßig sollte auch alles sehr gut gehen, da ich unter Linux unter bestimmten Vorraussetzungen, Buffergrößen von 16 frames/Samples erreichen kann, und das bei einer Samplerate von 48k!
    Linuxsampler, hatte ich dadurch teilweise mit einer Gesamtlatenz von 5ms(!) am Laufen gehabt (ca. 1.6ms Audiolatenz, gemessen).
    Mit einem aufs System optimiertem Realtime Kernel, ist schon einiges möglich was Low-Latency angeht :).


    Leider läuft Superior Drummer nur mit 64 Samples(auch unter Linux). Ist halt für Windows, und nutzt deshalb nicht die möglichen performanten Features unter Linux, bzw. muss über Umwege an Jack geleitet werden(wineasio).


    Naja ich schweife ab...


    Geplant ist es, dass Ganze nachher auf ein "Raspberry Pi" ähnliches device zu bringen(wenn nicht sogar dieses). Dazu möchte ich mir vielleicht demnächst ein odroid x2 besorgen, was mehr als potent, für solche Sachen geeignet seien sollte.


    Aber alles noch etwas fernere Zukunft ;).


    Gruß
    Philipp

    Liegt an den Treibern. Speziell für die Soundkarte/interface angepasste Treiber können der Soundkarte sagen, dass sie alles per Hardware mixen soll(sofern die Soundkarte das unterstützt)
    Das heißt, ein Asio-Host kann neben der normalen Soundausgabe laufen.


    Der ASIO4ALL Treiber ist eigentlich nur ein Layer für die WDM Ausgabe, der den Rest deaktiviert.
    Frag mich bitte jetzt nicht genau wie das alles funktioniert, dazu hab ich mich mit der Windows-Soundausgabe einfach noch nicht genug befasst ;).


    Wenn du's dir leisten kannst und willst, wäre ein RME bezüglich Latenz die erste Wahl (RME Babyface in dem Fall).
    M-Audio z.B. stellt aber auch nicht schlechte Sachen her(ich besitze ja die Audiophile192).


    Musst dich halt mal im Inet umschauen, was so für Low-latency Sachen empfohlen werden.


    Du brauchst bei einem Interface übrigens nicht die interne Soundkarte abschalten, du musst nur beim ASIO-Host den richtigen Treiber nehmen...


    Gruß
    Philipp

    Hi,


    Benutzt du ASIO4ALL?
    Da ist es leider nicht möglich mehr als einen ASIO Host "anzuschließen", und sämtliche anderen Sound-Funktionalitäten funktionieren dannach leider auch nicht mehr.
    Da hilft leider nur eines: Sound-Karte/Interface mit integriertem ASIO-Treiber kaufen, der normale UND ASIO Sounds abkann.


    Dazu zählen eigentlich alle halbwegs vernünftigen Interfaces(EMU404 und Audiophile192 kann ich schon mal bestätigen)


    Falls das keine Möglichkeit ist bei dir, wäre noch eine andere umständliche Möglichkeit das auch mit ASIO4ALL hinzubekommen, nämlich, dass du die MP3-Datei einfach im Sequencer, dem ASIO-Host abspielst...


    Gruß
    Philipp

    Zitat

    Na, wenn das jetzt eine indirekte Aufforderung war, mal das TD-12 aufzuschrauben, dann hat's funktioniert.


    Wars nicht, aber was rausgekommen ist trotzdem genial, und übertrumpft meine Analyse bezüglich Piezosignalverwertung um Weiten :D .


    Man sieht, dass es ähnlich anfängt bei dem Modul, Das Schaltbild von mir kann man übernehmen, also schätze ich mal, dass der Aufbau der Modul-Triggerauswertung ähnlich, wenn nicht sogar gleich sein wird.


    Ich hab mal nach dem Apell( :D :(

    Zitat

    Wenn jemand Spaß dran hat, das mal zu genauer zu analysieren, nur zu!


    versucht den Rest auf eine Schaltplanskizze zu übertragen, bin dann aber an den FETs gescheitert (N-Kanal?, P-Kanal?, Pinbelegung?). Naja Reverse-engineering wäre sowieso noch einiges mehr gewesen(induktionswerte, Kapazitäten etc.).
    Letztendlich zählt ja die Erkenntis vom Ergebnis, und die kommt dank deinen Messungen recht gut rüber.


    Jedenfalls sehe ich mit dem Signal "kein" Problem mehr bei der Positional Sensing, und Dynamikauswertung.
    Dynamik wird einfach mit der maximalen Spannung des Signals innerhalb der Scantime ausgewertet.
    Positional Sensing misst dann einfach die Zeit zwischen den ankommenden Peaks.
    In den Roland Patenten wird das ja auch mehr oder weniger beschrieben(Bild mal von unseren englischen Kollegen geklaut, da es ohne Registrierung nicht ansehbar ist):


    Viel DSP ist da dann natürlich nicht mehr nötig...


    Gruß
    Philipp

    Naja ich konnte jetzt keine großen Unterschiede feststellen(5-6ms)...
    Übrigens es ist kein Geheimnis, wie ich die zeitlichen Differenzen feststelle, ich öffne einfach in Audacity die Datei, und zoome an den relevanten Stellen(also da wo angeschlagen wird) rein, bis man per Selektion sehen kann, wie viel Latenz zwischen den beiden Spuren ist.


    Du kannst auch mal das Asio Latency Test Tool nehmen: http://centrance.com/downloads/ltu/
    Damit gehts vielleicht schneller, festzustellen wie die derzeitige Audiolatenz ist.


    Übrigens es gilt:


    Je höher die Samplerate und je kleiner die Buffergröße, desto kürzer ist die Latenz.
    Recht simple Rechnung(die aber leider in den meisten Fällen nicht mit der Realität/Messungen übereinstimmen):
    Latenz = Buffergröße/Samplerate



    Gruß
    Philipp

    Hi,


    Erst mal Respekt und vielen Dank für all die verschiedenen Messungen, ich konnte deine Edits sogar quasi live verfolgen :).


    Als du das mit dem Vergleich: Pad an Modul geschlossen und Pad direkt an den Oszi, gemacht hast, hab ich auch erst mal direkt an ein Filternetzwerk gedacht... Ich hab kurz darauf einfach mal mein TD8 aufgeschraubt(geht recht einfach, sind 6 Kreuzschlitzschrauben, dann ist man an den interessanten Teilen).


    Leider hab ich kurz darauf festgestellt, dass der meiste Teil ASICs von Roland sind(bei den Modulpreisen von Roland verständlich :rolleyes: )
    Kurze Liste der interessanten ICs bzw. der Eigenschaften(mit IC-Namen kann hier wohl kaum jemand was anfangen):


    1x 64 Mbit Mask Rom (Ich denke hier sind sämtliche Daten wie Sounds/Playalongs etc. drauf, halt Sachen die einmal geschrieben werden müssen, und dann nur noch gelesen werden)
    1x 16Mbit Bootblock Flash (für den Bootloader und Userdaten vermutlich)
    2x 70ns 1Mbit SRAM(8x128k)
    1x 4Mbit DRAM(16x256k)
    2x d63200 (DA-Wandler wahrscheinlich für analogen Audio-Output verantwortlich)
    1x PCM3001E(auch DA-Wandler)
    2x74HC14(Hex Schmitt-Trigger Inverter)
    ein paar(Anzahl vergessen aufzuschreiben, waren glaub ich mehr als 4): 4053BF:

    Zitat

    The CD4053B is a triple 2-Channel multiplexer having three separate digital control inputs, A, B, and C, and an inhibit input. Each control input selects one of a pair of channels which are connected in a single-pole, double-throw configuration.


    Dann 4 Roland ASICs, die selbst Google nicht kannte...


    Sonst gibt es noch jede Menge OPAmps, und restliches Hühnerfutter, jedenfalls nichts näher Interessantes (Oder anders gesagt ich hatte keine Lust noch mehr ins Detail zu gehen ;) ).


    Ach ja und fast vergessen, warum ich das Ganze gemacht habe:

    Leider konnte ich das Signal nicht weiter verfolgen, da ich dann das innere Board vom Gehäuse hätte trennen müssen, wo sämtliche Buttons befestigt waren-> war mir auch zuviel Arbeit...


    Aber ich kann mir denken wie es weitergeht:


    Das Signal kommt in einen der zahlreichen Opamps, und macht es für die Multiplexer gerecht, an diese wird es dann weitergegeben, und kommt per (vermutlich integriertem) AD Wandler in eines der Roland ASIC, welches für die Signalauswertung verantwortlich ist. (Der Rest ist m.E. uninteressant, da ja sowieso nur Soundmatsch aus den Modulen kommt :D.)


    Sorry, dass ich keine genauen Werte habe dafür, mein Messgerät ist leider noch ein paar hundert Kilometer von hier entfernt....
    Aber ich glaub sowieso, dass man ohne auslöten der Teile nicht die genauen Werte messen kann(zuviel Einfluss anderer Teile), und bei SMT bin ich da lieber vorsichtig...


    Gruß
    Philipp

    Wow, sie haben es mittlerweile doch tatsächlich geschafft, die serbische Adresse und die Hauptstadt Deutschlands auf die Homepage zu kriegen...


    Mittlerweile frag ich mich auch warum sie sich anscheinend so stringent weigern, Namen rauszurücken...


    Wie ist das eigentlich mit dem Impressum, wenn anscheinend die Firma geteilt in Serbien und Deutschland läuft, kann man das Ganze dann unter serbischem Gesetz durchlaufen lassen?
    Ich frag mich auch ob Serbien Vorschriften wie z.B. eine Impressumspflicht hat...


    Gruß
    Philipp

    Naja ich kann das leider nicht beurteilen, denn ich habe das noch nicht getestet(bin mittlerweile auf Linux umgestiegen)


    Ich kann zu dem Thema diesen Link empfehlen: Link
    Es kann natürlich sein, dass die Soundkarte von ihm einfach mit W8 deutlich besser arbeitet.


    "gdfreezer" hat auch schon eine Messung mit W7(mittlerweile bin ich gar nicht mehr so sicher ob er W7 hat) bei einer Audiolatenz von

    Zitat

    Measurement results: 136 samples / 3.08 ms


    Ich denke man muss es einfach ausprobieren und gucken obs klappt, du könntest natürlich auch erst das RME bestellen, und wenn es keine Verbesserung gibt, dein Widerrufsrecht gebrauchen...


    Gruß
    Philipp

    Wollte eigentlich noch mal schreiben, dass wieder Superior Drummer auf die andere Spur gerutscht ist, aber du hast es ja mittlerweile selbst hinbekommen.
    Lass mich raten, der Mix-Regler am Interface war nicht komplett auf Playback gedreht oder?


    Ich hab noch mal verglichen, es gab sehr verschiedene Ergebnisse von ca. 6ms-10ms. Das kann durchaus hörbar sein(Gesamtlatenz bei ca. 11-15ms). Wenn du damit zurechtkommst, ok...
    Ansonsten vielleicht wirklich mal ein Upgrade auf Win8 wagen(oder Win8.1, da soll die Startzeile wieder da sein ;) ) Wenn das nichts hilft könnte(wenns finanziell drinnen ist) tatsächlich noch mal das Babyface von RME helfen... Tests sind auch hier ausdrücklich erwünscht :).


    Gruß
    Philipp

    Vielen Dank für die Messung der Piezos, da sieht man, dass je kleiner die Keramikscheibe ist, desto größer ist die Resonanfrequenz(gut hätte man sich denken können...)
    Hier ist übrigens ein relativ interessanter Artikel über Piezo-Sensorik.
    Dort sieht man auch an einer Grafik, dass je höher die Resonanzfrequenz ist, desto linearer, kann der Piezo in einem bestimmtem Bereich die Frequenz abnehmen.


    Zitat

    Gibt es denn Details, welche Piezos man genau nehmen sollte, um die Schwingungsdauer zu verkürzen?


    Die Schwingungen haben ja zunächst "nichts" mit dem Piezo zu tun, dieser nimmt jene nur ab. Die entscheidenden Teile dafür sind, an erster Stelle natürlich das Meshhead, bzw. die Oberfläche, die angeschlagen wird. Der Kegel hat sicher auch noch ein wenig Einfluss darauf(durch die zusätzliche Masse).
    Je größer das Meshhead, desto tiefer ist die Eigenfrequenz(eigentlich klar...).
    Generell könnte man sagen, Je mehr Masse bewegt werden muss, desto tiefer ist die resultierende Frequenz.
    Fellspannungen können die Frequenz natürlich noch erhöhen, das ist aber m.E. der falsche Weg...
    Wie Trommeltotti ja schon erwähnte, dmitri sagte, dass je kleiner das Pad, desto leichter ist es innerhalb kurzer Zeit die Schlaginformation zu deuten...
    Ich hab selbst mal Aufnahmen von meinem 14" DIY-Snarepad gemacht, auf gut 10 verschiedenen Anschlagstärken, ich werd demnächst mal auch so ne nette GIF-Animation davon reinstellen, jeweils Lautstärke normiert, so dass man besser die eigentliche Wellenform erkennen kann...


    Fast in allen Fällen konnte man die Schlaginformation/dynamik innerhalb 2-3ms deuten, nur komischerweise, als ich 'nen ordentlichen Moeller aufs Snarepad krachen ließ(jeweils in die Mitte), schien der stärkste Ausschlag erst nach 8ms zu kommen.
    Wie das Ganze ist, wenn man an verschiedenen Stellen unterschiedlich draufhaut, müsste ich noch mal testen....


    Ich zitiere mich noch mal selber, da es m.E. an der Stelle recht gut passt:


    Dazu sage ich aber, dass es eine Behauptung ist, die auf Recherchen im Internet basiert, große Erfahrung hab ich mit DSP leider noch nicht, werde mich aber in der nächsten Zeit damit vertraut machen.
    Ich denke das könnte ein Thema für ne Diplom- wenn nicht sogar Doktorarbeit sein :).


    PS: Was für eine Software benutzt du eigentlich für die schönen Grafiken, hast du ein digitales Oszi angeschlossen und benutzt dessen Software?


    Gruß
    Philipp

    Keine Angst, wegen der verschiedenen Einstellungen und Pads.
    Roland-Module sind was Triggererkennung verschiedener Pads angeht, sehr robust.
    Ich würd mal die PD125 Einstellung in den Raum werfen, da es diesem am ehesten ähnelt. Aber verschiedene Einstellungen zu testen ist m.E. besser...
    Ich selbst hab 'ne 14" DIY Snare am Roland TD-8, welche super funtkioniert. Die Diabolo Serie wird ja sogar mit dem TD-9 als Set verkauft. Was Triggererkennung angeht, behaupte ich mal ist kein Unterschied zwischen dem TD-4 und dem TD-9(von Dual-Triggern etc. mal abgesehen)


    Aber wenn du dein PD-120 günstiger gekriegt hast ist doch alles super...


    Gruß
    Philipp

    Hi und herzlich Willkommen im Drummerforum :D.


    Die standard Suche ist besch... versuch mal die startpage a.k.a Google Suche, welche unter der erweiterten Suche zu finden sein sollte, falls du das nicht eh schon getan hast.


    Dein Vorhaben sollte auf jeden Fall klappen, auch die Rimshot Funktion sollte funktionieren(steht sogar im Handbuch :whistling: ).
    Ich will dir allerdings auch mal empfehlen die diabolo Serie von drum-tec anzuschauen, ich weiß jetzt nicht woher du die genannten Pads bekommen willst(gibt es meines Wissens nicht mehr zu kaufen), aber Roland Pads sind meißtens derart überteuert, dass selbst die Pads von drum-tec als günstig erscheinen ;)


    Übrigens:

    Zitat

    (lässt sich ja auch mit MIDI übers Notebook veredeln)


    Das empfehle ich auch dringend!


    Gruß
    Philipp