geht alles:
wie sehen denn deine Becken aus!? Ferkel ![]()
geht alles:
wie sehen denn deine Becken aus!? Ferkel ![]()
nen Messingkessel, der mir Sorgen macht. Ich kenne Unipol für Messinginstrumente. Das scheint aber nur auf blankem Messing zu klappen. Wenn Lack mit im Spiel ist,
..wenn Lack mit im Spiel ist polierst du nicht das Messing und nimmst natürlich Lackpolitur!!! 
Messing mit Lack ist wohl schwierig.
Messing mit Messingpolitur und Lack mit Lackpolitur, das ist nicht schwierig ![]()
und was sich auch natürlich anhört....
der war gut.
So zögtere ich ein ums andere Jahr den Kauf eines X32 hinaus...
wäre gar nicht nötig gewesen
einen fast umsonsten 32 Spur Multitracker für das X32 gibts schon seit seit langem.
Den Banana Pi ab 30 Euro + alte kleine SSD + 5 Euro Spende + leere DVD Hülle
Audio ist so ein unkritisches Material mit kleinen Datenmengen. da werden auch 30 Spuren keine Probleme bereiten.
Vorausgesetzt du nimmst die reinen RAW Daten auf und schickst nicht noch alles durch Echtzeitplugins.
Ein GB Ram ist allerdings für ein Windowssystem und eine DAW arg wenig, eventuell da mal nachrüsten.
wie meinst Du das denn? Selbst einspielen? Kannst Du mir das näher erklären?
du kannst dir zb mit Hilfe eines Keyboards den Bass selbst einspielen, Bläser, Orgel usw.
Du musst nicht mal genau sein, das lässt sich ja prima editieren.
Der Nachteil bei fertigen Midifiles ist oftmal das die keinerlei Dynamik haben, weder im timing noch in der Anschlag- und Lautstärke.
Das klingt dann halt alles irgendwie nach 90er Jahre Heimorgel.
Vorausgesetzt du benutzt dazu "echte" gesampelte Instrumente. Die sind heute so gut das man den Unterschied nicht hört.
Man bekommt damit Playbacks hin die klingen wie live von einem Musiker gespielt.
Meine Frage ist nun: Welche Möglichkeiten gibt es, gut klingende Midis abzufeuern?
keine
(siehe letzten Post von MS-SPO)
Ich würde mit "Ableton live" arbeiten, das ist eine DAW die sehr gut auf deine Ansprüche ausgelegt ist.
Ich würde wenn ich faul bin mir bei Gerdes fertige Songs im Midiformat kaufen, allerdings hast du damit jede Menge Arbeit wenns gut klingen soll.
Du brauchst dazu noch einige VSTi wenn es echt klingen soll.
Ebenso aufwendig wie fertige Midifiles zu bearbeiten ist es die direkt selbst einzuspielen, der Vorteil ist das es auch so klingt wie du es spielst (gute Samples vorausgesetzt)
Noch einfacher ist es direkt fertige Audiofiles zu nehmen. Ich bastel mit immer Mehrspurplayalongs von karaoke-versions zusammen. (die haben aber wenig Deutsche Schlager)
Vorteil: sind mit 3 Euro pro song billiger als Midifiles und sind von echten Musikern mit echten Instrumenten eigespielt und entsprechen dem Originalsong.
Vorteil 2: alle Instrumente liegen als Einzelspuren vor und bedürfen eigentlich keiner Nachbearbeitung mehr.
Vorteil 3: geringster Aufwand und preiswerteste Lösung.
Nachteil: sicher irgendwas mit copyright.
Was du brauchst ist eine DAW (vorzugsweise Ableton live, ca 70 Euro) und ein 100 Euro Interface am Laptop und irgendwas zum triggern.
Damit hast du guten Sound und den Midi Aranger gleich mit dabei. Den 6 Kanal Mischer brauchst du auch nicht mehr, alles schon drin.
Ich sehe gerade, Gerdes vertreibt jetzt auch Audioplaybacks..
in Cubase kann man für jeden Editor individuell das Lineal einstellen. Das geht in Logic nur mit der Audiospur?
Was wenn du im Projekt sowohl Audio als auch Midispuren hast? was zeigt er denn dann an?
Könnte man das nicht einstellen wäre ja eine Bearbeitung mit Bezug auf eine Zeitbasis nicht möglich und das Programm ja sinnfrei.
Was sagt denn die Anleitung?
auch die Möglichkeit, einfach das Piezosignal direkt am Pad abzuzweigen
schrieb ich ja schon.
Statt dessen musst du auch in all diesen Fällen, auf die du dich jeweils beziehst, mit Latenzen rechnen.
ich rechen gerne mit Latenzen, aber da gibts ausnahmsweise mal keine. Der UART hat keine Latenz und Software hat auch keine.
Es gibt leider auch Fälle, in denen genau dort deutliche Latenzen auftreten.
Nenn mal bitte so einen Fall, ich verstehe nicht was du damit meinst.
das habe ich als Cubasenutzer innerhalb 10 Sekunden gefunden: sogehtdas
Jeder der Gebrauchsgegenstände aus Tropenholz benutzt sollte sich im klaren sein das jedes Tropenholz illegal ist!
So ein Zertifikat ist ist ebenso ein Witz wie die DLG Prämierte Leberwurst.
Canabis und Elfenbein sind hier grundsätzlich ilegal, da nutzen auch keine Zertifikate, bei Tropenholz wird ein Auge zugedrückt wenn man
teuer gekaufte Papiere der korrupten Ausfuhrländer vorlegt.
Die große Frage ist da naütrlich, wie zuverlässig die Latenzen in Cubase angezeigt werden?
sehr genau. die lässt sich ja aus Bustakt und Samplerate zu 100% errechnen. Bei mir wird sie mit 2 Nachkommastellen angezeigt.
Vielleicht eine Möglichkeit Audio, Midi und Gesamtlatenz zu messen:
Mikro an das Pad, Lautsprecher/KH auch direkt ans Mikro.
Vsti laden, Anschlagen , Midi aufzeichnen, Anschlag aufnehmen und das VSTi Audio auch noch mitnehmen.
Dann hättest du 3 Spuren.
Das Midievent wird wohl das erste sein was aufgezeichnet wird, gefolgt von dem Anschlag, vielleicht auch andersrum. Zuletzt wird der VST Sound kommen.
Die Latenz kannst du mit dieser Methode aber nur in Relation ermitteln.
Genau geht das nur mit einem Mehrkanal Oszilloskop.
Signal am Piezotrigger direkt in einen Kanal am Oskar, das ist der Referenzpunkt.
Auf den zweiten Kanal das reine Midisignal was aus dem Rechner wieder raus kommt.
Auf dem dritten das Audio vom VSTi.
Genaugenommen müsstest du erst mal nur die Modullatenz ermitteln: Piezo direkt rein und den Midiausgang am Modul auch in den Oskar.
Alternativ dürfte ein Mikro direkt am Hitpunkt keinen Unterschied zur Piezoabnahme machen, ist ja physikalisch das selbe.
Ich meine sowas hatten wir hier schon mal..
aber mach mal, bin gespannt
BILD : Bubingapolizei gelingt bundesweiter Schlag gegen kriminelle Schlagwerker
Berlin: Der Taskforce "Bubinga" des LKA Berlin gelang in einer lange vorbereiteten Aktion
ein gezielter Schlag gegen Bandmäßig organisierte Schlagwerker. Durch rücksichtslosen
Einsatz von mit illegalem Tropenholz beschichteten sogenannten "Trommeln" haben
Jahrzentelang kriminelle Musiker die Ausbeutung des Regenwalds mitorganisiert.
Bei den Razzien in Proberäumen und kleinen Liveclubs konnten unzählige Trommeln
sichergestellt werden. Etliche Bandenmitglieder die sich selbst als "Drummer" bezeichnen
sitzen zur Zeit in Untersuchungshaft.
Als besonders dreist nannte ein Sprecher der Musikerpolizei den Versuch eines Mannes, sich durch
folieren der Trommeln einer Starfverfolgung zu entziehen.
Noch ist nicht klar wer die Hintermänner sind. Es wird vermutet das eine Organisation die sich
selbst "Sonor" nennt, den weltweiten Handel kontrolliert.
Die AFD verspricht für ihrem Wahlsieg: ".. nur deutsche Eiche für deutsche Trommeln"
Beeble, vielleicht ist dein Beitrag einfach missverständlich formuliert oder wir reden aneinander vorbei.
wahrscheinlich beides ![]()
Ok. Ich versuche mal: 10 Finger auf dem Keyboard greifen in die Tasten, ein Midiwort wird erstellt und auf die Reise geschickt. Nicht gleichzeitig sondern schön der Reihe nach wie bei serieller Übertragung üblich.
dieses ganze Signal ist ist etwa 10ms lang, je nachdem was noch an Daten mitgeschickt wird auch länger. Ohne Verzögerung kommt das Signal am USB Port an. Blöderweise wird aber nur alle 1-5 Millisekunden der Port abgefragt.
(normalerweise einmal pro ms, ich habe aber gelesen das die Hersteller gerne auch 5ms nehmen um auf Nummer sicher zu gehen. Wusste ich bisher auch nicht)
Im schlimmsten Fall kommen die Daten erst nach 5ms in den Rechner. da stehen sie dann aber sofort zum Weiterverarbeiten zur Verfügung.
Die Reiseroute des Midisignals sieht dann so aus:
-Vom drücken der Tasten bis zur Ankunft des Signals am USB Eingang vergehen etwa 32 Microsekuden, hier reden wir mal nicht von Latenz, das läuft noch unter Echtzeit.
Den Job erledigt ein UART Chip, dieser ist diskret, also kein Prozessor und hat Null Latenz.
- Jetzt gibts dann die erste Verzögerung auf die wir keinen Einfluss haben, nämlich den Datenstau am USB Port, der mindestens 1-5ms beträgt.
- die Software die jetzt mit den Daten macht was sie soll unterliegt dem Prozessortakt und auch da findet alles im nano- und microsekundenbereich statt.
also entweder werden die Daten einfach nur gespeichert oder auch von einem VSTi wie in unserem Fall verarbeitet. Zwischengespeichert bzw. gebuffert wird da nix, da es sich hier um Echtzeitanwendung handelt.
Vom drücken der Klaviatur bis zum Auftauchen in der DAW vergehen also bis zu 5ms.
Nun zum VSTi:
Die Daten müssen in Echtzeit verarbeitet werden, wenn das nicht klappt wird nicht gewartet sondern schlimmstenfalls gehen Daten verloren. Meistens läuft aber die Software dann gar nicht oder lässt sich auf entstprechend schwachen System nicht instalieren oder betreiben oder läuft einfach nicht zufriedenstellend.
Nun kommt der nächte Teil der Kette auf den wir keinen Einfluss haben und der auch wieder eine Verzögerung mit sich bring, die D/A Wandlung über das Audiointerface.
Die Performance ist abhängig von der Hardware des Geräts und der Hardware des Rechners sowie der dazugehörigen Software(Treiber)
Ähnlich wie beim USB Port werden hier die Signale zwischengespeichert. Das ist die Samplerate. Das bedeutet die Signale werden Portionsweise gewandelt. Je kleiner die Portionen(Samplerate) desto schneller werden sie ausgegeben und die Latenz wird kleiner. Je größer der Buffer desto größer wird die Latenz. Man könnte meinen das man einfach immer die kleinstmögliche Samplerate einstellt um so die kleinstmögliche Latenz zu bekommen.
Der Haken ist , das alles in Echtzeit rausgeht, egal ob die Hardware mit dem Umwandeln fertig ist oder nicht, alles muss raus, auch wenns nicht fertig geworden ist. Man hört Knackser und Aussetzer im schlimmsten Fall gibts Mecker und Abstürze, der Rechner ist überfordert. Wählt man eine hohe Samplerate, dauert es länger bis das Paket rausgeht, aber es ist auch genügend Zeit sauber zu rechnen. Das Resultat ist ein sauberes Signal aber eine höhere Latenz.
Der Datenstrom ist dabei immer gleich. Ob wenig, dafür aber schnell hintereinander, oder viel und dafür langsam.
Trotzdem der Vollständigkeit halber: Ein Note on/off ist 3 Bytes lang und die Übertragung über ein Midi-Kabel dauert 0,96ms.
Kann man sich vorstellen wie ein Zug der das Keyboard verlässt. Die Lok ist schon im Bahnhof(USB Port)angekommen während der letze Wagon noch im Keyboard steckt.
Der Bahnhof hat aber nur alle paar ms mal geöfnet und im schlimmsten Fall schaft es nicht der ganze Zug vor Schliessung einzufahren ![]()
Dann käme hier noch mal Latenz hinzu!? Also im schlimmsten Fall ein vielfaches von 5ms je nach länge des Midiworts.
Rechnen wir mal zusammen:
in <1ms ist das Signal am USB Port des Rechners, je nach Länge dauert es nochmal 10ms bis alles drin ist.
Danach wird flux gerechnet im für uns nicht relevanten "Echtzeitbereich" von einigen Nanosekunden.
Schnell raus mit den Daten ans Interface zum wandel..ups..dh. ja wieder über USB raus und wieder warten.. nochmal 5ms im schlimmsten Fall.
Das flotte Interface braucht vielleicht 6ms, bis endlich ein Audiosignal zum Lautspecher geht.
sind zusammen 1ms+10ms+10ms+6ms
Also haben wir eine Latenz von ca.27ms die wir einkalkulieren müssen.
Ach ja, beim Drummodul kommen wirklich noch einige ms Latezn hinzu, da intern noch gerechnet wird.
Roundabout sollte man als eDrummer eine Latenz von 30ms einplanen
Habe ich noch was vergessen?
Robo, lies mal bitte genau was ich geschrieben habe.
Es geht nicht um die Gesamtlatenz, auch nicht über die Latenz des Audiointerface. Es geht um die Latenz dieses Midi over USB Kabels.
Dort gibt es keine Latenz. Latenz entsteht erst wenn die Mididaten verarbeitet werden und natürlich bei der analogen Ausgabe des Sounds eines VSTi über das Audiointerface.
Eine einfacher 2 Byte langer Midibefehl aus Note on/off hat eine Länge von etwa 800 Microsekunden, der kommt auch am Rechner an wenn er losgeschickt wird, ohne Latenz.
Das sind Zeiten die du sicher nicht einmal messen könntest.
Ein USB 1.02 kann ein Byte jede Microsekunde ( ein tausendstel einer Millisekunde) übertragen.
Der einzige Nachteil von dem ach so schnellen USB ist die Tatsache das dieser vom Prozessor verwaltet wird und im Gegensatz zu einer mit eigenem Bus verwalteten RS232 Schnittstelle nicht so oft abgefragt wird.
Bei USB 1 war das etwa eine Abfrage alle 1 ms. Ich weiss nicht ob sich das verbessert hat.
Aber ganz sicher dauert es keine 5ms bis ein Midisignal den USB Bus durchlaufen hat.
wenn du das was ich da ziemlich viel durcheinander gebracht habe noch richtig stellst wäre es sicher hilfreicher als es nur zu schreiben.
Beeble: Danke für den kleinen, verständlichen Exkurs.
Dieses oft missverstandene Thema wurde selten so auf den Punkt erklärt!
es ist auch schwierig das alles zusammnezufassen ohne das es zu technisch ins Detail geht.
Wenn man alle die Informationen haben und verstehen möchte, liest man sich wochen- oder jahrelang nen Wolf.
Aber irgendwie will man ja auch einfach nur drummen. ![]()
SO ganz falsch scheint es mit dem Interface jedenfalls nicht zu sein. Die Hersteller nennen ihre Geräte durchweg Interface und nicht Adapter.
ja die nennen das wohl Interface weils besser klingt und weil da noch ein diskretes Bauteil drin steckt welches sich dem USB Port als Midigerät vorstellt.
Verarbeitet, also gerechnet werden muss da nix. Jedenfalls nichts was unsere Latenz beeinflusst.
Midi ist so unendlich langsam und sparsam im Datenstrom das der Rechner davon kaum etwas merkt.
Midi macht 32000Baud und ist somit ca. 150.000 mal langsamenr als USB3 Full Speed.
Viel schlimmer für die Latenz ist ja die Tatsache das Midi seriell, also schön ein Event nach dem anderen verschickt.
Wenn ein Keyboarder zb mit 10 Fingern und Pedalen und Modwheel spielt, kommen die 10 Noten und die restlichen Daten schön der Reihe nach an, da vergehen dann schon mal 30ms bis alles im Kasten ist.
Aber Midi ist schon 35 Jahre alt und von Roland entwickelt (damals war Roland noch inovativ), leider nicht mehr zeitgemäß aber immer noch ausreichend.
Und es funktioniert, obwohl ich keine Ahnung von der Technik habe (evtl Dank Mac :-))
genau, Aplle hat da schlau "core audio" das entspricht grob dem ASIO auf den Windows Rechnern.
Auf einem Windows Rechner ist ein spielen mit VSTi auch mit ASIO4all nicht möglich. Jeder der das Gegenteil behauptet lügt ![]()
Na hier wird einiges durcheinander geworfen ![]()
Also mal ganz langsam:
Midi ist nur ein serielles Protokoll, dazu noch ausgesprochen langsam und sehr sparsam was die zu übermittelnden Daten betrifft. Damals vor fast 40 Jahren als sich einige schlaue Köpfe das ausgedacht haben waren die Rechner zu der Zeit gerade mal schnell genug diese Daten zu verarbeiten.
Seriell ist auch unser beliebtes USB, dh. Midi und USB sind sich sehr ähnlich, weswegen man heute auch meist nur einen USB Anschluss an den Modulen findet. Der Rechner hat damit keine Arbeit und langweiligt sich mit Midi. Deswegen kann so ein USB Anschluss auch hunderte Midigeräte gleichzeitig verarbeiten ohne Probleme. Latenz gibt es keine, also 0, in Worten auch Null! wenn Midisignale vom Rechner weiterverarbeitet werden.
Damit hat ein Midigerät an einem Rechner angeschlossen NUll Latenz!
Was hier fälschlicherweise als "Interface" interpretiert wird ist ein Adapter(Kabel) zwischen Modul/Keyboard/sonstigem Midigerät und dem USB Port Das ist nix dolles und hat auch keine Latenz. (Kabel haben auch keine Latenz)
Wunderbar bis hierher, wir können spielen, Mididaten erzeugen und das ganze latenzfrei im rechner "recorden" ..aber hören tun wir noch nix.
Wenn wir jetzt ein Softwareinstrument wie EZdrummer mit diesen Mididaten füttern hat der Rechner zum ersten mal ein bisschen Arbeit und rechnet einen schönen Sound.
Leider rechnet der nur und wirft digitale Daten raus die ja noch irgendwie in hörbare analoge Signale gewandelt werden müssen damit wir das ganze auch hören können.
Dieses umwandeln erledigen Digital- nach Analogwandler, D/A Wandler genannt. Diese befinden sich in einem Audiointerface das wir zb. extern anschliessen oder auch intern als PCI-Karte.
Diese digitalen Signalprozessoren(DSP) haben mächtig viel zu tun und kommen richtig ans schwitzen, da sie möglichst schnell und präzise sein sollen, also richtig schnell.
Die Qualität und die Treiber für dieses Audiointerface sind entscheidend für die Zeit die es braucht um möglichst schnell den Datenstrom den der Rechner schickt umzuwandeln.
Dieses Verfahren nennt sich ASIO (Audio Stream In/Out) denn meistens macht so ein Interface das in beide Richtungen, also auch zb vom Mikrofon das Signal in digitale Daten zu wandeln.
Hier entsteht die Latenz, da diese Wandlung Zeit benötigt.
Ein normaler Onboardsoundwandler der nur einige Cent kostet kommt da leider an seine Grenzen. Der Datenstrom der kontinuierlich vom Rechner geschickt wird kann nicht schnell genug verarbeitet werden und es wird eine große Samplerate notwendig.
(außerdem arbeitet so eine einfache Soundkarte nur mit 16Bit und 44kHz was uns mal gar nicht reicht)
Das bedeutet der Datenstrom muss zwischengespeichert werden, was ja wieder Zeit kostet.
Je größer dieses Zwischenspeichern (die Samplerate) ist, desto größer die Latenz.
Ein gutes schnelles Interface kann mit sehr kleinen Sampleraten arbeiten und so schneller die Daten zu wandeln und rausschicken.
Zusammengefasst bedeutet das:
Nur Midi aufnehmen und/oder Midi wieder raus zu schicken zb. in das Drummodul stellt keine Anforderungen an die Hardware, das geht mit jedem Rechner der nicht älter als 30 Jahre ist.
Wenn aber ein VSTi ins Spiel kommt, muss der Rechner Leistungsfähig genug sein den ganzen Kram möglichst in Echtzeit zu rechnen UND ein Audiointerface in der Lage sein den Datenstrom auch möglichst in Echtzeit in analoge Signale zu wandeln.
Wenns da schwächelt bekommen wir eine große Latenz.