Beiträge von Beeble

    Hätte es per se irgendeinen Vorteil das UR22 dazwischen zu hängen oder ist das nur der Fall, wenn ich etwas aufnehmen möchte?

    wenn es nur um Midi geht hat es keinen Vorteil. Wenn du externes Audio aufnehmen willst benötigst du mindestenst ein USB Mikrofon oder besser gleich ein Interface.

    Ich habe irgendwo aufgeschnappt, dass Musictribe an einer eigenen DAW bastelt. Wenn das stimmt, gibt es das vielleicht mal alles in einem Guss.

    Mit einem X32 geht das ja. Man nimmt auf SD Karte auf und kann das dann in aller Ruhe mischen, allerdings nur in Echtzeit. Editing des Materials ist natürlich nicht möglich.

    Gedacht ist das ja nur für einen Livemitschnitt, um ihn später in einer DAW zu bearbeiten oder für einen virtuellen Soundcheck.

    Es gibt einnige DAWs fürs iPad.
    Am besten geeignet sind Auria und Cubasis mit Schwerpunkt auf Audio.
    Garage Band ist die Apple eigene kostenfreie App, aber zur Audiobearbeitung sehr beschränkt und in meinen Augen unbrauchbar.


    Auria bietet noch Busse an für Subgruppen und Aux sends.
    Cubasis ist kompatibel mit Cubase auf dem PC, so das sich Projekte direkt nutzen lassen.

    Bietet gute interapp Möglichkeiten und das einbinden von Fremdplugins zb. von Waves.

    Allerdings macht das alles andere als Spass.


    Wenn man sich ernsthaft mit Audiobearbeitung und Mixing beschäftigt ist das arbeiten auf einem Rechner mit großen und mehreren Bildschirmen unumgänglich.
    Ein brauchbarer Weg ist das recorden auf dem iPad und das bearbeiten auf einem geeigneten Rechner.


    Wenn du unbedingt auf einem (leistungsstarken) Tablet wie dem neuen iPad mit M1 Prozessor arbeiten willst, kann ich nur Auria und Cubasis empfehlen.

    Für das Geld bekommst du allerdings schon ein Mcbook.

    Es sollte keinen großen Unterschied machen ob du eine Din Buchse in das Interface steckst oder mit einem USB/Midi-Adapter in den Rechner gehst.
    Beidesmal wird am USB-Bus zwischengespeichert.

    Das Interface schickt die Mididaten mit dem Audio zusammen auf die Reise.

    So könnte man meinen das es eher von Vorteil ist es so zu handhaben, da durch die (wenn auch geringe) zusätzliche Mididatenlast der Buffer schneller voll ist und so auch schneller ausgelesen wird. Ich denke aber nicht das die paar Byte da wirklich einen messbaren Unterscheid machen.

    Es gibt ja kaum noch Rechner mit echter RS232 Schnittstelle, das wäre der schnellste Weg die Mididaten in den Rechner zu bekommen.

    USB arbeitet Paketweise, eine native serielle Schnittstelle byteweise und kann deswegen leicht 10x schneller sein.

    Uebliche Werte sind Paketgroesse auf dem USB von 64Byte, Polling Intervall des controllers 1ms.
    Also verlierst du etwa 1ms wegen USB. Egal ob mit Adapter oder den Umweg übers Interface.



    Edit:

    Es sei darauf zu achten das deine Audio und Midigeschichte aleine an einem eigenen USB Hub hängst und nicht mit Festplatten und Mäusen zusammen.
    besonders Gamingmäuse senden ununterbrochen viele Daten die sich ja alle den selben Hub teilen müssen. Rechner haben in der Regel mehrere unabhängige USB Schnittstellen. Auf keinen Fall einen externen Hub an einen Port hängen und dann den Hub mit allem vollstopfen.

    Hallo Josef,

    was habt ihr denn genau vor? Geht es euch um den Verkauf des Vinyls, und/oder darum möglichst viele Hörer bei Streamingdiensten zu haben?


    immerhin seid ihr der erste Link bei Google.
    erstmal alle eure Quellen abgelaufen und likes hinterlassen..puhh


    Eine Schallplatte ohne angeschlossenem Vertrieb wirst du schwer verkaufen können.
    Wenn ihr Lokal eine Fanbase habt, werden sicher die meisten Platten auf Konzerten und in lokalen Plattenläden verkauft.


    Werbung über social Media bring, wie du selbst erfahren hast, nicht viel.
    Die meisten die du erreichst sind Freunde und Bekannt bis in die zweite dritte Generation.
    Das verschafft euch viel Traffic und likes auf deiner Seite, aber auch nur kurzfristig.
    YT und fb verlangen ja regelmäßigen Kontent um dort nicht abzusaufen.
    Da sollte man gut überlegt Beiträge vorproduzieren die man dann raushaut.

    Das ist echt wichtig, wie du an euren Statistiken sicher auch sehen kannst.

    Die Beiträge müssen sehr regelmäßig kommen und auch Inhalt haben.

    Selbst bei zielgerichteter Werbung liegt der Ratio zum erreichen einer interessierten Zielgruppe bei höchstens 1:100.
    Wenn du 10.000 Menschen erreichst, hast du vielleicht 100 Leute die interessiert sind und von denen wird nur ein Bruchteil die Platte kaufen wollen.

    Vielleicht auch mal YT Profis ansprechen die solche Playlisten vermarkten mit der Bitte euch zu unterstützen.
    Zu euren Videos ein clickbaitfähiges Thumbnail.


    Wie die Algorhytmen bei Spotify funktionieren weiß ich nicht. Aber das man vor Veröfentlichung seinen Kram da reinstellt um in die Playlisten zu kommen ist wohl so.


    Wie du schon sagst, sollte man meinen das man heute viel mehr Möglichkeiten hat sich selbst zu promoten, aber

    ich denke es ist noch ähnlich wie Anfang der 90er.
    Bekannt wird man durch Konzerte, viele Konzerte, durch ständige Präsenz, durch Vitamin B bei der Presse, durch Berichte in echten Medien, Radio, Fernsehen, Musik- und Lokalmagazinen. Man bekommt öfter die Tür zugeschlagen als ein Staubsaugervertreter.
    Da muss man zäh und originell sein.

    Mit wachsendem Bekanntheits- und Beliebtheitsgrad ist es dann auch leichter einen Verlag, bzw einen Vertrieb zu finden.
    Aber auch da gilt: Die kleinen haben kein Geld und nicht die großen connections euch ausreichend zu unterstützen.
    Die großen Major Labels nehmen euch erst wenn ihr schon wer seid

    So ist jedenfalls meine Erfahrung.


    Ein Vertrieb hat auch noch ganz andere Möglichkeiten und Verbindungen an die ihr nicht rankommt.

    Mit einem starken und ehrlichen Label im Rücken welches in eurer Musik auch einen Erfolg sieht, seid ihr am besten Aufgehoben.


    viel Glück, Dirk

    sehr schön gemacht, so kann man schön vergleichen.


    Meinen eindeutigen Gewinner kann man nicht überhören.
    Ich finde das 52A als Solomikrofon ganz hervorragend. Je nach Größe auch im Resoloch.
    Das D70 wäre meine 2. Wahl, vielleicht noch mit einer zusätzlichen Grenzfläche für mehr low end.
    Mit den Beyer kann ich nix anfangen.

    Dass das Thema derartig kompliziert wird, hätte ich auch niemals vermutet.

    das ist es ja gar nicht, es scheint nur so wenn man es unnötig verkompliziert. ;)

    live über Superior Drummer zu spielen. Das klappt mit Asio4all wunderbar.

    Damit wäre dein Luxusproblem schon fast gelöst.
    Der Luxus wäre dann noch eine DAW und gegebenenfalls ein "vernünftiges" Audiointerface


    Als Budget Lösung würde ich zu einer kostenfreien DAW greifen, die meistens der Hardware beiliegt.

    Oder ab ca 14 Euro am Bahnhofskiosk zu kaufen.


    Soundkarten von Steinberg liegt Cubase bei,
    Presonus liefert Studio One mit und

    Focusrite und Native Instruments legen Ableton Live bei. Alles in den kleinen Abgespeckten Versionen.

    Von Behringer, Swissonic usw. und generell von Geräten weit unter 100 Euro sollte man die Finger lassen.
    Die taugen nicht für dein Vorhaben.


    Die Geräte kosten etwas alles das gleiche, um 100-140 Euro
    Außer Focusrite kann ich jedes empfehlen. (die haben für mich einen miesen Service und ein schlechtes Preis Leistungsverhältnis)


    Sehe gerade das Steinberg gerade das neue UR22 (hier für 133 Euro) rausgebracht hat und sogar ein Cubase Elements dabei ist, das kostet alleine schon 100 Euro.

    Wäre meine Wahl wenn ich jetzt eins kaufen wollte.


    Wenn du jetzt schon zufrieden bist, sehe ich keinen Grund ein Roland Modul und eine hochpreisige Soundkarte zu kaufen.


    sollte es hier "höhere Sampleraten" oder "kleinere ASIO-Puffer" heißen?

    ja natürlich, sowohl als auch ;)


    bei meinem aktuellen System hat die RME HDSP 9652 bezüglich des notwendigen Buffers keinen Vorteil gegenüber dem USB-Interface

    Das wundert mich. Mein System ist auch nur ein alter i5 und etwas auf Audio getweakt.


    Das Behringer verweigert kleinere Buffereinstellungen als 88Samples. Wie man sieht wird etwas gelogen. 88Samples sind 1,96ms
    Mit den Komplete von NI bekomme ich 5,1ms angezeigt obwohl ich einen Buffer von 62 Samples einstelle. Alles mit 48kHz
    Was ich nicht weiß, inwiefern die angezeigten Werte mit den tatsächlichen übereinstimmen mit denen Cubase dann rechnet.


    Bei der Juli@ kann ich noch mit 32Samples arbeiten.
    Unterschiedliche Prozessorlasten kann ich subjektiv nicht feststellen.
    Das Behringer lässt kleinere Buffer zu als das Komplete.
    Die Juli@ ist in Kombination mit einem Midizuspieler die Latenzärmste. Fällt aber nur beim edrum auf,

    beim Keyboard, einem Nectar Panorama merke ich keinen Unterschied zwischen 64 und 128 Sample Buffer bei beiden USB Geräten.


    Beim recorden stelle ich den Buffer auf 1024 und das reicht meist für umfangreiche Projekte mit mehr als 60 Spuren.

    Ich arbeite überwiegend mit Audio und wenns doch mal eng wird, kann man ja noch Spuren einfrieren.
    Monitoring über die DAW nutze ich nicht. Nicht nur weil es mit meinem schwachen System nicht geht, sondern

    weil es am X32 besser und einfacher ist.

    Vielleicht sollte man etwas Licht ins Dunkel bringen und versuchen den Begriff Latenz etwas verständlicher aufzudröseln.
    Ein Versuch:


    In der analogen Signalverarbeitung gibt es keine Verzögerung, alles geschieht in Nullzeit.
    In der digitalen Signalverarbeitung gibt es immer eine Verzögerung durch Signallaufzeiten.


    In der anlogen Welt mussten Geräte wie Hall und Delay dafür durch sehr aufwändige Schaltungen realisiert werden.
    Man musste sich die Latenzen teuer erkaufen mit sehr vielen Nachteilen, wie starkem Rauschen und hohen Kosten (Eimerkettenschaltung)

    In der digitalen Signalverarbeitung möchte man Latenzen möglichst klein halten.
    Sind die analogen Signale erst einmal digitalisiert, kann man damit sehr einfach nach Gusto rumspielen, ohne Qualitätsverlust, ohne Rauschen, ohne Kosten für aufwändige diskrete Schaltungen. Möchte man dann diese wieder in die analoge Welt überführen, hat man wieder das selbe Problem mit Qualitätsverlusten und Latenzen.


    In der digitalen Welt geht nichts ohne Takt, alles muss in klar definierten Zeitintervallen passieren.

    Möchte man ein Signal digitalisieren, will man das so genau wie möglich.


    Ist so ähnlich wie malen nach Zahlen:

    Je feiner wir das Signal rastern sowohl horizontal (Abtastrate/Samplerate)

    als auch vertikal (Auflösung/Bittiefe) desto mehr Werte erhalten wir und desto genauer lässt sich aus diesen Werten auch wieder das ursprüngliche Signal reproduzieren.
    pasted-from-clipboard.png

    Diese erhaltenen Werte kann ich aufschreiben, jemandem schicken der das Signal nicht kennt und er wird anhand der Zahlenwerte das Signal rekonstruieren können.
    Dabei gilt je feiner ich die Messungen mache desto genauer wird es.

    Aber je genauer ich das mache desto mehr Zeit und Papier braucht es, es fallen viele Daten an, sowohl bei meiner Messung als auch bei demjenigen der es wieder rekonstruieren soll. Je mehr Daten desto mehr Zeit braucht es
    (in der Grafik sieht man das Problem zwischen dem Punkt 11 und 12 auf der Abtastachse, der Bereich dazwischen wird nicht erfasst. Würde man die Messpunkte auf der x-Achse verdoppeln , schon)


    In den frühen 80er Jahren als die Rechner noch leistungschwach und teuer waren, einigte man sich auf einige Eckdaten um dafür zu sorgen das alles schön kompatibel bleibt.
    Die Audio CD bekam eine Abtastrate von 44,1kHz und eine Bittiefe von 16 Bit. Kann somit Musik bis 22kHz und einer theoretischen Dynamik von 96dB darstellen und dadurch deutlich besser als eine Vinylplatte. (abgesehen von vielen weiteren Vorteilen gegenüber Vinyl)


    Jetzt zurück zum Thema

    Seit Ende der 90er die Rechner leistungstärker wurden und die Musikproduktion began auf digitale Techniken umzustellen, arbeiteten die Hardwarehersteller solcher Geräte stetig daran die Auflösung hoch und die Rechenzeit runterzudrücken.
    Heute ist es problemlos möglich und meist ausreichend mit 24Bit und 44,1, bzw 48kHz zu arbeiten.

    Intern rechnen fast alle DAWs mit 32 und 64Bit, was einen enormen Headroom zulässt.

    Jetzt gibt es mehrere Faktoren welche für die unerwünschte Verzögerung sorgen.


    Eine DAW arbeitet mit einem Zwischspeicher der Daten.

    Dafür hat Steinberg den AsioTreiber entwickelt, der als Schnittstelle zwischen dem Digitalwandler und der DAW dient.


    Während der Audio-Verarbeitung muss der Computer zahlreiche unterschiedliche Aufgaben ausführen. Dazu gehören die grafische Anzeige, der Festplattenzugriff, der Datenaustausch mit externen Geräten wie z. B. MIDI-Controllern sowie natürlich die Audio-Verarbeitung selbst. Da der Computer die genannten Aufgaben nicht alle auf einmal erledigen kann, müssen Daten aus den verschiedenen Prozessen "gepuffert", also zwischengespeichert werden.


    Als Beispiel ein Samplebuffer von 512 Samples.

    Die Rechnung ist simpel: Wir teilen 512 Samples durch 44,1 (44100 Samples pro Sekunde) und erhalten 11,6 Millisekunden .
    Arbeiten wir mit einer höheren Abtastrate, verringert sich die Latenz. Betreiben wir unsere DAW mit 96 kHz statt 44,1 kHz, halbiert sie sich.

    Das selbe gilt für die Änderung des Samplebuffers. Verkleinern wir ihn, ist er schneller voll und die Latenz verkleinert sich.

    Ein Buffer von 32 Samples und eine Samplerate von 96kHz ergibt immer eine Asiolatenz von 0,3ms.

    Bei 192kHz kämen wir auf nur 0,15ms. Klingt doch gut, oder?
    Ja, aber in der Praxis kaum umzusetzbar, da kleinere Sampleraten und höhere Abtastraten auch eine höhere CPU Belastung mit sich bringen.


    Und in der Praxis zb. beim Audiorecording auch unnötig weil:
    Es macht keinen Unterschied, ob man beim recorden mit 1ms oder 100ms arbeitet.
    Die DAW kennt die Zeiten und sorgt dafür das die Signale an der richtigen Position landen, indem sie die Latenz berücksichtigt.

    Anders sieht es aus, wenn man die DAW auch fürs Monitoring benutzt und intern mit Plugins arbeitet die teilweise die Latenz erheblich erhöhen, bis zur unspielbarkeit.
    (einige Plugins verursachen Latenzen weit über 100ms)


    Üblicherweise beziehen sich die Latenz Angaben bei Mischpulten auf die Zeit, die ein Signal benötigt, um von einem analogen Eingangskanal zum analogen Summenausgang zu gelangen. Dieser Vorgang wird auch „RTL“ genannt, die Abkürzung für „Round Trip Latency“. Die tatsächliche RTL eines Audio Interfaces hängt von vielen Faktoren ab: Die Art der Schnittstelle (USB, Thunderbolt, AVB oder DANTE), der Performance des Recording Computers, das verwendete Betriebssystem, die Einstellungen der Soundkarte/Audiointerface und die des Recording Projektes (Samplerate, Anzahl an Audio & Midi-Spuren, Plugin Auslastung) und die Signallaufzeiten der verwendeten Wandler.

    RME hat Ende der 90er das sogenannte Hardwaremonitoring entwickelt. Die gesamte Berechnung findet im Gerät und nicht im Rechner statt.
    Mehrere Kanäle können teilweise mit komplettem Channelstrip und Halleffekten latenfrei ausgegeben werden.
    RME gibt diese Latenz mit ca 0,1ms an.
    Zum Vergleich hat ein Behringer X32 "nur" einen Latenz von ca.0,8 ms
    Heute bieten viele Audiointerface dank schneller DSPs (spezielle Signalprozessoren) internes latenzfreies Hardwaremonitoring an.


    Kommt jetzt aber Midi ins Spiel und virtuelle Instrumente, vergrößert sich die Gesamte Signallaufzeit.
    Zuerst einmal dauert es bis die Mididaten aus dem Keyboard/Drummodul erzeugt werden und dieses Verlassen.
    Dann dauert es eine Zeit bis sie den USB Buffer passiert haben und in der DAW ankommen.

    Dort werden damit zb. virtuelle Instrumente getriggert, die ebenfalls Rechenzeit benötigen.

    Und dann kommt noch einmal die Asiolatenz des Ausgangs hinzu.


    Die tatsächliche Latenz des Interface sollte auch vom Treiber angegeben werden.
    Die von den Herstellern angegebenen Werte sind leider häufig aufgehübscht – mit unerfreulichen Nebenwirkungen.
    Wenn man die Echtheit der angegebenen Latenz Audio-Interfaces messen will, führt man einfach einen Loopbacktest durch.
    Der Ausgang wird einfach an den Eingang geschickt und recordet.
    Stimmen die Werte die vom Interface angezeigt werden, sind beide Signale Deckungsgleich.
    Cubase zb. bietet intern einen Loopbacktest an. Dadurch lassen sich flasche Werteangaben kompensieren.


    Im Grunde ist eine geringe Abweichung auch nicht tragisch, solange man kein Outboard wie EQs und Kompressor verwendet.

    PCI Karten sind gegenüber USB Geräten latenzmäßig im Vorteil. Zum einen wegen der wegfallenden USB Pufferung und weil sie

    durch die geringere CPU-Last meist kleinere Sampleraten ermöglichen.



    ASIO4All

    Grundsätzlich kann man damit arbeiten wenn der Hersteller keine Asiotreiber anbietet.
    Was ja meist bei Onboardsound der Fall ist. -Vom Klang und der Wandlerqualität wollen wir hier nicht reden.


    Solange man in the box arbeitet und nur Audio recordet funktioniert das recht gut.
    Allerdings hat A4A den Nachteil, das es nicht die Hardware kennt und auf Windows und seine WMA Treiber angewisen ist.
    Dort greift A4a den Sound ab. So das die Werte sehr ungenau sind. (lässt sich mit dem Loopbacktest leicht überprüfen)



    David Courant
    Der Lookbacktest den du gemacht hast wird immer die selben bzw. fast ähnliche Werte liefern, unabhängig was du im A4A Treiber einstellst.

    Du kannst damit ausschliesslich die Latenzangaben überprüfen und gegebenenfalls korrigieren wenn deinen DAW das bietet.

    Auch kannst du mit deiner DAW nicht die Gesamtlatenz ermitteln, da du die Latenz deines Drummoduls nicht kennst.
    Was du in der DAW machen kannst ist die Zeit ermitteln vom Anschlag Pad bis zur Tonausgabe.
    Um die Modullatenz verlässlich zu ermitteln braucht es ein Oszilloskop.
    Dort schliesst du ein Mikro zur Abnahme des Anschlags und den Midiausgang des Moduls an.
    (die wenigen Millimeter Abstand Mikrokapsel/Pad muss man nicht rausrechnen)
    Jetzt hast du den zeitlichen Versatz den du zu der ermittelten Zeit in der DAW hinzuadierst.


    Grob und etwas ungenauer geht es dann doch wenn du dich 100% auf die Latenzangaben verlassen kannst.
    Aber das kannst du bei Asio4all nicht.

    Du meinst wohl 3ms. 0,3 gibt's nicht.

    ne ich meine schon 0,3ms. Runden auf 1/100ms reicht mir. Genaugenommen sinds dann 0,333ms bei 32Samples und 96kHz.
    Aber mein Rechner mochte erst ab 64 Samples arbeiten und da sind dann immer noch 0,6ms (gerundet)

    Unterschiedliche Latenzen bei unterschiedlichen Interfaces liegen an der Latenz der Wandler, der Datenübertragung (bei USB und FW höher als bei PCI)
    Manche Treiber zeigen nur eine, manche auch 3 Nachkommastellen an.
    Wenn man einen flotten Rechner und ein gutes PCI Interface hat, welches mit 196kHz und 32 Samples Speicher klarkommt, kommt man unter 0,2ms,

    das darf man dann auch als Echtzeit betrachten.

    Schneller ist das latenzfreie Hardwaremonitoring auch nicht welches die Hersteller so nennen.


    Ein Behringer X32 zb. hat eine Round Trip Latency von 0,8ms. Die RME PCIKarten dürften vermutlich ähnliche bis leicht bessere Werte haben.


    Ich kann mir nicht vorstellen, daß die Wandler von Onboard-Soundchips so lahm sind

    Die Werte, die A4A rausgibt sind die reinen Treiber-Latenzen ohne DAC.

    doch, sie sind deutlich langsamer als zb. die RME Wandler. Alleine schon mangels Hardwarebuffer
    Aber das ist weniger das Problem als die WDM Treiber von Windows, die A4A ja nutzen muss.
    Mit A4A sind Latenzen von >20-100ms normal. Abhängig vom Motherboard, DAC, Ram, CPU und wo die Daten sonst noch überall durch müssen.

    die 3ms, die fälschlicherweise auf seiner Webseite stehen, kommen nicht hin.

    Interessant, Wusste ich nicht.
    Falls das stimmt kann man sich streiten ob einem die 2ms wert sind einen tausender für ein Roland auszugeben wo man dann wieder von der Hardware abhängig ist.


    Ursprünglich gings ja nur um eine Verbesserung der Latenz in einen spielbaren Bereich.
    Da gibt es zwischen der Obergrenze TD50 und einem Babyface mit Oberklassewandlern noch viel dazwischen.
    Mit einer gebrauchten Juli@ PCI Karte für 100 Euro kommt man bei 96kHz/64Samples auch unter 0,3ms.


    Wenn ich auf niedrige Latenzen aus wäre, würde ich immer eine PCIe Karte vorziehen.
    Abgesehen von kleineren Latenzen belasten diese auch die CPU nicht.


    Da reicht dann vielleicht sogar das Medeli Modul um unter 12ms zu kommen je nach Rechner.
    Verglichen mit einem A4a Treiber und Realtek/NVidia Onboardsound sind das Welten und das für kleines Geld.

    Mensch Beeble, ich erkenne langsam Parallelen zu Trommeltotti, nur andersrum.

    Ja ne..ich hab ja nix gegen, Zitat" veralterte rückständige Technik" =-)
    Ich nutze sowas ja selbst.


    um mit dem Alesis-Medeli-Klump halbweg bei Richtung 10ms zu bleiben ein... RME Babyface Pro

    da würde ich dann doch besser deinem Vorschlag folgen und ein eDrumin nehmen. Dazu ein mittelpreisiges Interface wie zb das NI Komplete, damit schaffst du auch 4ms und musst nicht gleich 700 Euro und in neue Rechnerhardware investieren.
    Der Vorteil des unterschätzten eDrumin ist, das es nicht nur das schnelltste ist, sondern auch das es mit jeder Hardware kompatibel ist

    und du nicht an überteuerte Rolandhardware gebunden bist.

    Ja, die in Reaper angezeigten Werte sind falsch.
    Ich kenne deine Rechnerhardware nicht und auch nicht die Konfiguration.
    Aber ich garantiere dir das du nicht unter 20ms kommst vom Schlag aufs Pad bis du den Ton des VSTi hörst.


    Ab ca. 12ms nimmt man eine Verzögerung wahr. Empfindliche Geister empfinden 8ms schon als störend.
    Es ist auch eine subjektive und gewohnheitsbedingte Geschichte.
    Eine Kirchenorgel hat noch höhere Latenzen und selbst mit 100ms schaffen es Organisten da zu solieren.

    Ja, aber wenn es 1 ms dauert,

    genau das weiß man erst wenn man eine Loopbackaufnahme macht:
    Man spielt ein Signal in der DAW ab, schickt es über den Ausgang raus und direkt in den Eingang wieder rein und nimmt es auf einer weiteren Spur auf.
    Jetzt kann man den zeitlichen Versatz messen.

    Nein, das schrottige Millenium macht weniger aus als der schrottige Kompromiss mit den WDM Treibern des Onboardsounds und der Asioemulation.
    Selbst wenn der Unterschied 10ms bei den Modulen ausmacht, bleibt die Bremse dein Soundchip.

    Asio wurde entwickelt um eine direkte Komunikation zwischen dem Audiodevice und der DAW zu schaffen, völlig an Windows vorbei.
    Diese nutzen einen Hardwarbuffer, den Onboardkarten nicht haben, weil sie ihn nicht benötigen um Audio zu streamen.
    Asio4all greift auf den Windows WDM Treiber zu, fängt dort den Audiostream ab und generiert einen Softwarebuffer.
    Das kostet sehr viel Zeit und diese Zeit kann A4A nicht kennen geschweige denn anzeigen, sie kommt aber on Top noch zu der in der DAW angezeigten Zeit hinzu.
    Je nach Rechner sind das locker nochmal 20ms und weit mehr. Auf meinem i5 damals getestet schwankte die Latenz zwischen ca. 60ms und 120ms, je nach Last
    (unkonstante Latenzen machen das ganze noch unbenutzbarer)
    Deine Latenz setzt sich zusammen aus Modul, WDM, Asio4all und ist zusätzlich abhängig von der Rechnerhardware und Performance.

    Ein gutes Interface mit brauchbaren Treibern kostet ja auch nicht die Welt. Abgesehen davon, das du dann auch mal guten Sound hast.

    Ich habe bei meinem Billig-Drum-Modul (Millenium 150x) die Latenz gemessen.

    Du hast nicht die Latenz gemessen, sondern den zeitlichen Versatz dieser beiden Signale.

    daß das Hauptproblem nicht Asio4All ist

    doch, das ist das Hauptproblem. Die Werte die Asio4all anzeigt sind nur Hausnummern.

    sondern die Latenz des Drummoduls.

    die auch.

    Jetzt musst du noch dein getriggertes VSTi aufnehmen und dann mal den Abstand zwischen Midi und Ausgabe VSTi messen.
    So wirst du auf Werte irgendwo zwischen 30ms und >200ms kommen.
    Werte von 0,8ms sind mit Asio4all und Onboardsound nicht möglich.

    Also habe ich da eine Bohrung angebracht, Gewinde reingeschnitten und den Winkel, mit einer Madenschraube fixiert.

    Genial!

    Ich stelle da auch den praktischen Nutzen vor die Optik.

    Galgen kürzen am Rack ist kein Problem, da man kein Gegengewicht bei schweren Becken benötigt.
    Bei losen Ständern funktioniert das nicht. Mein Roadpro hällt ohne Galgengewicht das schwere Ride nicht.

    Ich habe hier noch ein galvanisches Graviergerät, damit lassen sich Markierungen dauerhaft und unzerstörbar aufbringen.
    Beim Wisch und Wasserfesten Edding halten die Markierungen nur wenige Aufbauten, da sie durch die Reibung an den Kunststoffführungen abreiben.