Beiträge von Beeble

    Ich habe mich bisher nicht getraut, im Proberaum mit einem für alle hörbaren Click zu kommen. Wäre evtl. doch mal einen Versuch wert.

    das solltest du aber schleunigst machen. Lass die auch mal Solo zum Klick ihren Kram spielen und hört euch das an.
    Ich spiele überweigend mit Klick und muss nicht versuchen gegenzusteuern.

    Das ist auch schwer man keinen gemeinsamen Bezugspunkt hat.
    Der Bezugspunkt bin ich. Die anderen brauchen keinen Klick (mehr)

    Ohne Klick hat der Drummer auch keine Sicherheit, 100% das Tempo zu halten wenn die anderen weglaufen.

    Man kann sich zwar anpassen und versuchen gegenzusteuern, löst aber das Problem der anderen nicht.

    Ich habe mir damit meine beiden Bands zu sehr timingstabilen und tighten Musikern gepimt.
    Jetzt klappt es auch ohne Klick deutlich besser, weil alle konditioniert sind, auf die Drums zu achten.


    Fragt mal im Musikerkreis wer mit Klick übt.
    Das Ergebniss ist erschreckend. :)

    Sind denn die Ergebnisse von Moises so schlimm?

    jain. Fürs raushören und für Playalongs dürfte das locker reichen. Bedarf halt keiner tiefergehenden Einarbeitung.
    Bei Tools wie SL ist schon sehr intensives Einarbeiten nötig, ebenso wie tontechnische Skills.
    Dafür sind die Ergebnisse auch besser. SL hat auch einen anderen Fokus als Moises.

    Gibt es ggf. einen anderen oder schnelleren Weg für SSD5? Vielleicht in Cubase? Meine Kenntnissse in Cubase sind eher rudimentär, daher frage ich.

    Du kannst auch einen der vielen VST Hostprogramme nehmen, dann musst du nicht die fette DAW mitschleppen.

    Unterm Strich dürfte das aber eher auf Windows einen Vorteil bringen. Auf dem Mac läd Cubase ja recht flott.

    Ansonsten verstehe ich nicht wieso du jedes mal ein neues Projekt anlegst.
    Autostart der .cpr oder Autostart des VST Host ist doch viel bequemer.
    Man darf Projekte die man immer wieder verwendet auch speichern. ;)

    Auch in "analogen" Studios wird digital aufgezeichnet. Kein Mensch der damit seine Brötchen verdient kann es sich finanziell und zeitlich leisten mit Bandmaschinen zu hantieren.

    Und 1000 Plugins kann man zwar haben und gerade Anfänger haben die auch, da sammelt man halt noch alles was einem vor die Flinte kommt, aber spätestens wenn man weiss was man tut, reduziert sich das recht schnell wieder aufs nötigste. Wie Marius schon sagte, man kann auch digital nahezu so arbeiten wie damals gearbeitet wurde.
    Das mehr an Möglichkeiten heute, hätten die damals vor 40 Jahren auch gerne gehabt.


    Die Beatleszeiten, wo man Wochenlang im Studio rumlungerte und experimentierte sind vorbei.

    1. weil man heute schneller und besser produzieren kann und

    2. weil man schon alles weiß, was in den 50er bis 90er noch mühsam improvisiert, experimentiert und entwickelt werden musste.


    Produktionen wie das oben verlinkte DeWolf Dingen oder zb. die Volto Incitare, wo sogar alte Geräte extra für die Produktion zusammengetragen und restauriert wurden,

    kann man sich nur Leisten wenn man als Musiker und Produzent schon genug verdient hat um sowas aus Spass an der Sache umzusetzen.
    Geld kann man so heute nicht mehr verdienen.

    oder man letztlich nehmen muss, was das tool dann ausspuckt ?

    natürlich nicht, Spectral Layers ist eine Profisoftware und bietet sehr genaue Bearbeitung.
    Kommt vom Umfang etwa dem RX11Standard vom iZotope nah, ist aber preiswerter.

    Teste doch mal kostenlos.

    Ist auch nicht mit Moises zu vergleichen.

    Moises ist ja eher so Consumer Werkzeug fürs Grobe, quick&dirty halt.

    Dass wegen der Einfachheit, Kostengünstigkeit und Schnelligkeit der Digitaltechnik eben auch sehr viel mehr Müll als früher produziert wird - dafür kann die Digitaltechnik aber nichts! Es ist wie mit allen anderen technischen Errungenschaften auch - es kommt einfach darauf an, wer das wie zu welchem Zweck benutzt.

    ein sehr richtiger und wichtiger Satz!

    die DDrum Pro Snare Trgger haben auch Rimtrigger und funktionieren hervorragend.
    Ob die fast baugleichen von Triggerhead genausogut gut funktionieren müsste man mal testen.
    Da gibts den ganzen 5teiligen Satz für 100 Euro.


    Innentrigger bzw Schienensysteme funktionieren nur mit Meshfellen.

    Gas-Heizstrahler wäre tatsächlich vom Veranstalter nicht erlaubt gewesen (wegen Weihnachtsdeko auf der Bühne)...

    dann wäre das für mich der falsche Veranstalter. Dem seine Deko wichtiger ist als das wohlbefinden seiner Musiker, oder dem eine Brandwache zu teuer ist.

    An dem Video vom SAE mit direkter Bandaufnahme vs raw digital stört mich, das es kein Vergleich ist, sondern lediglich den Unterschied zwischen reinem unbearbeitetem Audiosignal und einer Bandsättigung abbildet.
    Würde man das ganze wissenschaftlich angehen, müsste man in der der DAW natürlich auch eine Bandsättigung einsetzen, im besten Fall mit dem Pendant der verwendeten Studer. Im Video sagt er sogar noch das er ordentlich in die Sättigung fährt, so das das Signal natürlich nicht mehr dem Original entspricht.

    Während in der DAW das Signal nahezu unverfälscht aufgenommen wurde.


    In einer Mixsession verwendet man sehr wohl auch Nachbildungen analoger Vorbilder, die sich exakt so verhalten wie ihr Hardware Pendant.
    Heutzutage wird oftmal hybrid gearbeitet. Man verwendet sowohl Plugins als auch analoge Hardware.
    Das recorden in eine DAW hat keine Nachteile und bietet wesentliche Vorteile gegenüber Bandmaschinen, wie unbegrenzte Spuren, editing welches so anlog unmöglich ist.
    Vor allem ist es schneller, preiswerter und Soundtechnisch überlegen.

    Das analog subjektiv "besser" klingt, ist Sache des Geschmacks und vor allem wie man digital produziert.
    Andrew Sheps ist schon vor Jahren weg von analoger Produktion, weil es keinen Unterschied macht ob man analoges Outgear oder deren 100% modelierte Plugin Pentants benutzt.

    Der Grund, weswegen in Studios noch Hardware zu finden ist, ist überwiegend der Tatsache geschuldet, das man die Geräte kennt, haptisches Arbeiten damit schneller und einfacher ist und weil es einfach tolle Geräte sind mit denen man schon seit Jahrzehnten vertraut ist.


    Eine Schallplatte ist technisch einer CD weit unterlegen. Sie klingt auf Grund ihrer physikalischen Beschränkungen anders, aber nicht "besser"
    Eine CD kann man so produzieren, das sie klingt wie eine Schallplatte. Wird aber sicher nicht oft vorkommen, da man sich die Möglicheiten die man hat auch eher zu Nutzen macht, Wie höhere Dynamik, keine Beschränkungen der Frequenzverteilung im Panorama, sehr hoher Rauschabstand und vieles mehr.

    Im Proberaum hatten wir aber eigentlich nie Probleme mit dem eingebauten WLAN.

    mit wie vielen Geräten greift ihr denn auf den Router zu?
    Bei 4 Musikern, die mit ihren Geräten aufs Wlan zugreifen hat es noch nie funktioniert, bei diversen X18, XR18 ebensowenig wie auch beim Xr12.
    Bereits ab 2 Geräten fliegt immer einer raus.

    Beim Aufnehmen habe ich da bisher meist nicht so auf die Phasenlage geachtet

    das bezog sich auf nach der Aufnahme, das ich die Snare dann gegebenenfalls noch nach den OH ausrichte. Zumindest war das bisher immer so. Aber ich gehe jetzt auch mal andere Wege, siehe unten.

    Hast Du da auch einen Favoriten beim Beispiel 2? Was hörst du an Unterschied?

    nein, abgesehen das die verschobene 1-2dB lauter ist, klingen die beide anders gut. Ich habe da keinen Favoriten, weil mir das so marginal wenig ist, das ich den Aufwand nicht betreiben würde.

    Allerdings produziere ich Genrebedingt meine Kapellen auch sehr hart und nutze fast immer noch zusätzlich Samples. So das am Ende die OH nur für die Becken zuständig sind und Bleeding keine oder kaum eine Rolle spielt.
    Die Samples werden allerdings genau auf den jeweiligen Kessel ausgerichtet und nur zum anfetten zugemischt.

    Ich tue mich nur etwas schwer mit hohen Becken was dem Sound sicher besser bekommen würde.
    Ich habe den Luxus eines 200m² und 3,6m hohen Raumes mit leichter Dämpfung und kämpfe weiterhin mit Mikropositionen.

    Und mit dem HH/Snare Bleed kämpfe ich schon immer.


    Langsam komme ich auch davon weg, die OH nach der Snare zu positionieren und sie dort zu stellen, wo die Becken gut eingefangen werden.

    Aber meinen Weg habe ich da noch nicht gefunden.

    Interessante Philosophie mit einigen Fragen.

    So wie du das handhabst habe ich das noch nie betrachtet, klingt interessant.


    Wo ist bei einem Schlagzeug eine Stereomitte? ;)

    Zumindest habe ich ein gutes Dutzend Monosignale und lege im Mix mein Panorama fest.

    Üblicherweise aus technischen Gründen die BD in die Mitte, Die Sanre meistens auch (warum eigentlich?)

    Bei den OHs wenn A/B abgenommen, handhabe ich es sicher wie du und achte auf gleiche Laufzeiten zur Snare.

    Dabei achte ich wie du meist auf Phasentreue zu den OHs (aber nur beim top)


    Wenn du jetzt aber jedes Tom und vielleicht die HH versuchst in Phase zu bringen, mit dem OH welches am nächsten ist, dann verbiegst du doch zwangsläufig auch die Positionen!? Und wie würdest du es zb. bei X/Y handhaben?


    In deinen Beispielen ist die Version 1A und 2B jeweils phasenkorigiert?
    In Beispiel 1 mit nur Toms höre ich kaum einen Unterschied. Zumindest kein besser oder schlechter.

    In Beispiel 2 hört man es an der Snare und auch an der BD.

    • Nein, die Latenzkompensation lässt sich nicht abschalten, in keiner DAW. Das ist der Grund weswegen man die Asioschnittstelle erfunden hat.
    • Nicht verwechseln mit "Latenzausgleich einschränken" oder ähnlicher Begriffe. Das betrifft nur VSTs und VSTi , da immer das langsamste Plugin die gesamte Verzögerung bestimmt.
    • Aus den Screenshots lässt sich nicht zwingend der tatsächiche Vorgang abbilden. Es handelt sich lediglich um eine Darstellung deren Algorithmen zur Berechnung und Darstellung wir nicht kennen. Um objektive zuverlässige Werte zu erhalten, müßte man die Signale zb. mit einem Oszilloskop messen, um den tatsächlichen Versatz zu bestimmen.
    • es spielt keine Rolle ob der Signalweg zur DAW 1ms oder 1000ms beträgt. Die Synchronität bleibt gewahrt.
    • Latenz spielt hier ausschliesslich eine Rolle beim direkten mithören über die DAW (Monitormix)
      - beim einspielen und direktem Mithören von Midizuspielern.

    Wo kommen diese Latenzen her? Ich nehme an um den Audiobuffer geht es hier nicht?

    Leider doch. Ich habe diese Info aus einem Forum wo die Latenz des L20 diskutiert wurde.

    Gemessen mit Cubase wurden bei 48kHz:

    - 64 samples - 12,875ms
    - 96 samples - 14,208ms
    - 128 samples - 15,542ms
    - 256 samples -20,875ms
    - 512 samples - 31,542ms
    - 1024 samples - 52,875ms

    das ganze mit eingeschaltetem compliant mode und den Zoom Treibern. -Stand März 23

    Wir nehmen .. auf die SD Karte auf. .. Ein "Latenzproblem" gibt es nicht,

    natürlich nicht, wenn man auf die interne Karte schreibt.


    Angeblich, laut einiger Nutzer die das gemessen haben, hat das L20 bereits eine interne Latenz von ca 3ms. Zum Vergleich, ein X32 hat rund 0,8ms MIT Channelstrip.
    Selbst mit Nutzung aufwändiger Effektplugins bleibt man weit unter 3ms.


    Vorsicht Falle: Konsolen wie die preiswerten Behringer, Yamahas, Presonus usw. haben keine Latenzkompensation. Das findet man eher bei den Profigeräten.

    Das bedeutet, das bei Parrallelbearbeitung (man schickt das Signal gleichzeitig direkt auf den Masterout und in einen Effektbus) die Laufzeiten abhängig der Plugins unterschiedlich lang sind. Das ist nicht schlimm wenn man weiß wie man es umgehen kann. Ansonsten wundert man sich über unschöne Kammfiltereffekte.