Beiträge von Nick74

    Kleine Randnotiz: Im EZD3.0 das Preset von TD-27 auf TD-50 gewechselt bringt schon mal solideres Triggering.

    Was ist denn "solideres Triggering"?

    Bei den Roland-eDrum-Presets geht es nur ums Noten-Mapping; die haben mit Dynamik nichts zu tun.

    Die EZ3-Roland-Presets sind quasi alle gleich, da das Mapping für alle Roland-Module grundlegend immer dasselbe ist. Die Presets für die größeren Module haben höchstens die zusätzlichen Tom/Aux-Inputs zusätzlich gemappt.

    Weiterentwickelt werden eigentlich alle Unmix-Algos (zumindest von den bedeutenderen Herstellern). Man darf gespannt sein, wie's qualitativ in ein paar Jahren aussieht.


    Der Cubase-Erklärbär hat übrigens ein paar umfangreiche SpectraLayers11Pro-Tutorials auf deutsch, wo auch das Transferwerkzeug mit drin ist (LINK).

    Wenn ich gerade ältere Aufnahmen Layere sind die Drums eben teilweise nicht vollständig (v.a. HiHat oder Ride) extrahiert bzw. gehen irgend wie im Gemenge unter...daher wäre es interessant gewesen, ob sich jemand damit schonmal auseinander gesetzt haben, wie man diese (sicher schon sehr guten Layers) eben noch weiter verbessern kann.

    Wenn deine Quellen so schwierig für die Unmix-Module sind, bleibt dir nur manuelles Geschnippel. Probier's doch einfach aus.

    Sind denn die Ergebnisse von Moises so schlimm? Wundere mich gerade......


    Wie wär's mit einem 1 zu 1 - Vergleich mit SpectraLayers? Ergebnis können wir ja hier als Audio posten.


    Es gibt zwar schon so einge Vergleichsvideos (z.B. RipX vs. SpectraLayers vs. Moises vs. Fadr) was einzelne Stems anbelangt, aber bei reinem Drumless-Vergleich sieht's dünne aus. Besonders interessant sind hierbei für den Algo schwierige Musikproduktionen. @3OakDrum: poste doch mal deine.

    Bei Tools wie SL ist schon sehr intensives Einarbeiten nötig, ebenso wie tontechnische Skills.

    Für 'Unmix Song' muß man das natürlich nicht! - deswegen ist es ja AI ;) .


    Die spekralen Audio-Editing-Möglichkeiten des Programms sind natürlich manuelles Editing und haben erstmal rein gar nichts mit den Unmix-AI-Algos zu tun.

    Sollte doch dasselbe sein: die AI macht doch auch nichts anderes bzw. ob sowas wie Moises jetzt direkt in einem Rechen-Schritt den Drumless-Track ausspuckt oder intern zuerst einen Drum-Stem generiert und den in einem zweiten Schritt mit Phase-Invert mit dem Rest nullen läßt, sollte rechenmäßig komplett gleich sein.

    Das hier ist frisch reingekommen von meinem Lieblings-Reaper-Kenny:


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Wenn man sich nicht vollends auf die automatische Variante verlassen will, kann man auch probieren sich die Drums rausfiltern zu lassen

    Du meinst von einer Nicht-AI-Instanz (z.B. einem darauf spezialisierten Audio-Engineer)? Alles andere sind doch AI-Algorithmen, ob jetzt im Rahmen eines kostenpflichtigen oder kostenlosen Programms/DAW auf dem eigenen Rechner oder kostenlosen/kostenpflichtigen Internet-Seiten.

    Inwieweit meinst du ist eine Nicht-AI-Instanz auf dem Gebiet 'Song-Unmixing' besser und artefaktfreier als eine AI? Ich denke, es kommt ganz einfach auf die AI bzw. den jeweiligen Algorithmus an, inwieweit das Ganze qualitativ klargeht oder überzeugt. Man bekommt mit Tools, bei denen man settings-mäßig für das Entfernen von Instrumenten Parameter verändern kann (wie z.B. "Unmix Drums" von Zynaptiq, mit welchem ich auch arbeite) letztendlich auch nichts Besseres hin als das Ergebnis eines exzellenten Blackbox-AI-Algos, der für Musikstück X halt einfach überzeugend funktioniert. Wenn er für X lediglich verbesserungswürdige Ergebnisse bringt, teste ich halt ein anderes AI-Tool, ob es das besser macht.

    Frage war ja gibt es z.B. ein Tutorial das sich mit der Optimierung eines DRUM Layers beschäftigt (also nach dem Du den "Zieh mir die Drums mal automatisch raus"-Button gedrückt hast)

    Du kannst doch in jedem Fall einzelne Stems/Layers mit den Tools deiner Wahl (also auch mit Audio-Tools ganz unabhängig von "SpectraLayers") audio-bearbeiten. Unter dem was du mit "Optimierung" bezeichnest, kann man sich natürlich nichts vorstellen. Die Frage ist, was willst du erreichen? z.B. Frequenzen filtern? Transienten anspitzen? Stereo verbreitern oder soll Hall drauf?

    Was für eine Optimierung und was für Funktionen von A-Z? Du hast bei der Stem-Generierung ai-Algorithmus-mäßig drei Qualitäts-Optionen: Fast, High, Extreme. Was ist denn jetzt da dein "konkretes und spezifisches Problem"? Was die generelle Qualität der Trennung und Artefaktfreiheit anbelangt, kannst du ja die Tools/AIs, die der Markt bietet, vergleichen. Ich kann dir sagen, daß es komplette Artefaktfreiheit (also quasi Quell-Spuren-Zustand vor dem Mixing der jeweiligen Musikproduktion) nicht geben wird; du kannst ja auch nicht einen Kuchen backen und dann den fertigen Kuchen wieder so zerlegen, daß du dessen Zutaten wieder im ursprünglichen Zustand hast. Die hohe Qualität vieler Stem-Splitting-AI-Tools ist heutzutage schon absolut erstaunlich.

    Zitat

    Du kannst auch einen der vielen VST Hostprogramme nehmen, dann musst du nicht die fette DAW mitschleppen.

    Unterm Strich dürfte das aber eher auf Windows einen Vorteil bringen. Auf dem Mac läd Cubase ja recht flott.


    Bei Superschnellanspruch: man nehme einfach Reaper, das ist in ganz wenigen Sekunden gestartet (Haken raus bei Plugin-Scan beim Start). Es gibt für's eDrummen auch ansonsten nichts Besseres/Smarteres/Leichtgewichtigeres (*). Jegliche VST Hostprogramme haben sich damit IMO erübrigt.



    * (ist zwar OT, aber trotzdem mega gut zu wissen):

    latenzfreies Midi-Routing in alle erdenklichen Richtungen (z.B. von einer Spur auf die andere) möglich (nicht so bei z.B. Cubase)

    unerreichte (natürlich latenzfreie) Midi-Verbiegungs-Möglichkeiten

    Performancesieger (siehe z.B. dieses Vid) (auch in Sachen Echtzeit-Engine sehr gut)

    minimale Dateigrößen (vor allem unschlagbar kleine Programmgröße)

    Mobilität: Nimm komplett alles (Programm, (Plugins) und Projekt(e) auf USB-Stick mit und starte direkt ohne Kopieren auf einem anderen Computer; kann auch problemlos zwischen Win und Mac wechseln, wenn die benötigten Drittanbieter-Plugins vorhanden sind)

    DAW-Snapshot-Switching durch z.B. Midi-Events (wie bei LiveHosts (z.B. für SD3-Preset/Zustand-Wechsel ohne 'Preload to RAM'))

    Reaper ist was Funktionen, Aussehen und Workflow anbelangt extrem "customizable" (vergiß das mal in z.B. Cubase)

    VST2(i) , VST3(i) , AU(i) - plugin-fähig

    noch tausend andere Pluspunkte... (unter anderem Preis, der lächerlich niedrig ist, kein Subscription-Quatsch, keine sonstigen 'Limitations' und funzt auch als unlimitierte Demo: mit anderen Worten DIE eierlegende Wollmilchsau :)

    Du kannst doch dein DAW-Projekt auch auto-starten.


    Und ansonsten: wenn du dein Projekt als Alias auf'm Screen hast, dann denke ich, daß ein Doppelklick darauf so krass wenig aufwendiger ist, daß ein Beschweren und ein Post über den "Aufwand" viel zuviel Aufwand ist.

    Hat jemand das G9 schon mal im Live Einsatz verwendet und über Funk-Inear gespielt? Wie sieht es mit Latenz aus, geht das noch klar oder wird das problematisch? Bei uns in der Band würde es erst über die Direct Outs in unseren Mixer laufen (neues Behringer Wing) und dann über die Funkstrecke (Shure PSM 300) zu mir aufs Ohr laufen. Bis jetz spiel ich mit einem Roland TD20 und es passt wunderbar, da ist die Latenz aber auch deutlich niedriger (4ms)...

    Also erstmal sind die 9ms vom Gewa durchaus anders als 4ms, besonders wenn sie ein Teil einer Latenzkette sind.

    Hinzu kommen Wandlerlatenzen (wenn es ein Digital-Mixer ist), und bei den Funk-Inears kommt es dann auf die Latenzwerte von dem jeweiligen Gerät an - die billigeren sind eher lahmer. (Range: knappe Millisekunde bis hin zu 5 Millisekunden). Also bleibst du nur bei Analog-Pult zusammen mit den allerschnellsten Funk-IEs bei 10ms. Und 10ms ist IMO Obergrenze.

    Aber gibt es da Techniken, wie man die Layers nachbearbeiten kann bzw. wo kann man Infos bekommen wie man das macht ?

    Du weist schon, daß es YouTube gibt, mit haufenweise SpectraLayers-Videos/Tutorials?


    Und ein kurzer Blick auf die SpectraLayers-Webseite zeigt in der Vergleichstabelle einen Haken bei "Drums entmischen" und enthüllt, daß man dafür 'SpectraLayers Pro 11' braucht. Ist doch gar nicht so schwer, oder?