Beiträge von Matzdrums

    ich sehe auch die grenze bei 10ms, aber die ist ja durchaus realisierbar. was aber passiert da drunter? wie dramatisch ist der wechsel von 10 auf 8 oder 6ms im praktischen alltag? oder anders ausgedrückt: was hilft mir eine messbare zahl im geschehen? ab wann wirds objetiv hörbar? und ab wann reagiert man dadrauf als musiker? ich bin zb. beim video bearbeiten super kritisch was lipsync angeht. andere nehmen das gar nicht wahr.

    [video]

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
    [/video]

    also für mich stellen 9ms kein problem dar, vielleicht erkenne ich das auch nur nicht, das ich da ein problem habe? nicht falsch verstehen, es geht mir um die praktische auswirkung solcher messungen. ich fahre zb. gerade testweise einen live-mix statt pult über fw und macbook. latenzen zwischen 3 und 6 ms. ich komme da durchaus klar mit, glaube ich. gleicht das gehirn diese laufzeiten aus? ich sitze gerade auch gut 3 meter vom fernseher weg und empfinde die laufzeiten nicht als bedrohlich. oder: welche latnez hat eine akustische basstrommel? das pedal ist naja, n meter weit weg, den klang hört man in erster linie über reflexionen. trotzdem empfinde ich nicht, das ich zu spät auf die basstrommel trete wenn ich in einem größeren raum spielen. bzw. ich adaptiere das höchstens unbewusst. irgendwann aber werden aus den relexionen echos, und die nimmt man doch deutlich war. aber wo ist da die kritische masse erreicht, das man als musikant da aktiv gegensteuern muss?

    ich hab nur kurz drüber geguckt, es funktioniert wohl. allerdings muss ich immer per "search database" die sounds aktualisieren. komisch. zu allem überfluss hat toontrack eine sammlung an steven slate presets für sd 2.0 angekündigt bzw. auf der namm kostenlos verteilt. wer als sd 2.0 schon besitzt, kann sich die einarbeitung in den nicht gerade selbsterklärenden kontakt-player also evtl. sparen. genau wie die 20$ :S
    aber was man hat, das hat man :thumbup:

    Er erzählte mir neulich, dass er vorletztes Jahr 5-Mal mehr verdiente als Jetzt, alles aufrund der Tatsache, dass viele Leute die Musik nicht mehr hören und wenn dann ur noch Ggedownloadet wird!


    das ist kein metal-problem, im gegnteil. metalheads sind meistens ziemiche die-hards, die alles kaufen, was es zu haben gibt.

    du brauchst zwei artikulationen.
    closed pedal und hatstrig.


    1. closed pedal als artikulation aufrunfen, learn drücken. pedal treten.
    2. hatstrig als artikulation aufrufen, learn drücken. hihat-pad anschlagen. nicht treten.
    3. fertig.


    die dritte artikulation ist hatsctrl. diiese artikulation bezieht sich auf den cc-wert, den dein modul sendet. standardmässig werden da daten auf cc04 und cc00 ausgewertet. sendet dein modul auf einem anderen cc, musst du den wert per hand eintragen.

    audacity kann kein midi. cubase5 schon. wie das funktioniert, steht in der anleitung. unter geräte/geräte konfigurieren/midi muss dein interface auftauchen. dann eine midi-spur anlegen, eingang und ausgang richtig routen et voila. vorrausgesetzt, du hast die midi-kabel richtig herum angesteckt. mit f2 blendet man das transportfeld ein- und aus. in der rechten ecke gibts eine aktivitätsanzeige für midi.

    man muss cubase sagen, das es bitte alle ausgänge von superior separat als spuren darstellen soll. dazu drückt man f11 für die vst-instrumente, wählt superior aus und drückt auf den kleinen kasten enben dem blauen "E". da stehen dann die einzenlen ausgänge des plug-ins zur verfügung. damit die auch gleich heissen, setzt man in superior-mixer dann ein häkchen bei "multiout" (oder so ähnlich). frag jetzt aber nicht, wo die option ist, ich sitzte gerade nicht davor. wenn du die midi-information aufsplitten willst, gibt es in cubase eine entsprechende option einen midi-track nach tonhöhen aufzuteilen. ergibt dann für jede tonhöhe eine separate midispur.

    mit einem modul hat man natürlich auch den ein- oder anderen parameter zur verfügung. will man aber einen sample zu einem mic-signal zumischen, ohne einen trigger zu verwenden, benötigt man noch einen passenden splitter und so weiter. ist das praktisch?

    nein, da irrst du nicht. bei einem mikro braucht man u.u einen entsprechenden filter, den zb. drumagog oder auch der toontrack drumtracker gleich mitbringt. muss man dann eben entsprechend justieren. und vorher bezahlen.