Beiträge von m_tree

    Sehr interessant! Ich habe spaßeshalber mal eine Umfrage im Startbeitrag hinzugefügt. ;)


    Ich denke, dass es zwar einfach Geschmackssache, aber auch Gewöhnungssache ist. Sooo schlimm kann der dunkle Modus hier ja nun auch nicht sein und sooo schlimm ist der helle Modus eigentlich auch nicht, wie ich eben festgestellt habe. :D


    Natürlich sollte eine helle Schrift auf dunklem Hintergrund nicht die Lesbarkeit beeinträchtigen.

    Meine Website habe ich auch so gestaltet. Interessanterweise sollte man da auch nicht reines Schwarz und Weiß kombinieren. Das wäre zwar der maximale Kontrast, ist aber auch unangenehm für die Augen.

    … meine Grafikkarte zieht knapp 250 Watt und möchte ein 500W Netzteil, der 28“ Monitor liegt bei 25-50 W…

    Die 250W ist nur die TDP, also der Maximalverbrauch. Und der wird im 2D-Betrieb nicht annähernd erreicht. Beim Spielen bzw. allen 3D-Anwendungen schon eher, ja.


    Es gibt Programme, die derailierte Werte auslesen. Z.B. HWMonitor. Zusätzlich habe ich ein Messgerät vor dem PC-Netzteil: im Windows / Idle braucht mein Rechner insgesamt z.T. nur 50W und beim Zocken fast 300W. Der Unterschied entsteht hauptsächlich durch die Grafikkarte. Den Gehäuselüfter steuer ich über einen zusätzlichen Temperatursensor, den ich bei der Grafikkarte platziert habe (der hängt am Board).


    Ich hatte schon vor 20 Jahren an PCs rumgebastelt und mich mit Silent-Kühlung beschäftigt. ;)


    Wie gesagt kommt es immer auf die Anwendung an. Im Normalbetrieb dürften die Grafikchips aller modernen PCs, Smartphones und Tablets weniger verbrauchen als das Display.

    und die Grafikkarte zieht mehr als der Bildschirm.

    Das dürfte nur selten der Fall sein, z.B. wenn ein Spiel gespielt wird. Kommt also auf die Anwendung an. Aber ein sparsamer (in die CPU) integrierter GPU-Chip dürfte im 2D-Betrieb nur ein paar Watt brauchen, während ein großer und hell eingestellter Bildschirm sicher 30W und mehr verbraucht. Bei Smartphones dürfte sich das ähnlich verhalten (nur in kleineren Größenordnungen).


    Ansonsten sind Bildschirme / Displays halt sowieso dunkel im ausgeschalteten Zustand, während Papier eben hell ist. Da gibt's schon einen Unterschied.

    By the way - meine DAW und mein Videoprogramm nutzen standardmäßig auch ein dunkles Design.


    Buchdruck unterscheidet sich da auch grundsätzlich, weil Papier von Natur aus hell und Tinte von Natur aus dunkel ist. Aber vor allem leuchtet da nix, während Displays halt künstliches Licht erzeugen. ;)

    Bei Büchern ist das was anderes, find ich (ich lese auch ab und an noch gedruckte Schrift auf Papier).


    Aber auf Internetseiten find ich so helle Hintergründe mittlerweile schrecklich.

    Bei Office-Programmen stört mich das wiederum nicht. Ist sicher auch Gewöhngssache.


    Aber nach dem was man so durch Recherche rausfindet sind dunkle Hintergründe auf Websiten schon angenehmer für die Augen. Da geht's nicht nur um Akkulaufzeit und Tageszeit.


    Letztendlich ist's mir aber wurscht. Und vielleicht auch ganz gut, wenn nicht so viele Leute hier aktiv sind.

    *Update: Ich hab just for fun mal eine Umfrage hinzugefügt. :)


    Siehe Threadtitel ... ich bin der Meinung, dass der helle Stil nicht mehr zeitgemäß ist und bekomme damit unweigerlich den Gedanken "da kriegt man ja Augenkrebs". Würde daher den dunklen Stil als Standard festlegen. Scheinbar sind ja sowieso immer deutlich mehr Besucher als Benutzer online - z.B. eben "17 Mitglieder (davon 2 unsichtbar) und 1.487 Besucher".

    Ich kenn die DAW nicht, die du da benutzt, aber seh ich das richtig, dass du für zumindest Kick und die restlichen Trommeln einen eigenen reverb hast? (Oder was sonst bedeutet Kick rev und sn+Tom rev?)

    Das ist REAPER. 8)


    Und ja, das siehst du richtig. Im Normalfall habe ich auch für Snare und Toms getrennte Reverbs, aber ich hatte das ja nur für den Screenshot erstellt.

    Farben, Namen und eine übersichtliche Anordnung der Tracks sind übrigens wirklich hilfreich. Für andere Instrumente und Gesang dann andere Farben.


    Ein separater Snare-Reverb hat auch den Vorteil, dass man da vor dem Reverb noch ein Gate drauf machen kann, wenn man die Snare ansonsten nicht gated, aber die Ghostnotes und den Spill nicht so verhallen möchte. Den Reverb mit einem Snare-Sample zu füttern klingt m.E. aber am besten. Sowas habe ich mir übrigens auch nur von den "Schwergewichten" abgeschaut. ;)

    Dieser Thread dient als Hilfestellung für die Teilnahme an Challenges (siehe Hörzone) und soll eine kurze Übersicht für den Mixdown geben. Natürlich ist das von meiner eigenen Herangehensweise geprägt. Vieles ist Geschmackssache.


    Der Thread kann für weitere Fragen und Antworten genutzt werden!


    Ich gehe davon aus, dass mit einer DAW gearbeitet wird. Raummikrofone lass ich hier außen vor. Falls jemand so umfangreich mikrofoniert, ist er/sie wahrscheinlich sowieso nicht auf diesen Leitfaden hier angewiesen.


    1. Vorbereitung

    • Alle Spuren sollten Übersteuerungsfrei sein, Normalisieren ist bei vernünftigen Pegeln nicht nötig.
    • Anlegen einer geeigneten Track-Struktur mit mindestens einem Haupt-Bus: Mehrere Tracks werden in einem Haupttrack (Bus / Ordner) zusammengefasst, sozusagen ein Submasterbus. Diesen durchlaufen alle untergeordneten Tracks, wodurch man sie gemeinsam bearbeiten kann (siehe Screenshot unten).
    • Tracks pannen (Stereo-Overheads i.d.R. 100% L/R) und statische Pegel für einen Rohmix einstellen, ohne dass der Drumbus / Masterbus (Fader auf 0 dB) übersteuert. Zusätzliche Spuren wie z.B. den Snare-Teppich und Bassdrum-außen mische ich erstmal etwa 10 dB leiser als die jeweilige Hauptspur hinzu (bezogen auf die Peaks - wo die Fader stehen spielt keine Rolle).
    • Phasenlagen checken und anpassen -> zwei Möglichkeiten (Aligning und Phasendreher oder nur Phasendreher): mehrere Mikrofone an unterschiedlichen Positionen haben Laufzeitdifferenzen zur Folge (alle Stereofonie-Verfahren außer XY machen sich das zu Nutze), mehrere Mikrofone an einer Trommel haben u.U. entgegengesetzte Phasenlagen zur Folge. Das klassische Beispiel ist eine oben und unten mikrofonierte Snare. Unabhängig davon in welchem Winkel die Mikrofone zueinander stehen, muss die Phase bei einem der Mikros gedreht werden, denn die Felle stehen immer genau 180° zueinander. Macht man das nicht, löschen sich die Phasen gegenseitig aus und es geht vor allem Druck im unteren Frequenzbereich verloren. Eine Möglichkeit, die Laufzeitdifferenzen auszugleichen, ist das so genannte Aligning. Es geht allerdings auch ohne (zu analogen Tonbandzeiten ging das auch und im Livebetrieb sowieso). Ohne Aligning müssen die Phasenlagen nach Gehör gecheckt und ggf. gezielt gedreht werden. Mir reicht meistens schon ein Phasendreher der Overheads, den ich mit meinen MK-012 sowieso ab Werk habe.


    2. Bearbeitung mit Gates, Equalizer, Kompressor, Sättigung

    • ggf. Säubern der einzelnen Spuren mit Gates und/oder Automation: die Bassdrum kann man meistens gut gaten, bei der Snare kommt es drauf an. Wenn Ghostnotes eine große Rolle spielen, sollte die Snare eher nicht gegated werden. Wenn die Hi-Hat stark ins Snare-Mikro überspricht und Ghostnotes keine Rolle spielen, macht sich ein Gate gut. Das Gate muss nicht 100% Wet eingestellt sein, d.h. es kann ruhig auch einen Teil des unbearbeiteten Signals durchlassen. Mit einer DAW kann man "Look Ahead" oder "Pre Open" nutzen, damit das Gate schon ein paar Millisekunden vor der Transiente öffnet und nichts verloren geht. Toms können wahlweise mit Gates oder Lautstärke-Automation (oder auch Schneiden der Spuren) gesäubert werden.
    • EQing der einzelnen Spuren: Low-Cut / High-Pass benutze ich nur noch auf reinen Beckenspuren wie beim Hi-Hat-Mikro. Im Regelfall betone ich auf Trommelspuren vor allem Präsenzen (z.B. bei 6 kHz), wobei der typische Cut bei z.B. 400 Hz auf Bassdrum-Spuren meistens nicht fehlen sollte. Auf Beckenspuren (Overheads inbegriffen) senke ich nur Bässe und untere Mitten mit einem Shelf ab, damit die Becken durch Boosts nicht zu scharf und aufdringlich klingen. Sind keine Tom-Mikrofone (oder ganz und gar auch kein Snare-Mikrofon) vorhanden, spielen die Overheads die Hauptrolle für den Gesamtsound und sollten eher natürlich belassen werden. Und man muss auch nicht jeden Track einzeln mit EQ bearbeiten, wenn das nicht notwendig ist (auch nicht mit Low-Cuts).
    • Auf einzelne Kompression der Spuren verzichte ich.
    • Drumbus:
      1. Sättigen und Leveln: Tape und Soft-Clipping (siehe Screenshot und Effekt-Empfehlung)
      2. Komprimieren: schnelle Release-Zeit (z.B. 50-100ms) mit z.B. 4:1 und 2-5 dB Gainreduction. Die Attackzeit hängt sehr von der Bauart des Kompressors ab - ich bevorzuge hier mittlerweile einen 1176, der bekanntlich extrem schnelle Attackzeiten hat. Alternative: Parallelkompression innerhalb des Mixes (siehe Punkt 3)
      3. Bässe und Höhen betonen: "Badewanne" mit dem "großen Pinsel" (breit) - hier bevorzuge ich einen passiven EQ (siehe unten)
    • Anpassen der statischen Pegel: für gewöhnlich müssen die Trommelspuren nach der weiteren Bearbeitung etwas lauter bzw. die Overheads und Beckenspuren etwas leiser gemacht werden.


    3. Verfeinern und Abschließen (parallele Tracks, Automation)

    • parallele Tracks: es gibt ein paar Dinge, die üblicherweise auf parallelen Tracks dazu gemischt werden. Dazu legt man einen leeren Track an, schickt dorthin einen oder auch mehrere Tracks mit Sends (siehe Screenshot unten) und bearbeitet den Track mit Effekten.
    • Reverb wird im Regelfall parallel dazu gemischt. Oft ist nach dem Reverb ein bisschen EQ ganz gut, viele Reverb-Plugins haben aber auch schon EQs eingebaut.
    • Parallelkompression wird - wie der Name schon sagt - parallel dazu gemischt. Ich nutze das mittlerweile nur noch für die Bassdrum, wenn überhaupt. Aber man kann das natürlich auch für das gesamte Schlagzeug nutzen. Üblicherweise sollte der Kompressor hier ordentlich zupacken, hohe Ratios (bis hin zu Limiting) und hohe Gainreductions mit 10-20 dB sind hier üblich und passend. Die Attackzeit bestimmt hier erheblich, was am Ende betont wird. Eine lange Attackzeit betont logischerweise die lauten Transienten, während eine sehr kurze Attackzeit die leisen Anteile (Ghostnotes, Sustain, Becken) betont. Anschließend kann man das ganze auch noch mit EQ weiter bearbeiten (sog. "New York Compression").
    • Mit Automation, vor allem Lautstärke-Automation, kann man weitere Anpassungen vornehmen. Z.B. wenn der Snare-Reverb in den Refrains lauter sein soll oder das gesamte Schlagzeug bei wichtigen Fills lauter sein soll. Oder wenn bestimmte Becken irgendwo zu leise oder zu laut sind. Typischerweise kann man auch eine sehr dynamische Hi-Hat damit in den Griff bekommen, indem man die Lautstärke des Hi-Hat-Mikrofons automatisiert.


    Das ist eine gute Grundlage, um das Schlagzeug z.B. in einen Bandmix einzufügen. Die hier beschriebene Effektkette berücksichtigt weitere Bearbeitung des gesamten Mixes (Drums + restliche Band bzw. Playalong) auf dem Masterbus mit Kompression, EQing, Sättigung / Tape. Der Mix wäre also erst durch weitere Bearbeitung abgeschlossen, die ich mit meinem Mastering für die Challenges aber sowieso mache.


    Hier mal ein Screenshot. Die Mix-Struktur habe ich nur beispielhaft erstellt (meine Mischungen sind i.d.R. etwas umfangreicher).



    Weitere Hinweise:

    • Gain-Staging beachten! Es sollte nirgendwo Übersteuern und immer genug Headroom vorhanden sein. Auch innerhalb von Plugins und Effektketten. Macht man bspw. mit einem EQ heftige Boosts, muss der Gain im Plugin wahrscheinlich etwas runtergeregelt werden, damit es nicht zu knapp wird.
    • Normalisieren ist meistens nicht nötig. Lauter machen kann man Spuren und (Sub-)Mixes ganz schnell mit einem Limiter, Clipper usw.
    • Beim EQing ist grundsätzlich eine Mischung aus Cuts (Absenken) und Boosts (Anheben) empfehlenswert. Mit Bells (Glockenkurvenfilter) eher schmal absenken und eher breit anheben, das klingt besser. Shelfs allgemein eher breit einstellen.
    • Sättigung ist eine leichte Verzerrung, die beim Mixdown von digital erstellten Aufnahmen sehr wichtig ist. Richtig eingesetzt klingt's dadurch nicht nur fetter und durchsetzungsfähiger, sondern man kann damit auch Transienten / Peaks (z.B. Snare-Schläge) schleifen und gleichzeitig ihren Druck erhalten. Ein Limiter drückt einfach nur alles platt und nimmt den Druck raus. Eine Möglichkeit für Sättigung ist Soft-Clipping, eine elegante Möglichkeit sind Tape-Simulationen und Simulationen analoger Effekte (z.B. von Kompressoren und EQs). Für heftige und gezielte Verzerrung gibt's spezielle Effekte / Plugins (z.B. Vertigo VSM-3).
    • Die Overheads müssen zwar nicht 100% L/R gepannt werden, aber Stereofonie zielt i.d.R. genau darauf ab. Auch mit freier Aufstellung der Overheads klingt es mit einer weniger breiten Aufstellung und 100% L/R Panning m.E. besser. Je nach dem wie viele Stützmikrofone vorhanden sind spielen die Overheads eine unterschiedliche Rolle im Mix. Sind z.B. keine Tom-Mikrofone vorhanden, sollten die Overheads "untenrum" nicht beschnitten werden bzw. nicht zu viel Höhen betont werden.
    • Ein Analyzer auf dem Masterbus ist ein wichtiges Hilfsmittel. Es reicht, Tracks auf Solo und ggf. die Effekte ein/auszuschalten, um sie einzeln zu checken.


    Effekte - Beispiele / Empfehlungen:

    Analyzer: Voxengo SPAN (kostenlos)

    Clipper: KClip (es gibt eine abgespeckte, kostenlose Version)

    Kompressor: 1176 (digitaler Klon) in Stereo, ich bevorzuge den schwarzen

    Tape: (Mastering-)Tape-Simulation in Stereo (gibt viele)

    Passiver EQ: Waves PuigTec EQP1A Stereo

    Also bestehet Interesse an einem Thread mit einem Leitfaden für den Mixdown von Schlagzeugspuren? Der kann ja dann auch für weitere Fragen und Antworten genutzt werden.


    Dann überlege ich mir mal, wie ich das möglichst kurz und knapp gestalte.

    Allerdings gibt es ja reichlich Material zb. bei https://www.cambridge-mt.com/ms/mtk/

    Viele Genres und Schwierigkeitsstufen. Das ist sicher zum lernen und üben die bessere Wahl.

    Das hatte ich ganz vergessen. Ist aber auch schon lang her, dass ich mir da Tracks zum Üben runtergeladen habe. ^^

    Scheint ja immer noch das große Reportoire von früher zu sein. Das gleichnamige Buch "Mixing Secrets" kann ich übrigens auch empfehlen. Das hatte mir zusammen mit anderen Büchern wie z.B. "Mastering Audio" vor etwa 10 Jahren die Augen geöffnet, worum es dabei eigentlich so geht und wie man richtig an die Sache rangeht. Bei ein paar Themen - z.B. Modifikation von Bassreflex-Öffnungen und angeblich zwingend notwendiges Aligning von Schlagzeugspuren - bin ich zwar nicht einer Meinung mit Mike Senior, aber das ändert ja nichts am grundsätzlich guten Informationsgehalt des Buchs.


    Ich möchte hier jedenfalls keine Mix-Challenges veranstalten, auch weil ich es hier im drummerforum schon irgendwie fehl am Platz finde.

    Bei Interesse könnte ich aber einen kurzen und einfachen Leitfaden für den Mixdown der Schlagzeugspuren erstellen und darauf in den Challenge-Threads verweisen.


    Ich bin übrigens nach wie vor immer mal wieder am Anzweifeln meiner eigenen Herangehensweisen und Probieren von neuen Ideen. Erst kürzlich habe ich durch die Arbeit an meinem neuen Covervideo bemerkt, dass ein bestimmter, seit einiger Zeit schon obligatorischer EQ auf meinem Drumbus gar nicht so das Wahre ist. Immer in Bewegung bleiben. Macht ja Spaß. :)


    Und manchmal wünsche ich mir auch einen großen und hohen Raum mit richtig teurem Equipment. Weil mein Skill-Level mittlerweile wohl ausreicht, damit ich durch sowas noch mal gewisse Quäntchen rausholen kann.

    Würde es dann nur um einen "drums only"-Mix gehen? Oder das Schlagzeug durchsetzungsfähig in ein Playalong mixen? Mit Mastering oder ohne Mastering?

    Man bräuchte dafür auch ein Mindestlevel (LUFS / EBU R128), um dann für ein vernünftiges Vergleichslevel von z.B. -14 LUFS nur nach unten normalisieren und keine Peaks bearbeiten zu müssen.


    Also ich halte davon nicht sehr viel. Die Challenges geben doch schon genug Möglichkeit, an seinen Skills in der Hinsicht feilen zu können.

    Jetzt erst recht, wenn ich im Nachhinein nicht mehr viel bearbeite / ändere. Das Playalong lass ich grundsätzlich so und das Schlagzeug auch, wenn nicht was total aus dem Ruder läuft.

    Nicht unbedingt. Diese Band aus den USA habe ich letztes Wochenende gehört. Schlagzeugabnahme mit Mikros: BD, Snare (mit Hihat) und ein Overhead. Sound war erstaunlich gut! Man hat alles passend gehört!

    Snare mit Hi-Hat? Wie auch immer ... du solltest doch wissen, dass Live und Recording zwei grundsätzlich unterschiedliche Baustellen sind. Besonders in kleinen Locations, wo ein Akustikschlagzeug nur wenig Verstärkung braucht.


    Ich hatte dir den Gesamtzusammenhang hier auch mehrmals versucht zu erklären. Und alle anderen verstehen das auch, nur du nicht.

    Wenn mich mal nervt, wie andere was machen und ich der Meinung bin, es besser zu können, hilft mir persönlich meistens, es einfach (besser :P ) zu machen.

    Also mach doch auch einfach mal bei einer Challenge mit. ;)


    Zugegeben ist mein Mastering für diese Challenge etwas Bass-lastig und verhalten im Höhenbereich ausgefallen. Das ist aber alles relativ subtil (kein großer Unterschied zum ungemasterten Stem-Mix). Beim nächsten Mal werde ich das etwas anders angehen.

    Und ich will die Schlagzeugmischungen für mein Mastering auch nicht mehr in größerem Umfang einzeln bearbeiten. Nur gezielt bei Bedarf, wenn ich das wirklich für nötig halte. Z.B. wenn die Frequenzverteilung komplett aus dem Gleichgewicht gekommen ist oder ich die Transienten / Peaks vor meiner Summenbearbeitung weiter zähmen muss oder wenn manche Becken viel zu laut sind. Erstens spare ich mir damit Arbeit und zweitens auch Gemecker, das ich mir anhören muss. Denn je mehr ich nach meinem eigenen Geschmack verbiege, desto potenziell größer ist dann wahrscheinlich auch das Geschrei deswegen.


    Lexikon75

    Es ist normal, dass Details einzelner Instrumente und Gesang in einem Bandmix untergehen. Das nennt sich Frequenzverdeckung.

    Entgegenwirken kann man dem mit einem technisch gelungenen Mixdown mit einer vernünftigen Frequenzverteilung (EQing), Kompression und Sättigung. Die letzten drei genannten Dinge sind auch genau die Werkzeuge, mit denen man ein Schlagzeug durchsetzungsfähig kriegt. Am besten in mehreren kleinen Schritten.

    Da hast du mich falsch verstanden.

    Nach meiner Wahrnehmung hast du mich falsch verstanden.

    Ich will einfach nur, dass darauf mehr Aufmerksamkeit gerichtet wird.

    Das kannst du natürlich gern (mittlerweile gefühlt zum 100. Mal) kundtun. Die Prioritäten sind hier aber halt naturgemäß etwas anders gelagert.


    Wenn du selber mal mitmachst, kannst du ja so viel Aufmerksamkeit auf deine Hi-Hat richten wie du für richtig hältst. ;)

    Und: Der Bass schiebt bei mir auch ordentlich (im Vergleich zu der Referenz) und macht das andere schwieriger hörbar.

    Der Urheber des Tracks (Jack Curtis) ist Basser, soweit ich weiß. Seine Tracks sind alle relativ Bass-lastig, sowohl was das Arrangement als auch den Mix betrifft. Das finde ich für Schlagzeug-Playalongs aber völlig in Ordnung, weil der Bass im Normalfall immer unser "erster Ansprechpartner" ist. Ich habe den Bass bzw. die Bassgitarre / den E-Bass im Monitormix gern immer etwas über dem Rest. Was interessieren mich als Schlagzeuger der Lead-Gesang und Gitarrensoli, wenn meine Hauptaufgabe ist, die Band gemeinsam mit dem Basser rhythmisch zusammenzuhalten und zum Grooven zu bringen? ;)


    Und weil die Tracks zwar meistens recht Bass-lastig, aber ansonsten gut gemixt sind, will ich da auch nichts dran ändern.


    Aber: Danach habe ich mir als Referenz Steely Dan und Donald Fagen angehört und da war die Hihat immer gut höhrbar.

    Meiner Meinung nach ist das eher ein Frequenzproblem als ein Lautstärkenproblem.

    Ich finde es ja cool, dass du dir da so einen Kopf machst und meine für die Challenges erstellten Masters mit professionellen Studio-Produktionen vergleichst. Du kommst aber sicher selbst drauf, dass dein Vergleich hinkt. ;)

    Auch bei dieser Challenge haben wieder Leute mit Handyrecorder, EAD10 und sehr einfach gehaltenen Mikrofon-Setups teilgenommen. Dass das nichts mit voll professionellen Studio-Aufnahmen bzw. Produktionen zu tun hat, ist doch völlig klar.


    Es geht hier nicht um das tontechnische Optimum, sondern darum, möglichst vielen Leuten auf unkomplizierte Art die Teilnahme an den Challenges zu ermöglichen und die Beiträge möglichst unkompliziert vergleichbar zu machen. Dass das Kompromissbehaftet ist, ist doch klar. ;)

    Ah OK ... gerade noch mal geschaut ... dann sind dir die 14er also optisch zu klein und du hattest nur Bedenken, dass 16er gegen die Gitarren ankommen.

    Frage nun: Ist bei dem Mehr an Durchmesser zu erwarten, dass ich damit auch in heftiger, lauter Musik mit zwei Gitarren-Fullstacks durchkomme?

    Oder sind die Giant Beats, auch die 16er Hihats, einfach eher was für zurückhaltendere Sounds? Oder hat es einen tieferen Sinn, dass man größer als 15" generell eher Hihats für nicht so laute bzw. harte Musikstile findet? Ich weiß, da ist nichts in Stein gemeißelt und alles ist subjektiv. Vielleicht hat ja jemand Erfahrungsberichte.

    Aber wie gesagt ... Probieren. Das ist alles individuell und genau das ist ja auch das Gute daran. Bevor ich mir z.B. ein 24er Ride besorge, würde ich eher ein anderes 22er suchen, das meinen klanglichen Vorstellungen gerecht wird. Und vieles ist auch Gewöhnungssache, nicht nur Geschmackssache. Und auch alles nicht in Stein gemeißelt.

    Ich glaube hier hält sich teilweise nach wie vor ein kleines Missverständnis recht tapfer im Thread.


    Mir sond 14er oder 15er Hihats weder automatisch zu leise oder zu wenig durchsetzubgsstark. Das Problem hab ich ja gar nicht.

    Das hattest du eingangs aber ganz anders beschrieben. Da kamen deine Hi-Hats nicht gegen die lauten Gitarren an.


    Ansonsten finde ich die Diskussion sehr müßig. Du musst das sowieso selber ausprobieren. Das kann dir keiner hier abnehmen.


    Ich hab auch schon viel ausprobiert und (nach mehr oder weniger langer Zeit) wieder verworfen. Das gehört dazu. Try & error.