Beiträge von Beeble

    sehr schön gemacht, so kann man schön vergleichen.


    Meinen eindeutigen Gewinner kann man nicht überhören.
    Ich finde das 52A als Solomikrofon ganz hervorragend. Je nach Größe auch im Resoloch.
    Das D70 wäre meine 2. Wahl, vielleicht noch mit einer zusätzlichen Grenzfläche für mehr low end.
    Mit den Beyer kann ich nix anfangen.

    Dass das Thema derartig kompliziert wird, hätte ich auch niemals vermutet.

    das ist es ja gar nicht, es scheint nur so wenn man es unnötig verkompliziert. ;)

    live über Superior Drummer zu spielen. Das klappt mit Asio4all wunderbar.

    Damit wäre dein Luxusproblem schon fast gelöst.
    Der Luxus wäre dann noch eine DAW und gegebenenfalls ein "vernünftiges" Audiointerface


    Als Budget Lösung würde ich zu einer kostenfreien DAW greifen, die meistens der Hardware beiliegt.

    Oder ab ca 14 Euro am Bahnhofskiosk zu kaufen.


    Soundkarten von Steinberg liegt Cubase bei,
    Presonus liefert Studio One mit und

    Focusrite und Native Instruments legen Ableton Live bei. Alles in den kleinen Abgespeckten Versionen.

    Von Behringer, Swissonic usw. und generell von Geräten weit unter 100 Euro sollte man die Finger lassen.
    Die taugen nicht für dein Vorhaben.


    Die Geräte kosten etwas alles das gleiche, um 100-140 Euro
    Außer Focusrite kann ich jedes empfehlen. (die haben für mich einen miesen Service und ein schlechtes Preis Leistungsverhältnis)


    Sehe gerade das Steinberg gerade das neue UR22 (hier für 133 Euro) rausgebracht hat und sogar ein Cubase Elements dabei ist, das kostet alleine schon 100 Euro.

    Wäre meine Wahl wenn ich jetzt eins kaufen wollte.


    Wenn du jetzt schon zufrieden bist, sehe ich keinen Grund ein Roland Modul und eine hochpreisige Soundkarte zu kaufen.


    sollte es hier "höhere Sampleraten" oder "kleinere ASIO-Puffer" heißen?

    ja natürlich, sowohl als auch ;)


    bei meinem aktuellen System hat die RME HDSP 9652 bezüglich des notwendigen Buffers keinen Vorteil gegenüber dem USB-Interface

    Das wundert mich. Mein System ist auch nur ein alter i5 und etwas auf Audio getweakt.


    Das Behringer verweigert kleinere Buffereinstellungen als 88Samples. Wie man sieht wird etwas gelogen. 88Samples sind 1,96ms
    Mit den Komplete von NI bekomme ich 5,1ms angezeigt obwohl ich einen Buffer von 62 Samples einstelle. Alles mit 48kHz
    Was ich nicht weiß, inwiefern die angezeigten Werte mit den tatsächlichen übereinstimmen mit denen Cubase dann rechnet.


    Bei der Juli@ kann ich noch mit 32Samples arbeiten.
    Unterschiedliche Prozessorlasten kann ich subjektiv nicht feststellen.
    Das Behringer lässt kleinere Buffer zu als das Komplete.
    Die Juli@ ist in Kombination mit einem Midizuspieler die Latenzärmste. Fällt aber nur beim edrum auf,

    beim Keyboard, einem Nectar Panorama merke ich keinen Unterschied zwischen 64 und 128 Sample Buffer bei beiden USB Geräten.


    Beim recorden stelle ich den Buffer auf 1024 und das reicht meist für umfangreiche Projekte mit mehr als 60 Spuren.

    Ich arbeite überwiegend mit Audio und wenns doch mal eng wird, kann man ja noch Spuren einfrieren.
    Monitoring über die DAW nutze ich nicht. Nicht nur weil es mit meinem schwachen System nicht geht, sondern

    weil es am X32 besser und einfacher ist.

    Vielleicht sollte man etwas Licht ins Dunkel bringen und versuchen den Begriff Latenz etwas verständlicher aufzudröseln.
    Ein Versuch:


    In der analogen Signalverarbeitung gibt es keine Verzögerung, alles geschieht in Nullzeit.
    In der digitalen Signalverarbeitung gibt es immer eine Verzögerung durch Signallaufzeiten.


    In der anlogen Welt mussten Geräte wie Hall und Delay dafür durch sehr aufwändige Schaltungen realisiert werden.
    Man musste sich die Latenzen teuer erkaufen mit sehr vielen Nachteilen, wie starkem Rauschen und hohen Kosten (Eimerkettenschaltung)

    In der digitalen Signalverarbeitung möchte man Latenzen möglichst klein halten.
    Sind die analogen Signale erst einmal digitalisiert, kann man damit sehr einfach nach Gusto rumspielen, ohne Qualitätsverlust, ohne Rauschen, ohne Kosten für aufwändige diskrete Schaltungen. Möchte man dann diese wieder in die analoge Welt überführen, hat man wieder das selbe Problem mit Qualitätsverlusten und Latenzen.


    In der digitalen Welt geht nichts ohne Takt, alles muss in klar definierten Zeitintervallen passieren.

    Möchte man ein Signal digitalisieren, will man das so genau wie möglich.


    Ist so ähnlich wie malen nach Zahlen:

    Je feiner wir das Signal rastern sowohl horizontal (Abtastrate/Samplerate)

    als auch vertikal (Auflösung/Bittiefe) desto mehr Werte erhalten wir und desto genauer lässt sich aus diesen Werten auch wieder das ursprüngliche Signal reproduzieren.
    pasted-from-clipboard.png

    Diese erhaltenen Werte kann ich aufschreiben, jemandem schicken der das Signal nicht kennt und er wird anhand der Zahlenwerte das Signal rekonstruieren können.
    Dabei gilt je feiner ich die Messungen mache desto genauer wird es.

    Aber je genauer ich das mache desto mehr Zeit und Papier braucht es, es fallen viele Daten an, sowohl bei meiner Messung als auch bei demjenigen der es wieder rekonstruieren soll. Je mehr Daten desto mehr Zeit braucht es
    (in der Grafik sieht man das Problem zwischen dem Punkt 11 und 12 auf der Abtastachse, der Bereich dazwischen wird nicht erfasst. Würde man die Messpunkte auf der x-Achse verdoppeln , schon)


    In den frühen 80er Jahren als die Rechner noch leistungschwach und teuer waren, einigte man sich auf einige Eckdaten um dafür zu sorgen das alles schön kompatibel bleibt.
    Die Audio CD bekam eine Abtastrate von 44,1kHz und eine Bittiefe von 16 Bit. Kann somit Musik bis 22kHz und einer theoretischen Dynamik von 96dB darstellen und dadurch deutlich besser als eine Vinylplatte. (abgesehen von vielen weiteren Vorteilen gegenüber Vinyl)


    Jetzt zurück zum Thema

    Seit Ende der 90er die Rechner leistungstärker wurden und die Musikproduktion began auf digitale Techniken umzustellen, arbeiteten die Hardwarehersteller solcher Geräte stetig daran die Auflösung hoch und die Rechenzeit runterzudrücken.
    Heute ist es problemlos möglich und meist ausreichend mit 24Bit und 44,1, bzw 48kHz zu arbeiten.

    Intern rechnen fast alle DAWs mit 32 und 64Bit, was einen enormen Headroom zulässt.

    Jetzt gibt es mehrere Faktoren welche für die unerwünschte Verzögerung sorgen.


    Eine DAW arbeitet mit einem Zwischspeicher der Daten.

    Dafür hat Steinberg den AsioTreiber entwickelt, der als Schnittstelle zwischen dem Digitalwandler und der DAW dient.


    Während der Audio-Verarbeitung muss der Computer zahlreiche unterschiedliche Aufgaben ausführen. Dazu gehören die grafische Anzeige, der Festplattenzugriff, der Datenaustausch mit externen Geräten wie z. B. MIDI-Controllern sowie natürlich die Audio-Verarbeitung selbst. Da der Computer die genannten Aufgaben nicht alle auf einmal erledigen kann, müssen Daten aus den verschiedenen Prozessen "gepuffert", also zwischengespeichert werden.


    Als Beispiel ein Samplebuffer von 512 Samples.

    Die Rechnung ist simpel: Wir teilen 512 Samples durch 44,1 (44100 Samples pro Sekunde) und erhalten 11,6 Millisekunden .
    Arbeiten wir mit einer höheren Abtastrate, verringert sich die Latenz. Betreiben wir unsere DAW mit 96 kHz statt 44,1 kHz, halbiert sie sich.

    Das selbe gilt für die Änderung des Samplebuffers. Verkleinern wir ihn, ist er schneller voll und die Latenz verkleinert sich.

    Ein Buffer von 32 Samples und eine Samplerate von 96kHz ergibt immer eine Asiolatenz von 0,3ms.

    Bei 192kHz kämen wir auf nur 0,15ms. Klingt doch gut, oder?
    Ja, aber in der Praxis kaum umzusetzbar, da kleinere Sampleraten und höhere Abtastraten auch eine höhere CPU Belastung mit sich bringen.


    Und in der Praxis zb. beim Audiorecording auch unnötig weil:
    Es macht keinen Unterschied, ob man beim recorden mit 1ms oder 100ms arbeitet.
    Die DAW kennt die Zeiten und sorgt dafür das die Signale an der richtigen Position landen, indem sie die Latenz berücksichtigt.

    Anders sieht es aus, wenn man die DAW auch fürs Monitoring benutzt und intern mit Plugins arbeitet die teilweise die Latenz erheblich erhöhen, bis zur unspielbarkeit.
    (einige Plugins verursachen Latenzen weit über 100ms)


    Üblicherweise beziehen sich die Latenz Angaben bei Mischpulten auf die Zeit, die ein Signal benötigt, um von einem analogen Eingangskanal zum analogen Summenausgang zu gelangen. Dieser Vorgang wird auch „RTL“ genannt, die Abkürzung für „Round Trip Latency“. Die tatsächliche RTL eines Audio Interfaces hängt von vielen Faktoren ab: Die Art der Schnittstelle (USB, Thunderbolt, AVB oder DANTE), der Performance des Recording Computers, das verwendete Betriebssystem, die Einstellungen der Soundkarte/Audiointerface und die des Recording Projektes (Samplerate, Anzahl an Audio & Midi-Spuren, Plugin Auslastung) und die Signallaufzeiten der verwendeten Wandler.

    RME hat Ende der 90er das sogenannte Hardwaremonitoring entwickelt. Die gesamte Berechnung findet im Gerät und nicht im Rechner statt.
    Mehrere Kanäle können teilweise mit komplettem Channelstrip und Halleffekten latenfrei ausgegeben werden.
    RME gibt diese Latenz mit ca 0,1ms an.
    Zum Vergleich hat ein Behringer X32 "nur" einen Latenz von ca.0,8 ms
    Heute bieten viele Audiointerface dank schneller DSPs (spezielle Signalprozessoren) internes latenzfreies Hardwaremonitoring an.


    Kommt jetzt aber Midi ins Spiel und virtuelle Instrumente, vergrößert sich die Gesamte Signallaufzeit.
    Zuerst einmal dauert es bis die Mididaten aus dem Keyboard/Drummodul erzeugt werden und dieses Verlassen.
    Dann dauert es eine Zeit bis sie den USB Buffer passiert haben und in der DAW ankommen.

    Dort werden damit zb. virtuelle Instrumente getriggert, die ebenfalls Rechenzeit benötigen.

    Und dann kommt noch einmal die Asiolatenz des Ausgangs hinzu.


    Die tatsächliche Latenz des Interface sollte auch vom Treiber angegeben werden.
    Die von den Herstellern angegebenen Werte sind leider häufig aufgehübscht – mit unerfreulichen Nebenwirkungen.
    Wenn man die Echtheit der angegebenen Latenz Audio-Interfaces messen will, führt man einfach einen Loopbacktest durch.
    Der Ausgang wird einfach an den Eingang geschickt und recordet.
    Stimmen die Werte die vom Interface angezeigt werden, sind beide Signale Deckungsgleich.
    Cubase zb. bietet intern einen Loopbacktest an. Dadurch lassen sich flasche Werteangaben kompensieren.


    Im Grunde ist eine geringe Abweichung auch nicht tragisch, solange man kein Outboard wie EQs und Kompressor verwendet.

    PCI Karten sind gegenüber USB Geräten latenzmäßig im Vorteil. Zum einen wegen der wegfallenden USB Pufferung und weil sie

    durch die geringere CPU-Last meist kleinere Sampleraten ermöglichen.



    ASIO4All

    Grundsätzlich kann man damit arbeiten wenn der Hersteller keine Asiotreiber anbietet.
    Was ja meist bei Onboardsound der Fall ist. -Vom Klang und der Wandlerqualität wollen wir hier nicht reden.


    Solange man in the box arbeitet und nur Audio recordet funktioniert das recht gut.
    Allerdings hat A4A den Nachteil, das es nicht die Hardware kennt und auf Windows und seine WMA Treiber angewisen ist.
    Dort greift A4a den Sound ab. So das die Werte sehr ungenau sind. (lässt sich mit dem Loopbacktest leicht überprüfen)



    David Courant
    Der Lookbacktest den du gemacht hast wird immer die selben bzw. fast ähnliche Werte liefern, unabhängig was du im A4A Treiber einstellst.

    Du kannst damit ausschliesslich die Latenzangaben überprüfen und gegebenenfalls korrigieren wenn deinen DAW das bietet.

    Auch kannst du mit deiner DAW nicht die Gesamtlatenz ermitteln, da du die Latenz deines Drummoduls nicht kennst.
    Was du in der DAW machen kannst ist die Zeit ermitteln vom Anschlag Pad bis zur Tonausgabe.
    Um die Modullatenz verlässlich zu ermitteln braucht es ein Oszilloskop.
    Dort schliesst du ein Mikro zur Abnahme des Anschlags und den Midiausgang des Moduls an.
    (die wenigen Millimeter Abstand Mikrokapsel/Pad muss man nicht rausrechnen)
    Jetzt hast du den zeitlichen Versatz den du zu der ermittelten Zeit in der DAW hinzuadierst.


    Grob und etwas ungenauer geht es dann doch wenn du dich 100% auf die Latenzangaben verlassen kannst.
    Aber das kannst du bei Asio4all nicht.

    Du meinst wohl 3ms. 0,3 gibt's nicht.

    ne ich meine schon 0,3ms. Runden auf 1/100ms reicht mir. Genaugenommen sinds dann 0,333ms bei 32Samples und 96kHz.
    Aber mein Rechner mochte erst ab 64 Samples arbeiten und da sind dann immer noch 0,6ms (gerundet)

    Unterschiedliche Latenzen bei unterschiedlichen Interfaces liegen an der Latenz der Wandler, der Datenübertragung (bei USB und FW höher als bei PCI)
    Manche Treiber zeigen nur eine, manche auch 3 Nachkommastellen an.
    Wenn man einen flotten Rechner und ein gutes PCI Interface hat, welches mit 196kHz und 32 Samples Speicher klarkommt, kommt man unter 0,2ms,

    das darf man dann auch als Echtzeit betrachten.

    Schneller ist das latenzfreie Hardwaremonitoring auch nicht welches die Hersteller so nennen.


    Ein Behringer X32 zb. hat eine Round Trip Latency von 0,8ms. Die RME PCIKarten dürften vermutlich ähnliche bis leicht bessere Werte haben.


    Ich kann mir nicht vorstellen, daß die Wandler von Onboard-Soundchips so lahm sind

    Die Werte, die A4A rausgibt sind die reinen Treiber-Latenzen ohne DAC.

    doch, sie sind deutlich langsamer als zb. die RME Wandler. Alleine schon mangels Hardwarebuffer
    Aber das ist weniger das Problem als die WDM Treiber von Windows, die A4A ja nutzen muss.
    Mit A4A sind Latenzen von >20-100ms normal. Abhängig vom Motherboard, DAC, Ram, CPU und wo die Daten sonst noch überall durch müssen.

    die 3ms, die fälschlicherweise auf seiner Webseite stehen, kommen nicht hin.

    Interessant, Wusste ich nicht.
    Falls das stimmt kann man sich streiten ob einem die 2ms wert sind einen tausender für ein Roland auszugeben wo man dann wieder von der Hardware abhängig ist.


    Ursprünglich gings ja nur um eine Verbesserung der Latenz in einen spielbaren Bereich.
    Da gibt es zwischen der Obergrenze TD50 und einem Babyface mit Oberklassewandlern noch viel dazwischen.
    Mit einer gebrauchten Juli@ PCI Karte für 100 Euro kommt man bei 96kHz/64Samples auch unter 0,3ms.


    Wenn ich auf niedrige Latenzen aus wäre, würde ich immer eine PCIe Karte vorziehen.
    Abgesehen von kleineren Latenzen belasten diese auch die CPU nicht.


    Da reicht dann vielleicht sogar das Medeli Modul um unter 12ms zu kommen je nach Rechner.
    Verglichen mit einem A4a Treiber und Realtek/NVidia Onboardsound sind das Welten und das für kleines Geld.

    Mensch Beeble, ich erkenne langsam Parallelen zu Trommeltotti, nur andersrum.

    Ja ne..ich hab ja nix gegen, Zitat" veralterte rückständige Technik" =-)
    Ich nutze sowas ja selbst.


    um mit dem Alesis-Medeli-Klump halbweg bei Richtung 10ms zu bleiben ein... RME Babyface Pro

    da würde ich dann doch besser deinem Vorschlag folgen und ein eDrumin nehmen. Dazu ein mittelpreisiges Interface wie zb das NI Komplete, damit schaffst du auch 4ms und musst nicht gleich 700 Euro und in neue Rechnerhardware investieren.
    Der Vorteil des unterschätzten eDrumin ist, das es nicht nur das schnelltste ist, sondern auch das es mit jeder Hardware kompatibel ist

    und du nicht an überteuerte Rolandhardware gebunden bist.

    Ja, die in Reaper angezeigten Werte sind falsch.
    Ich kenne deine Rechnerhardware nicht und auch nicht die Konfiguration.
    Aber ich garantiere dir das du nicht unter 20ms kommst vom Schlag aufs Pad bis du den Ton des VSTi hörst.


    Ab ca. 12ms nimmt man eine Verzögerung wahr. Empfindliche Geister empfinden 8ms schon als störend.
    Es ist auch eine subjektive und gewohnheitsbedingte Geschichte.
    Eine Kirchenorgel hat noch höhere Latenzen und selbst mit 100ms schaffen es Organisten da zu solieren.

    Ja, aber wenn es 1 ms dauert,

    genau das weiß man erst wenn man eine Loopbackaufnahme macht:
    Man spielt ein Signal in der DAW ab, schickt es über den Ausgang raus und direkt in den Eingang wieder rein und nimmt es auf einer weiteren Spur auf.
    Jetzt kann man den zeitlichen Versatz messen.

    Nein, das schrottige Millenium macht weniger aus als der schrottige Kompromiss mit den WDM Treibern des Onboardsounds und der Asioemulation.
    Selbst wenn der Unterschied 10ms bei den Modulen ausmacht, bleibt die Bremse dein Soundchip.

    Asio wurde entwickelt um eine direkte Komunikation zwischen dem Audiodevice und der DAW zu schaffen, völlig an Windows vorbei.
    Diese nutzen einen Hardwarbuffer, den Onboardkarten nicht haben, weil sie ihn nicht benötigen um Audio zu streamen.
    Asio4all greift auf den Windows WDM Treiber zu, fängt dort den Audiostream ab und generiert einen Softwarebuffer.
    Das kostet sehr viel Zeit und diese Zeit kann A4A nicht kennen geschweige denn anzeigen, sie kommt aber on Top noch zu der in der DAW angezeigten Zeit hinzu.
    Je nach Rechner sind das locker nochmal 20ms und weit mehr. Auf meinem i5 damals getestet schwankte die Latenz zwischen ca. 60ms und 120ms, je nach Last
    (unkonstante Latenzen machen das ganze noch unbenutzbarer)
    Deine Latenz setzt sich zusammen aus Modul, WDM, Asio4all und ist zusätzlich abhängig von der Rechnerhardware und Performance.

    Ein gutes Interface mit brauchbaren Treibern kostet ja auch nicht die Welt. Abgesehen davon, das du dann auch mal guten Sound hast.

    Ich habe bei meinem Billig-Drum-Modul (Millenium 150x) die Latenz gemessen.

    Du hast nicht die Latenz gemessen, sondern den zeitlichen Versatz dieser beiden Signale.

    daß das Hauptproblem nicht Asio4All ist

    doch, das ist das Hauptproblem. Die Werte die Asio4all anzeigt sind nur Hausnummern.

    sondern die Latenz des Drummoduls.

    die auch.

    Jetzt musst du noch dein getriggertes VSTi aufnehmen und dann mal den Abstand zwischen Midi und Ausgabe VSTi messen.
    So wirst du auf Werte irgendwo zwischen 30ms und >200ms kommen.
    Werte von 0,8ms sind mit Asio4all und Onboardsound nicht möglich.

    Also habe ich da eine Bohrung angebracht, Gewinde reingeschnitten und den Winkel, mit einer Madenschraube fixiert.

    Genial!

    Ich stelle da auch den praktischen Nutzen vor die Optik.

    Galgen kürzen am Rack ist kein Problem, da man kein Gegengewicht bei schweren Becken benötigt.
    Bei losen Ständern funktioniert das nicht. Mein Roadpro hällt ohne Galgengewicht das schwere Ride nicht.

    Ich habe hier noch ein galvanisches Graviergerät, damit lassen sich Markierungen dauerhaft und unzerstörbar aufbringen.
    Beim Wisch und Wasserfesten Edding halten die Markierungen nur wenige Aufbauten, da sie durch die Reibung an den Kunststoffführungen abreiben.

    sehr schön.
    Mit einem Rack sicher viel einfacher als mit loser Hardware.
    Wie löst du denn das Problem der Galgenständer?
    Auf den Tauchrohren wischfeste Markierungen für die Höhen sind ja ziemlich zuverlässig,
    Aber wie sieht es auf mit der Neigung und der horizontalen Position, da habe ich noch keine Lösung gefunden.

    Man könnte den Galgen auch rausziehen und seperat verbringen und die drehbare Galgenklemme nicht anfassen.
    Aber spätestems wenn man die Rohre zusammenschiebt stimmt die Position nicht mehr.

    Eine sichere Lösung das trotz aller Markierungen das Becken exakt auf Positon sitzt habe ich noch nicht gefunden.

    Wenn du nur zu den Playbacks spielen willst, ist es einfacher die über einen externen Zuspieler abzufeuern, dazu nimmst du am besten die Eingänge 17/18
    Dazu ist dann keine Rechner notwendig.

    Wenn du dazu auch aufnehmen willst, würde ich das Playback in deine DAW laden und dort dann dazu dein Schlagzeug aufnehmen, so wie m_tree schon schrieb.


    Du kannst im XR jeden Kanal auf Aufnahme oder Wiedergabe stellen und musst nur in Reaper entsprechend routen.

    Beispiel: du hast deine Drums auf Kanal 1-8, dann stellst du die Kanäle in Reaper auf Eingang 1-8.
    Das Playback zb. setzt du in Reaper als Ausgang 9 und 10.
    Jetzt kannst du zu deinen Monitormix das Playback auf 9 und 10 dazumischen und nimmst gleichzeitig deine Drums auf 1-8 auf.


    Noch ist es Zeit "deine" DAW zu finden. wenn man sich erstmal auf eine eingeschossen hat, wechselt man eher ungerne.
    Für dein Vorhaben ist es aber gleich welche DAW du verwendest. Die unterscheiden sich überwiegend in der Haptik.
    Jede DAW hat den Fokus etwas anders liegen. Und letztlich ist es auch Geschmackssache und Gewöhnung.
    Wenn du mit Reaper zurecht kommst, bleib erstmal dabei.


    Edit: das monitoring über Reaper benutzt du nicht, dafür hast du das XR. Ansonsten würdest du Probleme mit den Latenzen bekommen!

    gerade die Q8 würde ich nicht emfehlen.
    Die hat eine feste Brennweite und hat einen extremen Weitwinkel von ca 160 Grad.
    Die Einsatzmöglichkeiten sind dadurch stark beschränkt.

    Auch die Bildqualität ist sehr mäßig.

    Die kann zwar Ton, aber den brauchst du ja nicht.


    schau doch mal Testberichte durch.
    Lichtstarke Kameras mit vernünftigen Objektiven und Brennweiten bekommt man schon unter 800 Euro.

    Werden denn nicht gerade durch die IRs genau diese nichtlinearen Eigenschaften abgebildet?
    Man schickt was rein und schaut was raus kommt. Damit lässt sich doch das ganze System auch berechnen und mathematisch darstellen.
    (Bei entsprechent notwendiger Messreihen mit Frequenzen, Pegeln, Signalformen und was weiss ich nicht alles)
    So werden doch auch die Softwareemulationen von analogen Audigerätschaften berechnet.

    Also dieser 2 Kanal OpAmp ist ein Standardbauteil das in vielen Schaltungen zur Anwendung kommt.
    Ich weiss nicht ob man da von Modifikation sprechen kann. Das Teil hat schon sehr gute Werte und wird halt alle Jubeljahre mal geupdatet.
    Das Teil ist ja mit ca. 5 Euro auch nicht gerade billig.
    In HighEnd Foren vermischt sich ja oft Physik mit Woodoo. Das dort jemand schwört man höre einen Unterschied würde mich nicht wundern.
    Diese Menschen hören ja auch bei Kondensatoren klangliche Unterschiede. :Q

    Ich denke messen wird man zwischen diesen beiden fast identischen ICs schon einen Unterschied.

    Ob man es aber auch wirklich hört das der alte schon schnell , aber der neue noch schneller ist vermag ich nicht zu sagen :)

    Wir befinden uns bei den Spannungen mit denen wir es zu tun haben dann schon im Nanometer Bereich.
    Ob man da wirklich was merkt ..naja jetzt hast du angefangen und jetzt wollen wir es auch wissen :)