Zitatund es steht sehr viel redundante Zusatzinformation zur Verfügung (Sehr schmale Frequenzbänder der Sprachinformation, Sprachsamples der sprechenden Person, Sinnzusammenhang des Gesprochenen, Wiederholungen, oftmals Lippenbewegungen via Kamera, ....).
Jein. Die Abhörmethode bezieht sich gerade auch auf Gegebenheiten wo Leute nicht! im Blickfeld sind.
"EGitarre in Musik" hingegen ist eine seeeehr viel unschärfere Information ...
Jein. Im Freejazz vielleicht oder bei extremst-Avangarde
Die meisten Musikformen in unseren Breitengraden und insbesondere unsere Hörerfahrung, -Erwartung und Sozialisation geht größtenteils auf Bach, Mozart und Beethoven zurück (ob wir wollen oder nicht- völlig wertfrei in Bezug auf unseren Geschmack oder das was deren Musik betrifft). Somit kennen wir fast alle das Phänomen bei zig Stücken, selbst bei vielen improvisierten Soli schon vorher zu wissen, auf welchem Ton der Musiker landen wird.,... es sei denn er verspielt sich... oder "SPIELT mit unserer Hörerwartung", und spielt genau nicht den erwarteten Akkord oder die Tonfolge.
Insofern bin ich fest davon überzeugt, dass die Zukunft da genauso viel unmögliches realisieren wird, wie eben in der Nachrichtentechnik in Bezug auf die Sprache. Eben da einige Musikinstrumente auch Oberton-, Frequenz- und sonstige identifizierbare bzw. abgrenzbare Charakteristika aufweisen. Klar gibt es da auch viele Schnittmengen (z.B: E-bass vs. Bassdrum) aber je mehr weitere instrumenten-spezifische Klangcharakteristika man "mit ins Boot" nimmt zur Analyse (Attack, Ausschwingverhalten, Obertonspektrum etc.), umso eher wird es auch bei Instrumenten möglich sein, sie auszusieben. Da habe ich keinen Zweifel... auch wenn es gegenwärtig noch schwer zu sein scheint. Time will tell :]