Viele Videos, die ich mir über Synthese angesehen habe, zielen darauf ab, physische Instrumentenklänge (oder manchmal physische Soundeffekte) zu emulieren, wobei das Streben nach Realismus als Leitprinzip gilt. Zuerst kam mir das wie etwas in der Nähe eines Skeuomorphs vor. Ich habe mich gefragt, warum die kontingenten Attribute physischer Objekte jetzt Sounddesign-Prinzipien diktieren sollten, wo ihre Beschränkungen durch Synthesizer aufgehoben werden können, deren Raum möglicher Klangausgaben viel größer ist (zumindest wenn wir Unterschiede zwischen nicht wahrnehmbar ähnlichen Klängen ignorieren).
Später entdeckte ich die Antwort, dass unsere Ohren sich entwickelt haben, um die Klänge zu schätzen, die physische Instrumente und Objekte erzeugen können, weil sie uns so lange begleitet haben, aber ich frage mich immer noch, wie musikalisch nützlich die Synthese sein kann, um Originalklänge zu erzeugen, anstatt sie zu emulieren.
Ganz qualitativ, wie viel Prozent der möglichen Klänge, die ein Synthesizer ausgeben kann, sind für Musik brauchbar? Ich weiß, dass ein exakter numerischer Prozentsatz von viel zu vielen Faktoren und Grenzen abhängen würde, aber ich möchte nur ein allgemeines Gefühl dafür haben, wie spärlich musikalisch brauchbare Klänge den Raum aller erzeugbaren Klänge einnehmen.
Wiederum sehr qualitativ, wie viel Prozent dieser musikalisch brauchbaren Klänge entsprechen Klängen, die von physischen Instrumenten oder Objekten erzeugt werden? Ist diese evolutionäre Korrelation zwischen dem Ohr und dem Physischen so stark, dass sie fast unsere gesamte Fähigkeit ausmacht, Freude an musikalisch brauchbaren Klängen zu finden, oder setzt die Synthese ein großes musikalisches Potenzial frei, das nicht auf der Nachahmung des Physischen basiert?
Wenn die Synthese diese ursprünglichen Wege öffnet, gibt es dann ein Studiengebiet, das lehrt, wie man Musik erschafft, indem man diese ursprünglichen Klänge entwirft, anstatt physische Instrumente oder Objekte zu emulieren?
Nr. 1 ist einfach zu beantworten: Jeder erdenkliche Sound hat eine potenzielle musikalische Verwendung, also schließt das natürlich jeden möglichen Synthesizer-Sound ein.
Nr. 2 ist unbeantwortbar ohne eine strenge Definition dessen, welche Klänge physikalischen Instrumenten entsprechen
Nr.3 ist einfach: Die Studienrichtung heißt „Synthese“. Die Emulation physikalischer Instrumente ist nur ein kleiner Teilbereich.
Dies scheint eine Menge objektiver und qualitativer Fragen zu sein, die einen subjektiven Kern umkreisen: die Phrase "musikalisch nützlich". Damit etwas musikalisch unbrauchbar ist, kommen eine Vielzahl von Annahmen über den ästhetischen Kontext und das Ziel ins Spiel. (Stichwort Hindemith und „Music for use?“) Synthese wurde durch Experimentieren und Trial-and-Error geboren und weiterentwickelt, was immer bedeutet, einige Wege zu gehen, ohne vorher von ihrer Nützlichkeit überzeugt zu sein. Wie PiedPiper auch feststellt, ist die Unterscheidung zwischen Klängen, die physikalische Quellen emulieren, und solchen, die dies nicht tun, schwierig und unscharf, insbesondere wenn wir nicht nur über die Absicht, sondern über das Produkt sprechen. Wenn ein Bass-Pad, das ohne die Absicht einer Emulation erstellt wurde, zufällig einem Nebelhorn "unkenntlich ähnlich" ist, zählt es dann als Übereinstimmung mit einer physischen Quelle?
(Hier ist etwas, um die philosophischen Gewässer zu trüben: Was passiert, wenn wir physische Objekte verwenden, um elektronische Klänge zu emulieren? https://g.co/kgs/wAw3vn )
Es scheint, dass Ihr Beitrag zwei Kerne hat: Fragen der Absicht und der Leitphilosophie beim Streben nach Synthese ("Warum sind wir so darauf fixiert, physikalische Quellen nachzuahmen?") und Spekulationen über Psychoakustik ("Haben sich Menschen entwickelt, um mehr zu reagieren stark an physikalische Quellen?"). Abgesehen vom Subjektiven wären meine Antworten:
Musiker
Tod Wilcox
Tom
Kevin Reid