Musik - Technik - Kommerz

Populäre Musik war schon immer an technische Entwicklung gekoppelt. In Produktion und Weitergabe gleichermaßen. Deswegen ist die populäre Musik ein Spiegelbild der digitalen Entwicklung. Das Internet hat die Popwelt verändert, aber auch die Leistungsfähigkeit von Computern und Software hinterlässt in jedem Genre Spuren. 

Seit der Jahrtausendwende wird mit Musik weniger Geld verdient, wenngleich sich durch neue digitale Verkaufsformen (Streaming) derzeit eine kleine Aufwärtsbewegung vollzieht. Ich denke, dass zumindest beim Musiker selbst immer weniger ankommt, auch wenn es noch einige wenige Musiker gibt, bei denen relativ viel ankommt. Die Menschen gaben vor 15 Jahren mehr Geld für Musik aus als heute, aber das ist nicht der einzige Grund. Die Musikproduktion ist immer einfacher und billiger geworden und damit nimmt die Menge von Werken drastisch zu. Zudem sind die Werke leichter zu verbreiten und zu vervielfältigen. Ein Teil der Musik - speziell die elektronische Tanzmusik - ist infolge der vielen Wiederholungen, der maschinellen Prozesse und der Verwendung von Samples nicht nur einfacher sondern deutlich schneller produzierbar.

Der Preis verfällt, weil (selbst gute) Musik inflationär wird. Speziell trifft dies Instrumentalmusik, denn deren Produktion ist noch einmal deutlich einfacher als das gesungene Lied mit Text. Ob als Dance-Music, Ambient oder Filmmusik. Produzierte Instrumentalmusik gibt es wie Sand am Meer. Aber als eigenes Genre tritt es im Umsatzbericht der Musikindustrie gar nicht auf. Höchstens als Teilmenge der 7% Dancemusic, obwohl auch da ein großer Teil Vocalparts hat. 
Für das mit großem Abstand am meisten gekaufte Genre "populäres Lied" ist ein gesungener Text unerlässlich. Über die Bedeutung des Textes für einen Song kann man streiten. Ich persönlich glaube, dass vor allem die Instrumentalmusiker die Wichtigkeit der "Message" für das Publikum unterschätzen. Je mehr man sich mit Musik und Klang beschäftigt, desto mehr gerät außer Sichtweite, dass für die allermeisten Hörer Musik kein Selbstzweck ist, sondern eine jeweilige Funktion hat: Tanzen, Entspannen, Frust abreagieren, Texte hören, Gemeinschaft und Zugehörigkeit fühlen, Stars vergöttern, Lachen, Weinen usw.. Die Identifikation mit dem Interpreten und seinem Werk ist von großer Bedeutung - der Künstler, sein Aussehen, seine Story, seine Interviews usw..

Dass Songs heute digital produziert werden, weiß jeder - das ist kein Thema. Nach meiner Erfahrung wird das zunächst nicht unbedingt einfacher, je mehr Technik ihm zur Verfügung steht. Für Stilbildung ist eine gewisse Begrenzung notwendig. Das können begrenzte spielerische Fähigkeiten sein, Grenzen der Vorstellungskraft, Grenzen, die der eigene Geschmack setzt und die Grenzen der zur Verfügung stehenden Technik bzw. deren Beherrschbarkeit.
Die Entwicklung der Popmusik ist in erheblichem Maße an die Musiktechnologie gebunden, weswegen die Grenzfelder der Technik bisher die Goldminen neuer Ideen waren. In der digitalen Musikwelt sind jedoch die Grenzen auf den ersten Blick außer Reichweite geraten. Die Musik einer Band oder eines Produzenten muss mehr denn je Originalität haben, um wahrgenommen zu werden. Da heute schon ein handelsüblicher PC mit etwas Freeware eine unglaubliche Produktionsvielfalt bietet, besteht die Kunst umso mehr darin, Unverwechselbarkeit zu schaffen. 

Synthesizer (Hard- und Software) sind komplexer geworden. Oft verbergen sich hinter üppig klingenden Sounds eine unübersichtliche Menge an Parametern. Manche Synthesizer bieten Macro-Controller an, die Sounds verändern, ohne dass der Anwender noch weiß, was sich genau verändert. Es dürfte für einen jungen Menschen mühsam sein, sich durch die Synthesizerarchitektur zu arbeiten, vor allem, weil es viel Wissen erfordert, das sich im Laufe der Jahrzehnte zum Thema Klangsynthese angehäuft hat. Die beinahe logische Folge sind Musikstile wie Dubstep bzw. Brostep, bei denen die Tracks wesentlich durch die Aneinanderreihung vieler Synthesizer-Presets entstehen. Das ist insofern interessant, weil damit eben doch wieder an der oben zitierten "Grenze" gearbeitet wird. Vor ein paar Jahren waren die CPUs handelsüblicher PCs nicht in der Lage, mehr als 10 Softwaresynthesizer zu laden. Das Umschalten zwischen Presets sorgte für Latenzen und Artefakte. Collagen aus Samples sind seit Jahrzehnten nichts neues. Heute ließen sich zwar angesichts der Festplattengrößen riesige Sammlungen aufbauen, aber es bleibt bei Samples das Grundproblem, sie aufeinander klanglich abzustimmen. Beim Umschalten zwischen Presets eines Synthesizers ist das ein geringeres Problem. Deswegen ergeben sich neue ungehört harmonisch wirkende Klangkombinationen, in denen blitzschnell Sounds ein - und desselben Gerätes aufeinander folgen. Während es in etwas älteren elektronischen Musikstilen eher darauf ankam, Sounds übereinander zu mixen, machen aktuelle Stile das ganze Gegenteil. Sie mixen nacheinander in einer unglaublichen Geschwindigkeit und Vielfalt. 

Fraglos hat das Ergebnis jeglichen kreativen Umgangs mit dem Musikrechner mit dem Spielen von Instrumenten nicht mehr viel gemein. Meist zeigt sich das auch in der Abwesenheit der aus der gespielten Musik bekannten Strukturen wie Melodie, Harmonie, Strophe, Refrain usw.. Mir scheint das aber eher als eine Befreiung denn als ein Übel. Mittlerweile treten sich alle lebenden und toten Komponisten und Songschreiber in ihrem Anspruch nach Einzigartigkeit gegenseitig auf die Füße - meistens ohne es zu wissen und zu wollen. Ein Streit zwischen Lana del Rey und Radiohead machte das vor kurzem deutlich. Lana del Rey wurde seitens Radiohead der Vorwurf gemacht, einen Song in wesentlichen Teilen kopiert zu haben. Meine Meinung dazu ist, dass sie den Radiohead-Song nicht kannte. Sie hätte Diebstahl nicht nötig. Die Harmoniefolge war einfach zu einladend. Sie wird millionenfach von Songwritern verarbeitet worden sein. Dass dabei irgendwann fast gleich klingende Melodien entstehen, ist mathematisch-statistisch gesehen eine Frage der Zeit.

Dass viele moderne Popmusik keine gespielte Musik ist, hat eine anderes Phänomen zur Folge. Wie eingangs erwähnt, gibt es ein Absatzproblem bei Tonträgern. Während vor dem MP3-Zeitalter eine Live-Tournee das Tonträgergeschäft unterstützen sollte, ist es heute genau umgekehrt. Der Tonträger soll ins Konzert locken, denn das ist zur wesentlichen Einkommensquelle der Musiker geworden. So schwierig die Produktion eines Tonträgers früher für live spielende Musiker war, so schwierig ist heute die Produktion eines Livekonzertes für Musiker, die ihre Songs am Computer bzw. in einem digitalen Studio produzieren. Man muss in der Produktionsphase bedenken, ob und wie ein Projekt bühnentauglich gemacht werden kann. Man kann das mit dem Unterschied zwischen Kinofilm und Theaterstück vergleichen. 
Das Problem kann schon bei einer ganz normalen Gitarren-Rockband beginnen. Der heutige Soundstandard einer Produktion kann nur mit wesentlichen Eingriffen in den Originalsound erreicht werden. Schlagzeugsounds werden ausgewechselt,  das Timing gerade gerückt, der Gesang zurechtgestimmt und aufgeplustert. Schon allein das kann zu großen Unterschieden zwischen Produktion und Live-Performance führen. Eine "ehrliche", effektfreie  Produktion einer  Rockband hat es heute schwer, Aufmerksamkeit zu erlangen. Die Hörgewohnheiten sind mit dem technischen Standard gewachsen. Bei nicht wenigen Bands findet der Live-Auftritt in einem engen Korsett technischer Hilfsmittel statt. In dem Moment, wo ein Sequenzer mit läuft, muss man mit Klick spielen. Außerdem gibt es dann keine Freiräume mehr für spontane Formveränderung, für Temponuancen oder Fermaten. Die Musiker sind weniger frei und gleichen ihren Kollegen aus der Klassik, die streng nach Vorschrift zu funktionieren haben. 

Wenn man mal Aufnahmen von Woodstock oder Isle of Wight mit einem modernen Festival vergleicht, dann wird das extrem deutlich. Bei aktuellen Bands weiß man manchmal gar nicht mehr, wo der Sound herkommt, denn mindestens der Keyboarder spielt Vorgefertigtes ab wie ein DJ. Schlagzeuger benutzen Pads und rufen Samples ab. Beim Hip Hop ist das Halbplayback völlig normal. In EDM (Electronic Dance Music) dann  das Vollplayback. Mag sein, dass dem DJ mit den heutigen Geräten zahlreiche Eingriffsmöglichkeiten in den fertigen Track zur Verfügung stehen, aber ich sehe es als reines Alibi, um auf der Bühne irgendwie "aktiv" zu wirken. Die Essenz kommt selbstverständlich "vom Band".

Allerdings finde ich, dass sich Popmusik nur im technischen Bereich weiterentwickeln kann. Neue Entwicklungen im Bereich der Form, der Rhythmik und der Tonalität sind entweder nur technisch realisierbar oder mindestens technisch inspiriert. Die Rhythmik von Drum&Bass beispielsweise lässt sich auf das schnelle Abspielen von Drumgroove-Samples aus Funk und Soul zurückführen und sie hat das moderne Schlagzeugspiel beeinflusst. 
Wie in so vielen Bereichen in Alltag, Arbeitswelt oder Kunst stehen wir oft vor der Frage, was den Menschen von der Maschine unterscheidet. Ich bin insofern optimistisch gestimmt, dass ich die Maschine auch in Zukunft nicht über den Rang eines Werkzeug hinaus kommen sehe. Zumindest gegenüber den Menschen, die sich nicht selbst auf das Niveau der Maschine begeben und ihr Denken den maschinellen Prinzipien anpassen.  


Keine Kommentare:

Kommentar posten