Sprostowanie?

Być może… tak, czy owak przygotuj się, drogi Czytelniku na długą podróż złożoną w formę powieści szkatułkowej.

Czytając kolejne artykuły o produkcji i rozmawiając z osobami związanych
z tą tematyką dochodzę do coraz mocniejszego przekonania, iż stanowcza większość, czy to z braku doświadczenia, czy z nieuświadomionego lenistwa
i związanych z nim pokus “chodzenia na skróty”, traci z oczu najistotniejsze aspekty muzyki i jej produkcji, popadając potem raz po raz w tarapaty wynikające
z niezrozumienia pewnych podstawowych faktów.

Problem ten wynika prawdopodobnie z nagłego wzrostu dostępności zaawansowanych technologicznie rozwiązań, które pozwalają każdemu – bez względu na jego poziom wiedzy i umiejętności – na zajęcie się produkcją muzyczną w oparciu o instrumentarium działające niemal “out of the box”.
Zanim więc osoba taka będzie miała szansę zrozumieć podstawy niezbędne
do zadawania właściwych pytań, szukania odpowiedzi i rozwoju umożliwiającego osiągnięcie zadowalającego poziomu tworzonej muzyki, trafi
na całą gamę rozwiązań dających zadowalający efekt przy minimalnym wysiłku intelektualnym.

Sample packi zawierające w pełni wyprodukowane próbki, syntezatory z bogatymi bankami presetów na każdą okazję, midi packi z upchanymi gotowymi liniami rytmicznymi, melodycznymi i harmonicznymi, generatory pochodów harmonicznych etc. – to wszystko, jakkolwiek w rękach doświadczonego producenta jest morderczo skutecznym narzędziem pracy (być może nawet wykładniczo zwiększającym jej wydajność), to jednak dla osoby początkującej jest przysłowiowym strzałem
w kolano.

Korzystając z takich skrótów użytkownik staje wobec pokusy ucieczki od żmudnych ćwiczeń słuchu, nauki podstaw harmonii, technik produkcji i wielu innych istotnych “drobiazgów”. Braki w powyższych uniemożliwiają z kolei głębsze wejrzenie
w naturę samego fenomenu muzyki, tworząc swoisty szklany sufit.

* * *

W tym miejscu warto, jak mniemam, zatrzymać się i skupić na bezpośrednich przyczynach publikacji niniejszych przemyśleń. Spróbujmy zatem prześledzić kilka przykładów, pozornie ze sobą niezwiązanych.

Pierwszym jest niekończąca się dyskusja nad wyższością jednych rozwiązań
nad innymi, (np.: technologii analogowych nad cyfrowymi, lub na odwrót);
kolejnym – nad naturą konkretnych trendów w technikach produkcji (np.: loudness war); innym znowuż wszechobecna tendencja do skupiania się na konkretnych rozwiązaniach dostępnych na rynku, kosztem głębszej analizy mechanizmu
ich działania (brzmi zagadkowo, ale postaram się jeszcze wyjaśnić istotę
tego problemu).

Te i szereg innych tematów powracają uparcie we wszelkich dyskusjach z powodu nastawienia większości ich uczestników na doraźne i wymierne skutki ich działań, uniemożliwiające głębszą refleksję nad przyczynami wspomnianych zjawisk.

Analizując zatem (na razie tylko) wspomniane problemy, postarajmy się znaleźć przynajmniej jakiś trop prowadzący do w miarę obiektywnych wniosków.

1. Analog vs digital.
Mając świadomość ogromu skali (instrumenty, efektory, infrastruktura studyjna, replikacja, nośniki, dystrybucja) ograniczymy się wyłącznie do nośników: płyty winylowej i CD – casus szczególnie dobry ze względu na szczególną popularność.

Format CD przechowuje dźwięk w formie nieskompresowanego strumienia liczb binarnych o długości 16 znaków – każde. Z uwagi na stereofoniczny zapis, strumień ów składa się de facto z dwóch niezależnych odpowiadających odpowiednio prawemu i lewemu kanałowi.
Standard przyjęty dla płyt CD Audio zakłada częstotliwość próbkowania dźwięku rzędu 44,1 kHz, co w świetle twierdzenia Kotielnikowa-Shannona (częstotliwość Nyquista: http://pl.wikipedia.org/wiki/Cz%C4%99stotliwo%C5%9B%C4%87_Nyquista ) pozwala na bezstratne odtworzenie dźwięku w pasmie do ~22kHz.
Długość pojedynczego słowa (16bit) pozwala natomiast na zapisanie dźwięku
o teoretycznej dynamice 96dB (realny poziom dynamiki jest ograniczony ditheringiem – szumem tła dodawanym na poziomie ok. -91dB dla zamaskowania błędów
i niedoskonałości przetwarzania dźwięku cyfrowego, zwanych jitterem).
W tym przedziale częstotliwościowym i dynamicznym nie ma w zasadzie żadnych ograniczeń technicznych co do niezależności kanałów
(np. różnice fazowe). Również w dopusczalnym zakresie czasu (zależnie
od przyjętych standardów produkcyjnych: maksymalnie od 74 do ok. 80 min) długość nagranego materiału pozostaje bez wpływu na jakość brzmienia.

W odróżnieniu od formatów cyfrowych, domena analogowa jest ze swej natury dużo bardziej zmienna. Nie istnieje tu jednolicie zdefiniowane pojęcie jakości dźwięku,
a zarówno szerokość jego pasma częstotliwościowego, jak i dynamicznego zależy w zasadniczej mierze nie tylko od samego typu płyty (rozmiar, gramatura i długość nagranego materiału dźwiękowego, prędkość odtwarzania), ale i jakości procesu replikacji (master cutting, pressing).

Istnieją natomiast konkretne ograniczenia techniczne wynikające z samej natury nośnika, i tak:
+ wraz ze zwiększeniem czasu albumu, następuje spadek ogólnej dynamiki dźwięku spowodowany wzrostem gęstości żłobienia.
+ niezależnie od tego im bliżej do środka płyty, tym mniejsza staje się dynamika dźwięku (skrócenie długości ścieżki przy jednoczesnym zachowaniu prędkości kątowej obrotu płyty powoduje realny spadek prędkości przesunięcia igły, a zatem wzrost kompresji zapisanego sygnału)
+ szerokość zakresu częstotliwościowego (górna granica) oraz jego dynamika (dolna granica) są ograniczone bezwładnością (siła docisku) ramienia adaptera (igły)
+ niezależnie od przyjętego formatu zapisu (mono, stereo) dolna część zakresu częstotliwościowego musi pozostać w formie mono (zgodność fazy poniżej 400 Hz), ma to zapobiegać nadmiernemu ruchowi bocznemu igły, która w przeciwnym razie mogłaby mieć tendencje do wyskakiwania z rowka.

Mając w pamięci powyższe ograniczenia powróćmy do możliwości płyty winylowej, a nie są one wcale takie małe: 75 dB dynamiki przy zakresie ~10 – 25000 Hz
(więcej o możliwościach płyty winylowej http://www.groovehouse.com/blog/post/producing_great_sounding_phonograph_records/ ).

Tyle tytułem porównania technicznych parametrów obu typów nośników.
Czas na konkluzję: powyższe jest zasadniczo bez znaczenia, a wyższość jednego nośnika nad drugim pozostaje wrażeniem czysto empirycznym, niepodlegającym dyskusji. Dlaczego?

Skoczmy do realiów codzienności: różnica w zakresie dynamicznym ograniczona jest możliwościami ludzkiego słuchu: maksymalny bezpieczny dla człowieka poziom głośności to 85dB (do 8 godzin nieprzerwanego słuchania w ciągu doby), natomiast komfortowe warunki osiągnąć można już przy poziomach głośności rzędu 70dB (dźwięk staje się dominujący, posiada rozpoznawalną głębię basu
i krystaliczność wysokich tonów, nie jest jednak męcząco krzykliwy). Co więcej podczas długotrwałego słuchania muzyki właściwym krokiem jest regularna zmiana głośności – przy czym lepiej zmniejszać ją do poziomu, przy którym dźwięk przestaje przytłaczać słuchacza wciąż pozwalając skupić się na konkretnych szczegółach.

Dowolność panoramowania w pełnym zakresie częstotliwościowym ograniczana jest w produkcji muzycznej względami historycznymi i estetycznymi. Przesuwanie instrumentów odpowiedzialnych za dolne zakresy dźwięku w panoramie
jest raczej bardzo rzadkim efektem, a przesunięcia fazowe (w tym zwłaszcza dźwięki w przeciwfazie) są nie bez przyczyny uznawane za niedopuszczalny błąd.

Również wykorzystywane pasmo częstotliwościowy utworów muzycznych
jest zazwyczaj węższe od dostępnego z uwagi na ograniczenia już to systemów nagłośnieniowych, już to – samych odbiorców. Dolne zakresy bowiem z jednej strony nie przenoszą istotnej informacji muzycznej, a tylko energię akustyczną (która może równie dobrze być przeniesiona przez wyższe dźwięki zwiększając przy tym wrażenie głośności muzyki). z drugiej strony – często pozostają poza zasięgiem nawet najlepszych systemów głośnikowych (zwłaszcza w kontekście pomieszczeń nie zaprojektowanych specjalnie do odsłuchu uwzględniającego te pasma).
Co do górnych – owszem, człowiek jest teoretycznie w stanie usłyszeć dźwięki
w zakresie nawet do 26 kHz, ale po pierwsze: z czasem wszyscy głuchniemy
i to głównie właśnie w pasmie powyżej 14 kHz, po drugie zaś naturalna bariera mająca m.in. ochronić nasz słuch przed postępującą degradacją – woskowina – jest zarazem skutecznym izolatorem akustycznym, pochłaniającym te właśnie najwyższe dźwięki. Ponadto i one pozostając co prawda teoretycznie składową nadającą charakteru muzyce, jeśli nawet są odbierane, to jednak w większości przypadków podświadomie.

Te ograniczenia odbiorcy i sprzętu powodują, iż realny zakres w jakim wydawane
są nagrania to ok ~50 Hz – 18 kHz.

Po zebraniu tych i innych faktów (niedoskonałości systemów nagłośnieniowych, wpływ otoczenia na warunki odsłuchowe etc) docieramy do miejsca, gdzie pytanie
o wyższość jednej domeny nad drugą staje się w zasadzie dyskusją na poziomie pytania, czy lepsze są czarne, czy białe samochody.

2. Loudness War.

O ile poprzedni przykład ilustruje niegroźne dla środowiska i przemysłu muzycznego dyskusje, o tyle w tym przypadku mamy do czynienia z problemem dużo poważniejszym.

Pomijając cały rys historyczny zjawiska, czy aktualne trendy z nim związane skupmy się na esencji. U podstaw loudness war leży przekonanie (potwierdzone badaniami psychologicznymi i psychoakustycznymi), iż muzyka głośniejsza uznawana jest za lepiej brzmiącą.
Teza ta w połączeniu z posiadającą ścisłe i nieprzekraczalne ograniczenia (głośność maksymalna) domeną cyfrową, która z drugiej strony daje możliwości coraz doskonalszej obróbki i pomiaru istotnych parametrów dźwięku, spowodowały nasilenie problemu do poziomu ogólnoświatowej paranoi i rozprzestrzenienie go
na pola, na których nie ma on zgoła racji bytu.

Jakkolwiek bowiem w przypadku wydania singla na potrzeby emisji w radiu,
czy telewizji, gdzie będzie on konkurował z innymi produkcjami emitowanymi
na antenie, maksymalizacja głośności jest jeszcze w jakiś sposób usprawiedliwiona, o tyle zarówno w kompilacjach, jak i autorskich wydawnictwach traci całkiem sens, doprowadzając przy tym do katastrofalnej degradacji jakości dźwięku, co z kolei
w oczywisty sposób zniechęca do słuchania takiej muzyki, która została okradziona z jednego z najpotężniejszych elementów – dynamiki.

Właśnie ukierunkowanie na szybkie osiąganie wymiernych rezultatów, rezygnacja
z samokształcenia w dziedzinach muzycznych, rozwoju wrażliwości artystycznej
i niezbędnej wiedzy technicznej oraz głębszej refleksji na temat samej istoty muzyki doprowadziły do sytuacji, w której pośród niezliczonych wezwań do przełamania wszechobecnego trendu nikt nic nie zrobił. Dopiero wprowadzenie nowych technologii przez niepopularnych (w kręgach środowiska muzycznego odpowiedzialnych za ten stan rzeczy) internetowych dystrybutorów muzyki wymusiło zmiany systemowe, które być może zakończą loudness war.
Tymczasem pozostanie kolejny ważki problem, który wydaje się być niemożliwy
do rozwiązania dla przemysłu muzycznego – rynkowa supremacja formatów stratnej kompresji dźwięku (mp3). Po raz kolejny będziemy świadkami takiej mniej więcej dyskusji:

3. (…)

Trzeci spośród przytoczonych przykładów dotyczy już tylko (powiedzmy) producentów muzycznych, oraz (w pewnym ograniczonym zakresie) relacji między nimi i dostawcami rozwiązań (sprzęt i oprogramowanie studyjne).

Człowiek jest z natury leniwy, co nie zmienia faktu, iż w każdej dziedzinie działalności po osiągnięciu pewnego – na ogół podstawowego – poziomu wiedzy
i umiejętności stajemy przed prostym wyborem: lenistwo, albo dalszy rozwój.

Znakomita większość nowych adeptów poszczególnych sztuk stanąwszy przed tym dylematem rezygnuje, niemal wszyscy z pozostałych próbują się jakoś prześlizgnąć w mniejszym, czy większym stopniu unikając pańszczyzny codziennych obowiązków: poszerzania wiedzy, zbierania doświadczeń poprzez żmudne ćwiczenia i takie, czy inne praktyki. Nieliczni – na ogół odnalazłszy w tych działaniach niejaką satysfakcję – biorą na siebie brzemię dalszego rozwoju.

Są dziedziny, w których granica ta pojawia się nieledwie na samym początku i jest nieprzekraczalna (sport, śpiew, gra na instrumentach muzycznych, taniec, rękodzieło etc). W części przypadków rozwój technologiczny i rynkowy przesuwają tę granice i ją zacierają.
Sama proces rozwoju technologicznego ma ambiwalentny charakter. Jest to z jednej strony zjawisko dobre: wraz ze wzrostem technologicznym rośnie dostępność konkretnych rozwiązań, a spada ich cena. To powoduje wzrost zainteresowania daną dziedziną, rozwija się zebrana wokół niej społeczność zwiększając szanse na dynamiczny rozwój merytoryczny tej dziedziny (nowe nurty, stylistyki, teorie naukowe popychające wzrost technologiczny). Istnieje jednak i spore ryzyko,
gdy rozwój ten ulega perturbacjom powodowanym przez zjawiska bądź to niezwiązane z samą dziedziną, bądź odrzucającej lub negujące jej podstawy
na korzyść innych priorytetów.

W przypadku produkcji muzycznej katalizatorami zarówno pozytywnych,
jak i negatywnych zjawisk mających wpływ na muzykę jest domena cyfrowa.
Z jednej strony uzyskaliśmy dostęp do zaawansowanych technologii rejestracji, produkcji, publikacji, promocji i dystrybucji muzyki, z drugiej strony rozwijający się katalog związanych z nimi usług powoduje, iż często mniej już muzyki w muzyce, niż mięsa w Bic Macu.

Tyle tytułem ogólników, bo lepiej skupić się na szczegółach mających bezpośredni wpływ na samą produkcję.

Podstawowym problemem jest często niechęć producentów do dzielenia się rzetelną informacją na temat sposobu działania oferowanych urządzeń, miarodajnych wartości konkretnych parametrów (a przynajmniej tej ich części, którą dałoby się
w ten sposób wyskalować).

Pół biedy, gdy chodzi o magiczny filtr (w torze efektowym Massive’a), który przesterowuje sygnał, odcina górną część zakresu dodając nieco rezonansu
na częstotliwości granicznej, a potem przyprawia dźwięk szczyptą pyłku od wróżki – Native Instruments ma święte prawo bronić się przed ujawnianiem konstrukcji odpowiedzialnego za to algorytmu.
Gorzej, gdy gałki interfejsu graficznego, gęsto obrysowane kreskami skali
bez oznaczenia jakichkolwiek dodatkowych wartości (że o miarodajnych jednostkach nie wspomnę), wyglądają jak małe jeżyki. tak, iż o realnych wartościach parametrów obwiedni można zgadywać (przypomnę tylko, iż obwiednia działa
w domenie czasu: domyślne jednostki to sekunda i milisekunda, nie zaś “moment, “chwilunia”, czy “jeszcze trochę w prawo”), a głośności oscylatorów podajemy odliczając ilość kresek od najbliższego punktu orientacyjnego, którym jest
na przykład trzecia litera podpisu wieńczącego gałkę (tutaj najwłaściwszą jednostką byłby zwyczajowy dB).

W tych okolicznościach, zapewne zgodnie z zamierzeniami projektantów tej maszynki, użytkownik skazany jest na jej eksplorację po omacku.
Podejście zapewne tyle godne chwały, co bezsensowne. Nauka tego syntezatora
(i jemu podobnych) wymaga od użytkowników więcej czasu i pracy, niżby było trzeba, skazując większość na ograniczenie się do presetów, które niekoniecznie
im odpowiadają.

W tym miejscu, drogi Czytelniku, zależnie od tego, czy masz już jakieś doświadczenia związane z produkcją muzyki, czy jesteś tylko jej słuchaczem, pragnę poprzeć powyższe – wyglądające na maniakalne fanaberie – przemyślenia, stosowną dla Ciebie argumentacją.

Dla twórców.
Owszem to tylko fanaberia, do momentu, w którym chcesz, drogi Czytelniku, np.:
1) wprowadzić do miksu bardzo konkretne brzmienie, lub dźwięk, którego nie sposób inaczej pozyskać (czy to przez sampling, czy to bezpośrednie nagranie, czy też daleko idące przetworzenie jednego z dwóch powyższych, albo też syntezatora
z presetem mającym być tylko półproduktem),
2) usunąć, bądź też uwypuklić konkretny aspekt jakiegoś brzmienia (jak chocćby harmoniczną, zakres częstotliwościowy, fakturę dźwięku, [nie]pożądane interferencje i efekty fazowe), a z uwagi na przebieg linii melodycznej,
czy harmonicznej (czy jakikolwiek inny powód) jedynym miejscem zdatnym
do edycji pozostaje preset tego nieszczęnego syntezatora,
3. odtworzyć preset, który ku swojemu wielkiemu ubolewaniu straciłeś.
Jako, że problem ten dotyczy dużej grupy bardzo różnych urządzeń i wtyczek, rozciągnij, drogi Czytelniku, powyższe przykłady z generatorów na wszystkie możliwe maszyny – od efektorów, przez kompresory, limitery, bramki (a w zasadzie ich hybrydowo ulepszone, magicznie poprawiające dźwięk wersje), skończywszy
na bliżej nieokreślonej konstrukcji filtrach, korektorach, saturatorach, distortach, enhancerach etc., a potem odpowiedz sobie na pytanie, skąd masz np. wiedzieć,
na którym spośród 90 kanałów w Twojej sesji trzeba zmienić ustawienia w łańcuchu efektowym, żeby usunąć ten brzydki peak, powstający na ataku stopy, gdy żaden
z kanałów sam go nie tworzy, a pojawia się to to w wyniku wzajemnych interferencji sygnałów wszystkich kanałó na raz…? Skąd masz wiedzieć co edytować,
gdy 1/4 sesji stoi na urządzeniach, których sposobu działania domyślasz się bardzo mgliście, a modyfikacje powodowane przez owe łańcuchy są tak mocne,
że zmieniają prostą sinusoidę w dźwek przypominający ujadanie psa na podwórku sąsiada?

Dla odbiorców.
Mam nadzieję, drogi Czytelniku, iż nawet jeśli nie zgadzasz się z poniższą tezą
(de gustibus non disputandum), to jednak uznasz ją za pewien konkretny argument (nie mojego wszakże autorstwa, choć w dużej części się z nim zgadzam).

Najmniej popularną pod względem muzycznym dekadą w historii fonografii
są lata 1980-te. Relatywnie mało jest przełomowych płyt z muzyką rozrywkową
z tego okresu, wydawnictwa z tamtych czasów pozostają w pewien sposób niszowe. Płyty często nie różnią się od siebie brzmieniem, charakterem, pomysłami.
Istnieje kilka przyczyn takiego stanu rzeczy. Pierwszym jest rozwój technologiczny powodujący – tak jak obecnie – większą dostępność akcesoriów studyjnych, w tym zwłaszcza tych umożliwiających i ułatwiających tworzenie muzyki elektronicznej (jednym z największych wyzwań w pracy studyjnej jest nagrywanie wokali oraz instrumentów akustycznych i elektroakustycznych, możliwość rezygnacji z tego żmudnego i czasochłonnego elementu produkcji, i radykalnie obniża jej koszta).

To doprowadziło do uproszczenia procesu produkcji, obniżenia jego kosztów, popularyzacji takiej formy aktywności twórczej, a co za tym idzie, również powstawania tzw. studiów domowych (home studios), w których często królował konkretny zestaw instrumentów (np. syntezatory Yamaha z serii DX, automaty perkusyjne i syntezatory basowe firmy Roland).

Część z tych instrumentów miała proste konstrukcje, ograniczone możliwości edycji, z uwagi na cel, jaki przyświecał  ich twórcom podczas projektowania (serie TR i TB Rolanda miały służyć jako ersatz prawdziwych instrumentów i muzyków sesyjnych w sesjach nagraniowych małych studiów muzycznych). Inne, jak Yamaha DX-7 były dość rozwiniętymi instrumentami, których prawdziwych możliwości nikomu jednak nie chciało się eksplorować. Zamiast tego wszyscy producenci korzystali z tych samych banków brzmień, bo łatwiej było wybrać z listy np. jedno z czterech pianin elektrycznych, niż wymęczyć się tworzeniem nowego w ciągłym przeskakiwaniu przez koszmarnie zaprojektowane menu edycyjne.
Lenistwo wzięło górę nad kreatywnością, a epoka vintage eighties w muzyce elektronicznej pozostanie szarą wyrwą między wczesnymi dziełami Briana Eno, Kraftwerka, J.M. Jarre’a, czy Vangelisa i rewolucją techno. Epoką znaną z Michaela Jacksona, Eurithmics,  i tematów z Beverly Hills Cop, czy Miami Vice błyszczących pośród szarości italo disco i new romantic.
… jak wspomniałem, to tylko opinia, ale niestety, choć nieco przerysowana,
ma w sobie sporo prawdy…

* * *

Powyższe przykłady wraz z ich omówieniami pokazują trywialność większości dyskusji wobec dostępu do informacji źródłowych (cd vs pvc), skalę niedouczenia
i lenistwa (loudness war), oraz przyczyny i skutki takich postaw zarówno
w wymiarze dnia codziennego (w odniesieniu do twórców), jak i w wymiarze długofalowym (w odniesieniu do odbiorców).

Gdzie jednak znajduje się ów szklany sufit wspomniany na początku?
Kompleksowość zagadnienia, jakim jest produkcja muzyczna, uniemożliwia wskazanie go jako jedną ciągłą płaszczyznę tnącą całą domenę produkcji
w poprzek, tym niemniej warto zastanowić się nad tym, gdzie znaleźć można jej widoczne fragmenty, poza którymi nie pozostaje już nic innego, jak tylko rzetelna, systematyczna praca.

Wydawać by się mogło, iż pierwszą i zarazem najistotniejszą pozostaje
ta powodowana ograniczeniami sprzętowymi. I tak, i nie. Bowiem ograniczeniem są tu nie tyle braki sprzętowe (wysokie ceny, niewystarczająca dostępność na rynku – dotyczy to zwłaszcza urządzeń, których się już nie produkuje),
ile raczej przekonanie, iż może to w jakiś sposób ograniczać twórczo.
Taki stan rzeczy zmusza do kreatywności, szukania rozwiązań zastępczych, alternatyw, wreszcie – do twórczego obejścia problemu.

Wykorzystanie ograniczeń sprzętowych, jako kolejnego instrumentu dostępnych opcji pozwala skupić się na dostępnych opcjach i z miejsca podjąć działanie. Zamiast więc wertować niekończącą się bibliotekę wtyczek, możemy skupić się
na wykorzystania w konkretnym celu jednej, którą z racji regularnego, częstego używania szybko jesteśmy w stanie poznać i opanować w sposób gwarantujący skuteczne zastosowanie.

W ten sposób dochodzimy do drugiego – bardzo istotnego ograniczenia: zasady “less is more”.

Praca producencka, jak każda inna, wymaga właściwego warsztatu zarówno
w znaczeniu zestawu używanych narzędzi, jak i umiejętności, doświadczenia.
Te dwa znaczenia są ze sobą powiązane do tego stopnia, iż lepiej ograniczać zestaw narzędzi skupiając się na ich dogłębnych poznawaniu, niż łagodząc rygor wybierać z szerszego wachlarza w sposób nieprzemyślany i przypadkowy.

Szczególnie dwa przykłady dobitnie pokazują sens takiego podejścia.

A) Syntezatory.
Jeśli nie istnieje w pełni uzasadniona potrzeba użycia innego, konkretnego urządzenia, najlepiej skupić się na jednym, którego aktualnie się “uczymy”. Syntezatory ze swej natury podobne są trochę do odbiorników radiowych – kilka gałek i parę przełączników, które dają możliwość usłyszenia jakiegoś dźwięku.
Jeśli zdecydujemy się na automatyczne dostrojenie do jakiejś stacji, to owszem, usłyszymy konkretny, przewidziany dźwięk, ale zabawa zaczyna się,
gdy zdecydujemy kręcić gałką regulatora na własną rękę.
Przez większość czasu słychać będzie tylko chaotyczny szum, ale w końcu złapiemy stację, o której wcześniej nie mieliśmy nawet pojęcia.
Podobnie syntezatory oferują gotowe banki brzmień, które wraz ze wzrostem umiejętności można samemu modyfikować, ale w końcu przychodzi czas wypłynąć w pełne morze ograniczając wykorzystywane presety do jednego: -init-.
Prędzej, czy później tworzenie własnych brzmień staje się frajdą, a zyskane doświadczenie z czasem procentuje wprawą pozwalającą na “wykręcanie tłustych bitów z palca”.

B) Urządzenia stosowane w miksie (kompresja, bramki, limit, korekcja, filtry).
Dobrze jest ograniczać do tych najbardziej przejrzystych brzmieniowo i od strony obsługi, przynajmniej do momentu, w którym nabyte doświadczenie w naturalny sposób nie wprowadzi nas na kolejny poziom: poszukiwania rozwiązań o konkretnym charakterze, np. kompresorów lampowych, filtrów analogowych ustalonych marek i modeli etc.
Wiedza na temat sposobu działania danego typu urządzenia stanowi doskonałą podstawę do testowania i zbierania doświadczeń na temat konkretnych
jego egzemplarzy (serii, marek, odmian, klas), łatwiej bowiem wychwycić często bardzo subtelne różnice, które decydują o wyborze jednego spośród całej listy.

Doświadczenie płynące z praktycznego użycia poszczególnych urządzeń nie może obyć się bez wiedzy teoretycznej i to nie tylko tej bezpośrednio związanej
z technologiami użytymi w tych urządzeniach, ale także tej o ogólniejszym charakterze. I tak – wracając do syntezatorów, istotną wiedzą będzie tu nie tylko znajomość schematów toru audio (na poziomie pozwalającym choćby na swobodne użytkowanie), ale też teoretyczne podstawy syntezy i modulacji sygnału.
Brak takiej podpory teoretycznej (nawet na poziomie podstawowym), szczególnie
w przypadku bardziej zaawansowanych technologii (FM, synteza modelowania fizycznego, synteza granularna) utrudnia zrozumienie procesu syntezy narażając
na niepożądane rezultaty (wszelkiego rodzaju wizgi są zwłaszcza prawdopodobne przy FM i modelowaniu fizycznym – oba modele syntezy są dość nieintuicyjne
i zaskakujące) drastycznie również spowalniając proces nauki, niejednokrotnie nawet skutecznie do niej zniechęcając.

A zatem od praktyki przez coraz to ogólniejszą teorię, aż do nabywania wiedzy
na poziomie fundamentalnym (psychoakustyka, akustyka, fizyka). Jednak wiedza, jaką wypada przyswoić dotyczy również przecież aspektu czysto muzycznego.

Tak trafiamy na kolejną bardzo istotną granicę – tę wynikającą z wykształcenia
w dziedzinie teorii muzyki (harmonia, rytmika, dynamika, instrumentacja, aranżacja), jej historii (niezbędne minimum w tym przypadku powinno pozwalać na swobodę
w doborze repertuaru do analitycznego słuchania muzyki) i nauk im pokrewnych.

Ta wiedza ma swoje realne przełożenie na merytoryczną jakość twórczości: aranżacja i instrumentacja pomagają w konsekwentnym utrzymaniu ładu i  budowaniu napięcia utworu w sposób przemyślany (klarowność konstrukcji, kontrapunkty, logiczne i przejrzyste zestawianie brzmień).
Melodyka, rytmika i harmonia pozwala na unikanie miałkości i błędów, których potem nie da się naprawić w miksie (niezamierzone dysonanse, nudne, przewidywalne frazy, brak spójności w motoryce utworu i niezamierzone wrażenie ociężałości, niezbalansowanie pasm częstotliwościowych, puste zakresy lub clashe).
Znajomość różnych gatunków i nurtów muzycznych umożliwia swobodną żonglerkę tematami, motywami, cytatami, zapożyczeniami, a także w łączeniu odmiennych stylistyk w nowe, często zaskakujące zestawienia, przy jednoczesnym zachowaniu naturalności i integralności utworu.

Wreszcie krytyczne słuchanie muzyki, selekcja materiałów referencyjnych, ćwiczenie słuchu na potrzeby analizy dźwięku, jak również ćwiczenie gry
na instrumentach.
Cel powyższych, już czysto praktycznych działań, to nie tylko osiągnięcie biegłości w pracy z instrumentami (podstawowa wiedza na ich temat jest przydatna
przy wszelkich sesjach nagraniowych z udziałem muzyków sesyjnych), ale również w procesie komponowania utworów. Oprócz tego rozwija umiejętności analityczne niezbędne do prawidłowej edycji nagrań w pracy nad miksem (zestrajanie, wychwytywanie błędów panoramy, przesunięć fazowych, korekcja, osadzanie ścieżek w miksie, wychwytywanie potencjalnych problemów z dynamiką
i głośnością).
Ostatnim, często zapominanym aspektem jest tu wreszcie ciągła potrzeba szukania kolejnych inspiracji. Umysł wymaga stymulacji, zaś ludzka kreatywność
jest ograniczona do składania w nowe formy wyłącznie elementów zapożyczonych skądinąd.

Wszystkie te i wiele innych – niewymienionych tutaj – elementów rozwoju zawodowego i artystycznego ma, jak widać bardzo istotny wpływ na konkretne aspekty pracy producenta, zaś często obierana droga na skróty prędzej,
czy później skutkuje konkretnym ograniczeniem umiejętności, kreatywności,
lub efektywności. To z właśnie staje się realną barierą w dalszym rozwoju artystycznym, granicą nieprzekraczalną dla wszystkiego poza ambicją i wyobraźnią.

[]txt v.03

Advertisements

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s