Ulubiony kiosk PRZEJRZYJ ONLINE WRZEŚNIOWE WYDANIE Live Sound ZAMÓW Z PRZESYŁKĄ GRATIS

Tutoriale

Struktura wzmocnienia. Co z tym fantem zrobić

Struktura wzmocnienia. Co z tym fantem zrobić

Dodano: piątek, 7 czerwca 2013

Temat jest stary, ale bardzo żywotny i, niestety, wciąż na czasie. Co gorsze, nic nie wskazuje na to, by szybko pozwolono mu odejść w zapomnienie.

 

Zmieniają się muzyczne trendy, zmieniają technologie oraz budowane z ich wykorzystaniem systemy nagłośnieniowe, a on wciąż trwa – niezmiennie opierając się wszelkim zmianom i upływowi czasu.

Porównując sobie oglądane w pewnym okresie koncerty coraz bardziej utwierdzam się w przekonaniu, że o ile w przypadku zagranicznych projektów przykłada się dużą dbałość do brzmieniowych szczegółów, o tyle w przypadku rodzimych produkcji najważniejszym gwarantem udanego koncertu jest to, by zgromadzoną widownię zasypać jak największą ilością decybeli. Im jest ich więcej, tym lepiej. Tu pytanie – lepiej dla kogo, bo finalnie nie wychodzi to często na dobre temu, co mają do zaproponowania słuchaczom ludzie stojący na scenie.

Oczywiście zjawiska tego nie chcę generalizować, bo dla pewnych (nielicznych) wyjątków byłaby to z pewnością opinia krzywdząca. Jednak stało się pewnego rodzaju prawidłowością, że bez względu na to, co aktualnie dzieje się na scenie – czy płyną z niej liryczne teksty, prezentowane na tle akustycznego instrumentarium, czy drapieżne riffy rockowych kompozycji – zasada jest taka sama: doły powinny owijać słuchaczom żołądki wokół kręgosłupów, a góra „strzyc” owłosienie, do ostatniego rzędu. To, co pomiędzy dołem i górą się dzieje nie ma w sumie większego znaczenia. Jeśli nawet nie da się zrozumieć, o czym śpiewa wokalista, to czy jest to jakimkolwiek problemem? Przecież ci, którzy przyszli na koncert znają wykonywane piosenki, więc wiedzą, o czym śpiewa – skoro przyszli...

WSZYSTKIE GAŁY W PRAWO!


Jak powstała moda na tego rodzaju estetykę trudno powiedzieć. Być może wzięła się z faktu, że zagrać ciszej jest znacznie trudniej, bo wówczas trzeba się nieźle nakombinować, jak skleić do kupy wszystkie dźwięki, by uzyskać selektywny miks, a zgiełk doskonale maskuje wszelkie mankamenty realizacyjnego warsztatu.

Nie jestem przeciwnikiem głośnego grania, wręcz przeciwnie – o czym kiedyś zresztą pisałem. Dodam może tylko jeszcze, że również w sztuce realizacji dźwięku wszystko ma swoje miejsce, czas i kolejność. W tym samym materiale pisałem także o tym, że muzyka głośna nie męczy, natomiast hałas – jak najbardziej. Niestety, granica pomiędzy muzyką oraz hałasem jest dość umowna i w znacznym stopniu zależna od indywidualnych preferencji każdego słuchacza. Trudno w tym przypadku wskazać jednoznacznie jakikolwiek punkt odniesienia, bo wszystko to leży gdzieś głęboko w sferze czysto subiektywnych doznań, a więc i mocno teoretycznych rozważań. Istnieje jednak pewien istotny czynnik, zwany „zdrowym rozsądkiem”, do którego i w tym przypadku warto zawsze się odwoływać.

Z uwagi na tę właśnie niejednoznaczność określania poczucia głośności zajmijmy się może tym, co możliwe jest do racjonalnego uzasadnienia, u którego podstaw leżą jasno określone, techniczne prawidłowości. Jeśli weźmiemy „pod lupę” którykolwiek z funkcjonujących na rodzimym rynku systemów, oferowany przez producenta o uznanej reputacji, to szybko przekonamy się, że są to te same systemy, na których pracuje się na całym świecie, zapewniające solidną bazę do uzyskania jakości brzmienia na wysoce zadawalającym, profesjonalnym poziome. Można oczywiście spierać się na temat wyższości jednej marki nad drugą, ale dyskusje te wynikają już raczej z osobistych przyzwyczajeń, preferencji i/lub uprzedzeń poszczególnych osób do którejś marki lub dystrybutora, bo, powiedzmy sobie szczerze, systemy te nie odbiegają w jakiś dramatycznie różny sposób od profesjonalnych standardów.

Co stanowi zatem o tym, że ten sam sprzęt potrafi działać tak skrajnie różnie w różnych przypadkach? Problem jest wielowątkowy i dlatego również bardzo złożony, co sprawia, że nie da się odpowiedzieć na to pytanie jednym tylko zdaniem. Oczywiście mankamentami u nas jest najczęściej to, w jaki sposób posiadany przez daną firmę nagłośnieniową sprzęt jest eksploatowany, stopień zaangażowania oraz wiedzy przygotowujących go do pracy ludzi, a także jego ilość – niekiedy zupełnie nieadekwatna do potrzeb realizowanego przedsięwzięcia. Klasa i cena sprzętu mają znaczenie drugorzędne w stosunku do odpowiedniego przygotowania. Nawet najdroższy, ale źle przygotowany do pracy system nigdy nie zbliży się jakością brzmienia do znacznie tańszego, ale dobrze przygotowanego systemu. Są to zupełnie osobne tematy, które kiedyś częściowo poruszałem i do których nie chcę akurat w tym momencie wracać.

CZŁOWIEK(U), TO BRZMI... JAK?


Ilekroć by na całokształt wielu sytuacji nie spojrzeć, zawsze okazuje się, że ułomnością w duecie system nagłośnieniowy + człowiek jest niestety „ten drugi”, a więc czynnik ludzki. Nikt też inny, jak tylko i wyłącznie człowiek ma decydujący wpływ na pewien ważny czynnik, określany jako Gain Structure, czyli proces budowania struktury wzmocnienia, od którego zależy poprawna praca każdego systemu nagłośnieniowego, bez względu na jego stopień skomplikowania. Powiem więcej, właściwe kształtowanie struktury wzmocnienia jest jednym z najistotniejszych czynników, decydujących o dobrym brzmieniu każdego systemu nagłośnieniowego! Pamiętam, że przed laty temat ten konsekwentnie wbijali do głów licznie zgromadzonym uczestnikom szkoleń panowie „zza wielkiej wody”, reprezentujący markę Meyer Sound. Choć dawno już w tego typu spotkaniu nie uczestniczyłem, to domyślam się, że robią to nadal, gdyż temat dotyczący struktury wzmocnienia należy do zagadnień pryncypialnych, a do tych – zwłaszcza „Meyerowcy” – odnoszą się ze szczególną atencją.


Odpowiednie „poukładanie” wszystkich elementów regulacyjnych, które odpowiedzialne są za poziomy sygnału na kolejnych etapach toru audio – od jego źródła, po membrany przetworników – nie jest wcale rzeczą trudną. Wymaga to jedynie zrozumienia struktury toru sygnałowego oraz niewielkiego zakresu pewnej innej, może nawet ważniejszej, wiedzy, a mianowicie: „co chce się uzyskać, i co w danym momencie próbuje się zrobić, by to uzyskać” – czyli świadomego działania.

Jest też jeszcze jedno ważne pytanie, które koniecznie powinien zadać sobie każdy: Czy pewne pielęgnowane „nawyki”, wykształcone podczas pracy z jednym tylko znanym sobie systemem (np. w małym klubie), sprawdzą się w konfrontacji z dużym systemem o złożonej konfiguracji, pracującym na dodatek w pomieszczeniu o tak zwanych „trudnych warunkach akustycznych” lub na rozległej otwartej przestrzeni?

Mam nadzieję, że pomocnym w prowadzeniu indywidualnych rozważań przez każdego, kto zechce odpowiedzieć sobie na postawione wyżej oraz inne trudne pytania, będzie wyjaśnienie kilku podstawowych pojęć. Każda dziedzina aktywności ma swój specyficzny język – oficjalny i ten potoczny, który funkcjonuje wśród ludzi wykonujących tę samą profesję. Ma też swoją specyficzną terminologię, odnoszącą się do wąskiej grupy zagadnień związanych ściśle z profilem danej działalności. Tu należałoby zacząć chyba od wyjaśnienia, czym jest decybel, ale z pewnych oczywistych względów ten akurat temat pominę. Zakładam bowiem, że wyjaśnianie definicji decybela byłoby tym samym, co tłumaczenie studentom (na przykład ostatniego roku) matematyki zasad działania tabliczki mnożenia. Zamiast definicji decybela proponuję poznać, zrozumieć i zaprzyjaźnić się z dwoma innymi tajemniczymi pojęciami: dynamic range oraz headroom.

DYNAMIC RANGE


czyli zakres dynamiki, to nic innego jak stosunek najgłośniejszego sygnału do sygnału najcichszego, dla części lub dla kompletnego systemu, wyrażony w decybelach. O.K. Tylko co to znaczy najgłośniejszy, a co znaczy najcichszy sygnał? Dobre pytanie! Przyjmuje się, że sygnał najgłośniejszy to maksymalny sygnał wolny od zniekształceń, a najcichszy to minimalny sygnał, jaki jest rozpoznawalny przez narząd ludzkiego słuchu.

Jeśli przeanalizujemy możliwości procesorów sygnału dla danego systemu, to zauważymy, że maksymalny sygnał wyjściowy ostatecznie podlega pewnym ograniczeniom, które wynikają na przykład z wydajności układu zasilania. Ten, nawet w razie „wyższej konieczności”, którą wymusza na nim podekscytowany sytuacją człowiek, nie dorzuci kilku woltów więcej ponad zakres, który normalnie jest w stanie dostarczyć. Idąc w drugą stronę, a więc w stronę najcichszego sygnału, zauważymy, że tu również występują ograniczenia. Te z kolei wynikają z podstawy szumu własnego urządzenia i logicznym chyba jest to, że najcichszy, rozpoznawalny przez ludzki słuch sygnał nie może zejść poniżej podstawy szumu, a to głównie dlatego, że – mówiąc z lekkim przymrużeniem oka – przestanie być wówczas rozpoznawalny.

Analogowe urządzenia i procesory klasy profesjonalnej są w stanie wysyłać sygnał o maksymalnym poziomie rzędu +26 dBu, przy podstawie szumu oscylującej, w najlepszym przypadku, gdzieś w okolicach -94 dBu. Zestawienie tych wielkości daje nam zakres dynamiki dla danego urządzenia, charakteryzujący się wielkością 120 dB, co jest rzeczą dość imponującą i zupełnym przypadkiem odzwierciedlającą zakres normalnej reakcji ludzkiego słuchu – od granicy słyszenia po granicę bólu.

W przypadku kompletnego systemu nagłośnieniowego sprawy mają się nieco inaczej. Maksymalny poziom głośności jest tym, co możemy uzyskać do momentu pojawienia się sprzężeń akustycznych lub wystąpienia wyraźnego charczenia przetworników, usiłujących przetworzyć sporą porcję generowanych zniekształceń. To jest właśnie teoretycznie granica górna. Dlaczego teoretycznie? Dlatego, że jeśli idzie o realną górną granicę, czyli najgłośniejszy dźwięk dla nagłaśnianego obszaru widowni, to typowo kształtuje się on w przedziale 100-105 dB SPL. Odpowiedź nasuwa kolejne pytanie: dlaczego akurat 105 dB?

Dlatego, że tu dochodzi do głosu ów „zdrowy rozsądek”, który podpowiada, że wyjście poza tę granicę wprowadza coraz większy dyskomfort, zwłaszcza przy wiekowo zróżnicowanej widowni, i słuchacze zaczynają coraz bardziej narzekać. No, chyba że realizator gra tyko dla siebie i stojącego niekiedy za jego plecami managera, nie zważając na oczekiwania zgromadzonej publiczności, ale fakt taki nie jest chyba w tej kwestii wystarczającym usprawiedliwieniem!

Granicę dolną natomiast wyznacza tak zwany szum otoczenia (ambient), w którego skład wchodzi hałas emitowany przez ogrzewanie, wentylację, systemy klimatyzacyjne, no i oczywiście rozmawiających w pomieszczeniu ludzi. Typowy zakres wielkości szumu otoczenia to jakieś 35-45 dB SPL. Przy takiej mieszance szumu własnego systemu nagłośnieniowego można całkowicie nie brać pod uwagę, gdyż jest on maskowany przez szum otoczenia.

Zestawienie powyższych wielkości daje nam zakres dynamiki dla systemu nagłośnieniowego plasujący się w przedziale 55-70 dB. Jak widać, jest on zupełnie różny niż zakres dynamiki reprezentowany przez poszczególne urządzenia. Z przykładu tego wynika, że zaczynamy tracić możliwość kontrolowania zakresu dynamiki systemu nagłośnieniowego. Z jednej strony ogranicza ją szum otoczenia, z drugiej stopień zadowolenia i komfortu słuchaczy. Mając powyższe na uwadze, średni użyteczny zakres dynamiki to realnie tylko około 65 dB. Nic dodać, nic ująć! Zgoda, może i nikt drastycznie nie ucierpi z powodu próby przekroczenia tej „magicznej” granicy, jednak, patrząc realnie, w ogólnym rozrachunku nic korzystnego z takiego posunięcia raczej nie wyniknie.

Skoro niewiele (a właściwie nic) nie ma do zrobienia w kwestii poprawienia dynamiki systemu nagłośnieniowego, gdyż – jak powiedziałem – pewne rzeczy są z góry ustalone, opierając się na naturalnych uwarunkowaniach i rozsądku, to realizatorowi odpada zmaganie się z tym problemem, a więc i jego praca powinna stać się w tym momencie łatwiejsza. Czy aby na pewno tak jest? Chyba nie do końca, bo kolejnym istotnym czynnikiem, z którym musi się zmierzyć, jest

HEADROOM


czyli zakres umiejętnie „wygospodarowanej” do wykorzystania rezerwy.


Czym jest headroom? Niczym innym, jak stosunkiem możliwie największego, wolnego od zniekształceń sygnału, który przepuszczany jest przez urządzenie lub system nagłośnieniowy, do uśrednionego poziomu tego sygnału, wyrażonym w decybelach. Jeśli przykładowo średni poziom sygnału wynosi +4 dBu, a poziom największy wynosi +26 dBu, to posiadana do dyspozycji rezerwa to 22 dB. No dobrze, tylko co z tych „wyliczanek” konkretnie wynika i czy warto w ogóle zaprzątać sobie nimi głowę?


Z pewnością nie tylko warto, ale wręcz należy! Prowadzone porównania wielu różnych sygnałów audio dowiodły, że muzyka jest najbardziej dynamicznym sygnałem, charakteryzującym się największym, bo 4-10 Crest Factor (czyli współczynnik szczytu). Crest Factor jest to stosunek wartości maksymalnej (szczytowej) do wartości RMS (Root Mean Square), czyli wartości średniej sygnału.

We wszystkich urządzeniach i systemach audio headroom jest zakresem, który osiąga sygnał audio przepuszczany przez dane urządzenie lub system, po przekroczeniu wyznaczonego poziomu określanego jako PML (Permitted Maximum Level). Dla urządzeń cyfrowych headroom definiowany jest jako zakres, który osiąga digital full scale (FS), po przekroczeniu wyznaczonego PML. Dla urządzeń analogowych headroom definiowany jest też często jako dodatkowa rezerwa mocy, pozostająca na wzmacniaczach zasilających zespoły głośnikowe.

Jak widzimy, zakrada się tu trochę interpretacyjnych rozbieżności. Także dla wymienionego wcześniej PML rekomendowane są różne wartości – zależnie od tworzącego dane standardy gremium. Mając ten fakt na względzie uważam, że zagłębianie się w tego typu detale i roztrząsanie wszystkich niuansów jest w tym przypadku bezcelowe, bo niczego nowego nie wnosi dla kontynuowania moich dalszych rozważań.


Bezsprzecznie pewnym jest to, że headroom stanowi swego rodzaju „strefę bezpieczeństwa”, do której trafiają wartości szczytowe sygnału po przekroczeniu zakresu, w którym normalnie operujemy, nie wykraczając jednocześnie poza zakres możliwości przetwarzania sygnału przez system, czego najczęstszym objawem jest „clip”. Czym jest clip? Jest to kolejne określenie dla stanu przesterowania sygnału. Zjawisko takie ma miejsce, gdy poziom sygnału audio osiąga wartość napięciowego lub prądowego limitu możliwości dla wyjścia danego urządzenia, na przykład wzmacniacza. Clip, sam w sobie, jest zjawiskiem nieszkodliwym. Powoduje on natomiast generowanie drastycznych zniekształceń, a te przyczyniają się do wzmożonego przyrostu wydzielania ciepła we wzmacniaczach, blokach zasilaczy, no i oczywiście w cewkach przetworników. Do czego prowadzi taki permanentnie podtrzymywany stan, nietrudno chyba przewidzieć.

Teraz możemy wrócić jeszcze na moment do wspomnianego wcześniej współczynnika szczytu dla materiału muzycznego. Jeśli dla porównania posłużymy się sygnałem o przebiegu sinusoidalnym, to współczynnik szczytu dla tego rodzaju sygnału wynosi: 1,414 (albo 3 dB). W przypadku materiału muzycznego jest to wartość 4-10 (co przekłada się na 12-20 dB). Oznacza to, że w materiale muzycznym wartości szczytowe pojawiają się 12-20 dB wyżej od wartości średniej sygnału, co wymaga 12-20 dB rezerwy na każdym urządzeniu, aby sygnał mógł być przez system swobodnie przetwarzany bez wprowadzania poważnych zniekształceń. Trzeba powiedzieć tu sobie wprost, że brak zapewnienia adekwatnej wielkości headroom skutkuje zawsze klipowaniem sygnału, powodującym „domiksowanie” dużej porcji zniekształceń. Dlatego właśnie headroom jest tak szalenie ważnym czynnikiem, z którym należy się liczyć.

REFLEKSJA KOŃCOWA


„System powinien zapewniać 120 dB SPL dźwięku wolnego od zniekształceń” – to stwierdzenie, które jak mantra przewija się na początku większości riderów. Bywa tam jeszcze coś na temat preferowanych systemów – a jakże. Tu pojawiają się przynajmniej ze trzy lub cztery znane marki, posiadające w swojej ofercie systemy „typu line array”, i nie ma znaczenia dla piszącego te bzdury fakt, że miejsce, w którym odbywa się całe zajście jest niewiele większe od rozmiarów przeciętnego gołębnika. Do niedawna jako preferowane konsolety widniały na czołowym miejscu XL8, XL4 i H-3000, pomimo tego że jakieś 95% piszących te bzdury XL8 znało jedynie z kolorowych obrazków.


Obserwuję często, ile czasu poświęcają koledzy na przygotowanie systemu do pracy, a gdy słyszę to, co później ktoś inny wyczynia z idealnie przygotowanym systemem, zaczynam się zastanawiać, czy ma jakiekolwiek znaczenie w większości tego typu sytuacji użyty system oraz marka producenta. Pomijam już godziny poświęcone na przygotowanie systemu do pracy. Najpierw – jeszcze zanim sprzęt wyjedzie z magazynu – przygotowywany jest mozolnie projekt w oparciu o program dedykowany do tego typu aplikacji. Później, już na miejscu, instalacja systemu z dbałością o najdrobniejszy szczegół, no i jeszcze ostateczne, niezbędne korekty, już „na ucho”. Kiedy wszystko jest idealnie przygotowane pojawia się człowiek z wielokrotnie modyfikowanym na różne sposoby „fajlem”, który jak jasnowidz zaczyna wprowadzać własne „poprawki”, zanim padnie ze sceny jakikolwiek dźwięk. Tu podbije 200 Hz na werblu, żeby był „mięsisty”, tam 7 kHz dla gitary, żeby się „przebijała”, itd. Dlaczego tak? Odpowiedź: „bo tak się robi!”. W sukurs przychodzi często manager zespołu, który jak zły duch sączy zza pleców jad: „no, odepchnij się jeszcze! A jeszcze więcej możesz?” Sytuacja, w której w kolejnych urządzeniach zaczynają coraz gęściej zapalać się czerwone wskaźniki sygnalizujące „Clip”, jakoś nie nasuwa wniosku, że być może potężne ilości energii pchane są w bezużyteczną dla danego instrumentu część pasma.

Takim oto sposobem dochodzi najczęściej do sytuacji, którą można podsumować następująco: „Operacja się udała – pacjent znowu zmarł”.

Marek Witkowski


Marek Witkowski jest weteranem w branży pro audio, realizatorem dźwięku z wieloletnim stażem. Kontakt: nightmare1w@onet.eu.