X4L - wzmacniacz z DSP z serii X
Biznes „nagłośnieniowy” – w porównaniu z innymi dziedzinami techniki (np. przemysłem samochodowym, czy ...
Realizator dźwięku to człowiek, który – jak sama nazwa mówi – realizuje dźwięk. Od tego, jak on tego dokona, zależeć będzie efekt końcowy, czyli jak występ danego zespołu czy artysty będzie odebrany przez słuchaczy.
Realizator może tak zmiksować muzyków, że to, co będzie się wydobywać z głośników, w niczym nie będzie przypominało tego, co „produkują” występujący na scenie artyści – co może też mieć swoje dobre strony, choć generalnie nie jest zjawiskiem pożądanym. Można też tak nagłośnić występujących muzyków, iż wydawać się będzie, że nagłośnienie w ogóle nie pracuje. Nie da się tego zrobić z każdym zespołem i każdym rodzajem wykonywanej muzyki, ale w przypadku akustycznych składów i przy stosunkowo niewielkim audytorium (i niewielkim systemie) jest to wykonalne i często mile widziane (nie obejdzie się tutaj bez owocnej współpracy realizatora z inżynierem systemu nagłośnieniowego). W znakomitej większości przypadków mamy do czynienia z sytuacją pośrednią, tzn. słychać, że „działalność” muzyków na scenie jest transmitowana przez jakiś system nagłośnieniowy, ale brzmi to w miarę naturalnie i w sposób zbliżony do „oryginału”.
Jak wspomniałem, każde z tych podejść, łącznie z tym pierwszym, może być działaniem w pełni świadomym i zamierzonym – choć oczywiście może też być dziełem przypadku, dając efekt niezbyt oczekiwany przez słuchaczy. Wszystko zależy od tego, z jakim typem „działania” realizatora będziemy mieć do czynienia.
Ogólnie większość muzyki ma swój początek dzięki instrumentom akustycznym, w takiej czy innej formie. Nawet gitara elektryczna jako źródło dźwięku jest zwykle kojarzona ze wzmacniaczem, który jest bardzo ważnym składnikiem jej brzmienia. I przez to pierwszym celem we wzmacnianiu dźwięku jest właśnie to – wzmocnić (nagłośnić) istniejący dźwięk pochodzenia akustycznego, aby po pierwsze większa widownia mogła usłyszeć muzykę (dźwięk jest zdolny wypełnić większą przestrzeń), a po drugie poziom głośności pewnych instrumentów „podnieść” do poziomu innych instrumentów na scenie. Ten drugi przypadek jest powszechny, kiedy miksujemy bębny lub instrumenty elektryczne z akustycznymi źródłami dźwięku w rodzaju instrumentów dętych lub strunowych. Oczywiście częściej wzmocnienie jest kombinacją tych dwóch rzeczy: kilka „podciągnięć” cichszych źródeł do poziomu głośniejszych i ogólne zwiększenie poziomu, aby wypełnić większą przestrzeń i dotrzeć z dźwiękiem do większej liczby słuchaczy.
Dodatkową rzeczą do rozważenia tutaj jest to, że nie wszystkie częstotliwości audio rozpowszechniają się równomiernie. Niskie częstotliwości dźwięku wytwarzają fale stojące i są trudne do pochłonięcia, podczas gdy wysokie częstotliwości są pochłaniane z łatwością, także przez samo powietrze. Często z równoważeniem pomiędzy głośnością instrumentów idzie podbicie lub stłumienie pewnych częstotliwości niektórych dźwięków, czego końcowym wrażeniem ma być jego większa naturalność brzmienia. Dla przykładu często spotykanym zabiegiem jest podbicie górki w overheadach, aby przeniosły wyższe harmoniczne, pochodzące od blach i hi-hatu, nawet jeśli bębny są wystarczająco głośne same z siebie. Żeby nie podbijać jeszcze bardziej brzmienia całej perkusji, często też podcina się dół, np. poniżej 500 Hz, w kanałach overheadów.
Tutaj rzeczy stają się bardziej interesujące. Dla pewnych typów muzyki reprodukcja ma na celu wzmocnienie. Inaczej, inżynier FOH usiłuje odtworzyć oryginalne wydarzenie na większą skalę lub w innym miejscu. To, co on lub ona próbuje dokładnie odtworzyć, jest interesującym nas pytaniem. Jeśli oryginalne wydarzenie jest czysto akustyczne, tak jak występ orkiestry, śpiewaka operowego, chóru lub dużego zespołu jazzowego, wtedy przeważnie działanie polega na zrobieniu tego, o czym napisałem wcześniej. A więc nieco wyrównania poziomów oraz dodanie sporego wzmocnienia całości dla nagłośnienia większej przestrzeni. Innymi słowy, oryginalny zamiar muzyki jest zachowany.
Zupełnie inna sytuacja, ale moim zdaniem będąca wciąż reprodukcją, jest wtedy, kiedy oryginalne wydarzenie jest koncertem prezentującym np. najnowszą płytę artysty. W wielu przypadkach zespół taki na koncertach ma brzmieć podobnie jak na płycie. Te same efekty wokalowe, brzmienie bębnów, miks instrumentów itp. – wszystko to jest częścią tego podejścia do nagłaśniania. Często inżynierowie FOH słuchają uważnie nagrań, aby wysłyszeć wszystkie te niuanse, dzięki czemu mają dobry punkt startowy.
Produkcja w dziedzinie live, moim zdaniem, zaczyna się wtedy, gdy inżynier dokonuje wyboru, aby efekt jego pracy skierował brzmienie w zupełnie innym kierunku niż oryginalne brzmienie „akustyczne” lub wspomniane nagranie „referencyjne”. Powodów do tego posunięcia jest wiele. Może to być np. próba osiągnięcia innego efektu, gdyż oryginalny mógłby być uważany za nieco „przestarzały” lub gdy artysta chce zaprezentować widowni coś unikalnego. Często towarzyszy temu nowa aranżacja lub rozszerzone wersje utworów. Można to również pogodzić z innymi efektami, takimi jak światło czy efekty pirotechniczne.
Według mnie wszystko sprowadza się do podjęcia decyzji o tym, jak podejdziesz do sztuki nagłaśniania, i powinno to być uzależnione od rodzaju muzyki (koncertu, show) oraz widowni. Jeśli nagłaśniamy „dinozaurów” muzyki, istniejących na rynku muzycznym od 30-40 lat, których utwory wszyscy znają na pamięć – nawet obudzeni w środku nocy – doradzałbym zastosować podejście „reprodukcyjne”, żeby widownia usłyszała to, co oczekiwała usłyszeć. Ale dla innej widowni i innej sztuki to naprawdę zależy od artysty i od Ciebie, w jaki sposób najlepiej podejść do tego problemu. I jest to nie tylko problem odpowiedniego miksu – rozszerza się on m.in. na problem wyboru i zainstalowania systemu głośnikowego, problem efektów, jakie chciałbyś użyć, oraz wyboru i rozmieszczenia mikrofonów. Pomyśl o wszystkim (całościowo, ogólnie) i zdaj sobie sprawę, że to Ty jesteś kluczem do tego, co „publika” w ostatecznym wyniku słyszy.
Krótka historyjka: będąc kilka lat temu za granicą miałem okazję uczestniczyć w klubowym koncercie mało znanego, ale świetnego zespołu. W trakcie koncertu doszedłem jednak do wniosku, że właściwie zespół ten w ogóle nie powinien używać nagłośnienia. Choć zauważyłem kilka mikrofonów na estradzie, a za konsoletą siedział i wytrwale miksował realizator, za żadne skarby nie mogłem skojarzyć tych faktów z działaniem systemu nagłośnieniowego. Dopiero w trakcie jednego z kawałków, kiedy usłyszałem zdecydowanie brzmiące efekty, zorientowałem się, że jednak nagłośnienie działa.
Po koncercie zagadnąłem owego realizatora, pytając, jak duża część dźwięku pochodziła z systemu nagłośnieniowego. Jego odpowiedź szczerze mnie zaskoczyła. Powiedział bowiem, że wszystko było transmitowane poprzez system nagłośnieniowy, choćby w niewielkiej części. Poprosiłem go więc, by w szczegółach opisał mi, jak udaje mu się uzyskać tak transparentny miks. Pierwsza rzecz, którą wymienił, to zastosowanie dobrych mikrofonów – nie produkowanych już niestety pojemnościowych Neumann KM150 o małych membranach, które cechują się naturalnym brzmieniem i niemal idealną charakterystyką kierunkową. Wspomniał także o mikrofonach typu lavalier Countrymana, zainstalowanych na instrumentach i służących do kierowania ich dźwięku do torów efektowych.
Jednak najważniejszym czynnikiem, jaki gość wskazał, było odpowiednie zbalansowanie poziomu dźwięku generowanego przez system nagłośnieniowy z głośnością samego brzmienia akustycznego, a także opóźnienie sygnału wzmocnionego, przez co uzyskane zostało dopasowanie do akustyki sali. Bardzo zaimponowała mi szczegółowa znajomość tych zagadnień przez owego człowieka. Jednak jeszcze większe wrażenie zrobiła na mnie jego wrażliwość na potrzeby widowni i sposób, w jaki wyszedł im naprzeciw, wykorzystując dostępne mu narzędzia.
Myślę, że w naszym biznesie bardzo łatwo jest zgubić właściwą ścieżkę. Przede wszystkim bowiem kieruje nami miłość, czy też pożądanie sprzętowe. Któż nie marzy o posiadaniu najnowszej cyfrowej konsolety z wbudowaną kawiarką espresso? Albo o końcówkach mocy generujących po 10.000 watów na kanał, a zajmujących tylko jedno miejsce w raku? Nie do pogardzenia byłyby też głośniki z włókna węglowego, które przy wadze 350 gramów wytwarza 105 dB z jednego wata w odległości 1 m, przy doskonałej kierunkowości, w pełnym paśmie aż do 40 Hz. Oczywiście, wszystkie te urządzenia są wspaniałe i niezbędne dla postępu w naszym fachu. Sądzę jednak, że nietrudno jest skupić się na warstwie sprzętowej i zagadnieniach technicznych, kwestie brzmieniowe spychając na dalszy plan.
Przede wszystkim zalecam wszystkim inżynierom dźwięku, by słuchali muzyki akustycznej we wszelkich formach.
Przejdźcie się więc do klubu jazzowego, gdzie będzie można zająć miejsce blisko występującego trio. Pójdźcie na koncert symfoniczny. Zajrzyjcie też do opery. Warto także posłuchać muzyki kościelnej, a nawet country, nie mówiąc już o starym, dobrym bluesie akustycznym. Namawiam was do tego, ponieważ mimo ogromnego postępu technologicznego, jaki nastąpił w ostatnich latach, rozbieżności pomiędzy tym, jak instrumenty akustyczne brzmią na żywo, a tym, jak je słychać po przepompowaniu przez system PA, są ogromne.
Przyczyny takiego stanu rzeczy są dwie. Pierwsza ma naturę techniczną – mikrofony odbierają dźwięki w sposób odmienny od tego, w jaki słyszy je ucho ludzkie, głośniki nie są w stanie przetworzyć wszystkich częstotliwości, jakie generują instrumenty akustyczne, a żaden system elektroniczny nie zdoła wymieszać sygnałów tak, jak mieszają się dźwięki pochodzące ze źródeł naturalnych. Niewiele da się na to poradzić. Jednak ważne jest, abyśmy robili w tej kwestii tyle, ile tylko zdołamy.
Zacznijcie więc od starannego doboru mikrofonów i, co jeszcze ważniejsze, ich właściwego rozmieszczenia. Jeśli chodzi o tę drugą kwestię, to nie obejdzie się bez pełnego zrozumienia sposobu rozchodzenia się dźwięku różnych instrumentów (podpowiedź: większość fal dźwiękowych wytwarzanych, na przykład, przez saksofon wcale nie wydobywa się z jego czary). Trzeba także zwracać uwagę na strukturę wzmocnienia, minimalizując w ten sposób poziom dynamiki zniekształceń i maksymalizując zapas poziomu w całym torze sygnałowym. Konieczne jest też, rzecz jasna, zrozumienie zasad rozmieszczania głośników, i to daleko wykraczające poza stwierdzenie, że „systemy liniowe są świetne”.
Kolejną kwestią do zapamiętania jest to, że im mniej stosuje się mikrofonów, tym mniejsze problemy fazowe. Jeśli na estradzie ustawionych jest wiele różnych mikrofonów, to każdy z nich odbiera własną wersję tych samych dźwięków (powiedzmy perkusji), w efekcie czego powstaje problematyczny efekt filtru grzebieniowego. Objawia się on spłyceniem i sfazowaniem brzmienia. To nieomylna oznaka, że użyty został system nagłośnieniowy.
To, o czym napisałem wyżej, to tylko ogólne zalecenia, pozwalające uzyskać poprawny efekt. Istnieje jednak szereg technik, które umożliwiają jeszcze skuteczniejsze maskowanie obecności systemu PA. Pierwsza z nich związana jest ze sposobem propagacji i absorpcji poszczególnych częstotliwości.
Ogólnie rzecz biorąc, częstotliwości wysokie są absorbowane w znacznie wyższym stopniu niż średnie i niskie. Jednocześnie znacznie trudniej jest wygenerować niskie częstotliwości metodą akustyczną i zapanować nad nimi w interakcji pomiędzy systemem PA i pomieszczeniem. W rezultacie kiedy nagłaśniamy na przykład zespół jazzowy w sali teatru, brzmienie od strony widowni może wydawać się muliste, spłaszczone i mocno rozproszone.
Innymi słowy instrumenty akustyczne wytwarzają zbyt mało basu, częstotliwości wysokie są absorbowane przez pierwsze rzędy widowni, zaś odbicia stają się słyszalne wyraźniej niż dźwięk docierający bezpośrednio z estrady. Mówiąc wprost, brzmienie jest do niczego.
Przypuśćmy więc, że za pomocą systemu PA zamierzamy w wirtualny sposób przesunąć słuchaczy nieco w kierunku wykonawców albo, patrząc od drugiej strony, umieścić zespół bliżej widowni. W tym celu ostrożnie podbijamy basy wybranych instrumentów (takich jak kontrabas) oraz soprany innych, na przykład blach i fortepianu. Wykonując jedynie te proste operacje i nie ruszając niczego więcej (czyli nie podbijając tonów średnich), możemy uzyskać zamierzony efekt przybliżenia muzyków do widowni.
Następnym krokiem może być subtelne zwiększenie głośności tych instrumentów, które nie są w stanie konkurować z innymi, powiedzmy kontrabas, fortepian czy gitara akustyczna (o ile gra bez wzmacniacza). Tym nieskomplikowanym sposobem uzyskujemy równowagę głośności pomiędzy instrumentami i powinniśmy podbijać tylko te częstotliwości, które są słabiej słyszalne od strony widowni. Dodatkowo, kierując głośniki odpowiednio w stronę publiczności i odsuwając je od ścian, uzyskuje się dźwięk bardziej ukierunkowany na widownię, co z kolei pozwala zmniejszyć udział naturalnej odpowiedzi pomieszczenia. Jak dotąd, całkiem nieźle.
Jednym z poważniejszych problemów z każdym miksem nagłośnieniowym jest to, że dźwięk wyraźnie dobiega z głośników, w efekcie czego znika efekt „braku nagłośnienia”. Powód jest prosty – głośniki znajdują się bliżej widowni niż instrumenty i wykonawcy. Ponieważ przy temperaturze pokojowej, na poziomie morza fale dźwiękowe poruszają się z relatywnie niedużą prędkością, około 340 metrów na sekundę, to zauważalne mogą być nawet niewielkie różnice w odległości (powiedzmy 3 metry lub więcej).
Gdy dźwięk z jednego źródła dociera wcześniej niż jego dokładna kopia z innego źródła, to ucho uznaje źródło pierwsze jako właściwe. Jest to zjawisko znane pod nazwą efektu pierwszeństwa lub Hassa.
Pójdźmy dalej, wyobraźmy sobie osobę wygłaszającą odczyt. Stoi ona na podium znajdującym się pośrodku sceny, natomiast zestawy nagłośnieniowe rozmieszczone są po bokach estrady. Słuchacze zajmujący miejsca dokładnie pośrodku widowni mogą ulec iluzji, że słyszany przez nich głos dociera bezpośrednio od prelegenta, ponieważ dźwięk z obu zestawów nagłośnieniowych dobiega do nich w tym samym momencie. Jednak im dalej, w lewo czy w prawo od osi widowni, tym różnice czasowe stają się coraz wyraźniejsze, w rezultacie czego głos osoby na scenie będzie lokalizowany wyraźnie w jednym czy drugim głośniku.
Jednym ze sposobów, którymi można walczyć z tym problemem, jest zawieszenie nad sceną środkowego zestawu nagłośnieniowego. Pozwala to „przemieścić” dźwięk z powrotem ku środkowi sceny. Jednak nawet takie rozwiązanie nie jest wystarczające, ponieważ dźwięk z głośników dociera do dużej części widowni przed rzeczywistym dźwiękiem mowy prelegenta. Gdy na scenie znajduje się tylko jedna osoba, to nie ma w tym większego problemu. Jeżeli jednak występuje na niej cały zespół, wówczas odległość pomiędzy nim a zestawami nagłośnieniowymi może wynosić nawet sześć do dwunastu metrów. To daje około 40 milisekund opóźnienia — jest ono wyraźnie odczuwalne.
Kiedy więc wykorzystamy wszystkie akustyczne środki zaradcze, musimy posłużyć się rozwiązaniami elektronicznymi. Naszym największym przyjacielem jest w opisywanej sytuacji linia opóźniająca. Są to, na szczęście, bardzo tanie urządzenia, zaś ich wybór jest przeogromny. Prawie wszystkie cyfrowe konsolety mikserskie są obecnie wyposażone w pokładowe linie opóźniające, instalowane na wyjściach, a w tych „lepszych” również i na wejściach.
Opóźniamy więc sygnał kierowany do zestawu nagłośnieniowego o wartość odpowiadającą odległości pomiędzy głośnikami i zespołem. Jako źródło odniesienia można użyć perkusji, ponieważ stanowi ona źródło wyraźnego, „punktowanego” dźwięku i przesunięcie czasowe jest w jej przypadku wyraźnie słyszalne. Ucho znacznie dokładniej wychwytuje takie różnice w przypadku dźwięków z silnymi transjentami, a do takich należą brzmienia instrumentów perkusyjnych. Ponadto instrumenty te, w odróżnieniu od wielu innych, wytwarzają dość duże ciśnienie akustyczne, w związku z czym publiczność zazwyczaj słyszy zarówno dźwięk bezpośredni, jak i przekazywany poprzez system PA.
Dla przykładu, jeżeli zestaw perkusyjny ustawiony jest dziewięć metrów za zestawami głośnikowymi, to sygnał wysyłany do tychże zestawów należałoby opóźnić o około 30 milisekund. Dzięki temu dźwięk bezpośredni z perkusji dotrze do widowni w tym samym momencie, co dźwięk z zestawów PA. By mieć całkowitą pewność, że perkusja z estrady będzie słyszalna jako pierwsza, zwykle wydłużam podany czas o 5 do 10 milisekund. Sprawia to wrażenie, że dźwięk dobiega z estrady, a nie z głośników.
Nie jest powiedziane, że za każdym razem trzeba stosować wszystkie z opisanych tu metod. Jednak znając te sposoby można je dobierać w zależności od sytuacji i możliwości budżetowych. Ironią jest tutaj fakt, że słuchacze, którzy przyszli na koncert, mogą nawet nie zdawać sobie sprawy z tego, że występujący zespół jest nagłaśniany. Z jednej strony oznacza to, że nie można liczyć na żadne pochwały czy wymianę numerów telefonów (szczególnie od przedstawicielek płci pięknej). Jednak w głębi ducha ma się poczucie, że stworzyło się pewien rodzaj magii, a odczucia słuchaczy zostały wzbogacone, w sposób subtelny, ale realny. Czyż w końcu nie o to chodzi w muzyce? OK, może nie. Wybór pozostawiam każdemu z Czytelników.
Armand Szary