X4L - wzmacniacz z DSP z serii X
Biznes „nagłośnieniowy” – w porównaniu z innymi dziedzinami techniki (np. przemysłem samochodowym, czy ...
Pojawienie się przed laty w coraz powszechniejszym użyciu systemów bezprzewodowego odsłuchu osobistego wywołało lawinę pytań. Wiele osób zadawało sobie pytanie, która z metod realizacji jest lepsza i dlaczego? Pytań wciąż przybywało, a mnożyły się one, przybierając efekt „śnieżnej kuli”.
Czy lepiej jest przestawić się na nową technologię, czy raczej nadal pozostać przy tradycyjnym systemie monitorów podłogowych? A gdyby tak zdecydować się na połączenie obydwu sposobów – czy będzie do dobrym posunięciem? Na ile każda z tych możliwości jest skuteczna? Jakie są ich wady i zalety? Jakie wybrać urządzenia, by w sposób prosty i szybki uzyskać zamierzony skutek?
Wiele z tych pytań, które zrodziły się na przestrzeni lat, oczywiście do dziś pozostaje bez uniwersalnej odpowiedzi. Fakt ten nie powinien dziwić nikogo, gdyż każda z branych pod uwagę metod realizacji powinna być rozpatrywana indywidualnie i w odniesieniu do konkretnej, rzeczywistej, a nie tylko hipotetycznej sytuacji.
Jak wiemy, historia często lubi się powtarzać. Skutkiem tej prawidłowości ostatnio pojawiła się kolejna możliwość realizacji odsłuchu scenicznego. Tak oto powstała nowa sytuacja, która, podobnie jak w przypadku opisanym powyżej, uruchomiła nową lawinę pytań „co lepsze?”
Szczerze mówiąc, pomimo całej marketingowej aury, jaka jest wokół tej możliwości tworzona przez handlowców, ta „nowa” możliwość nie jest w rzeczywistości żadnym nowatorskim rozwiązaniem. Wygrzebano po prostu z lamusa stary pomysł, wdrożony do produkcji po raz pierwszy gdzieś w początkach XXI wieku i zaadoptowano go do nowych rozwiązań sprzętowych. Mam tu oczywiście na myśli tak zwany „self-adjust monitor mixing”, czyli system pozwalający na samodzielne definiowanie przez wykonawców obrazu indywidualnych miksów monitorowych.
Zanim temat ten szerzej rozwinę, zacznę od mojego ulubionego
System odsłuchów scenicznych powstał na drodze pewnej, rozłożonej w czasie ewolucji. Pierwsze koncerty powstających w latach 60. grup odbywały się w bardzo surowych, wręcz prymitywnych warunkach. Nagłośnienie widowni było zwykle bardzo skromne, a jego jedynym zadaniem było wówczas umożliwienie publiczności słyszenia wokalisty. Kiedy z biegiem czasu zaczęto ustawiać mikrofony także przy instrumentach oraz kolumnach wzmacniaczy gitarowych, miksowaniem tych źródeł zajmował się jeden z muzyków. Wszystko odbywało się dokładnie tak samo, jak ma to miejsce dziś, w przypadku wielu grup wykonujących do tańca popularny repertuar typu „Top 40”. Jednak znajdujący się na scenie muzyk nie mógł słyszeć poprawnie tego, czym raczył uszy zgromadzonych przed sceną słuchaczy. Pomimo to w takich właśnie warunkach odbyło się sporo znaczących dla historii muzyki koncertów. Dziś trudno jest nawet wyobrazić sobie, że nikt wówczas nie kontrolował emitowanego w stronę publiczności dźwięku…
Z czasem, gdy systemy nagłośnieniowe zaczęły się rozrastać, ktoś wpadł na pomysł, by wewnętrzne zestawy głośników odwrócić nieco pod kątem, ku środkowi sceny. Był to już bardzo duży postęp, gdyż muzycy mogli ustalić własne poziomy, no i w końcu słyszeli się podczas trwania występu. Pomimo tego – bez wątpienia milowego – kroku naprzód uzyskano jedynie częściową kontrolę nad obrazem muzycznym na scenie i na widowni. Zaangażowanie człowieka, który siedząc za konsoletą wśród widzów mógłby kontrolować emitowany z głośników dźwięk, kształtując obraz muzyczny całości, było już tylko kwestią czasu. Tak też się w końcu stało i choć zmiana ta wpłynęła korzystnie na jakość dźwięku kierowanego w stronę publiczności, to temat wzajemnego słyszenia się muzyków pozostawał nadal problemem do rozwiązania.
Mając już jednak pewne doświadczenie, wynikające z wcześniejszego odwracania zestawów głośnikowych w stronę sceny, zdecydowano, iż rozwiązaniem problemu może być zastosowanie niezależnego systemu, złożonego z zespołu rozmieszczonych na scenie głośników i kontrolowanego przez realizatora za pomocą oddzielnej konsolety. Ta miałaby znajdować się również na scenie, w miejscu pozwalającym na zachowanie kontaktu wzrokowego realizatora z artystami, by ten mógł szybko reagować na przekazywane mu przez muzyków uwagi. Na efekt tego posunięcia nie trzeba było długo czekać. W krótkim bowiem czasie wszyscy szanujący się artyści zajmujący topowe miejsca w hierarchii muzycznego świata zaczęli przywiązywać dużą wagę do dobrego słyszenia się podczas koncertów.
Czego zwykle oczekują w swoich odsłuchach wykonawcy? Przede wszystkim potrzebują się słyszeć i czuć, że to, co grają brzmi dobrze. Jeśli odczucie takie towarzyszy im podczas trwania próby, to utwierdzają się w przekonaniu, że będzie to dobry koncert i w takiej sytuacji koncert zwykle jest… bardzo dobry.
Istotne znaczenie ma też poczucie bezpieczeństwa, a poczucie takie daje świadomość, że pozostali członkowie zespołu słyszą się równie dobrze i tym samym wiedzą, w którym miejscu wykonywanego utworu się znajdują, oraz że grane przez nich nuty oraz tempo są wzajemnie zgodne.
Wokalista potrzebuje czuć, że jego głos jest mocny, klarowny i czytelny, że właściwie przekazuje słuchaczom wkładany w śpiew ładunek emocji, oraz że śpiewając utrzymuje się w przyjętej tonacji. Równie istotna jest tu możliwość dobrego słyszenia towarzyszących wokaliście muzyków, aby miał on pewność, że wspólnie stroją, zachowują przyjętą tonację, że właściwie podąża za zespołem, oraz że zespół podąża za wokalistą w momentach, w których zachodzi taka potrzeba.
Jeżeli zespół gra do tak zwanego „klika”( który zwykle słyszany jest jedynie przez perkusistę), do loopa albo też do jakiegoś innego nagranego wcześniej podkładu, to wokalista może chcieć, aby zespół był przez niego słyszalny w monitorach bardziej niż podczas utworów wykonywanych bez nagranego materiału. Powód tego jest bardzo prozaiczny – chodzi o zachowanie tempa. Wokalista bez problemu może podążać za zespołem (czyli „klikiem”). Sytuacja odwrotna, że „klik” będzie podążał za wokalistą, jest trudna nawet do wyobrażenia.
Jeśli przyjrzymy się dokładnie poszczególnym miksom w torach odsłuchowych, to zauważymy, że każdy z muzyków ma własne, indywidualne preferencje i potrzeby. Istotnym w wielu przypadkach jest dobra słyszalność wokalu, gdyż w przeciwnym razie mogą pojawić się swego rodzaju „czarne dziury” – momenty, gdzie muzyk traci orientację w którym miejscu tekstu aktualnie znajduje się wokalista, czy jest on w drugim wersecie trzeciej zwrotki, czy już w połowie czwartej. Muzycy mają również własne preferencje w odniesieniu do tego, który z instrumentów chcą we własnym torze słyszeć głośniej w stosunku do pozostałych, by mieć poczucie spójności z resztą zespołu.
W tym miejscu, czyli na styku sfery działań realizatora odsłuchów oraz sfery oczekiwań wykonawcy, najczęściej dochodzi do wielu drobnych rozbieżności, a niekiedy także i konfliktów. Pomijam tu oczywiście sytuacje ekstremalne, w rodzaju przypadkowy człowiek za konsoletą odsłuchową itp.
Doświadczony, obserwujący sytuację na scenie i zaangażowany w pracę realizator nie zawsze jest w stanie precyzyjnie spełniać oczekiwania wykonawcy. Chodzi głównie o to, że każdy ma swoje subiektywne podejście do proporcji. Spełniając prośbę wykonawcy o zwiększenie, przykładowo, poziomu gitary w jego torze odsłuchowym, realizator nigdy nie ma do końca pewności, że zmiana, której dokonał, jest dokładnie tą, o jaką chodziło wykonawcy. Słyszany w monitorze poziom gitary na tle pozostałych składników miksu, który realizator może uznać za bardzo wysoki, w ocenie wykonawcy może okazać się wciąż zbyt niski, i odwrotnie.
Na to, że wykonawcy nie zawsze są w pełni zadowoleni z miksu proponowanego im przez realizatora, a także na fakt, że nikt od samego wykonawcy nie wie lepiej, czego i w jakich proporcjach potrzebuje on w swoim odsłuchu, zwróciło uwagę kilku inżynierów o długoletnim stażu w przemyśle związanym z branżą audio. Tak zrodził się pomysł, aby dać wykonawcom możliwość samodzielnego modelowania własnego toru odsłuchowego, skoro współpraca z realizatorem nie zawsze spełnia ich oczekiwania. Swoim pomysłem zainteresowali oni większą grupę inżynierów związanych z firmą Intelix LLC, którzy postawili sobie za cel tworzenie rewolucyjnych projektów i budowę urządzeń opartych na zaawansowanej technologii, z uwzględnieniem realnych potrzeb branży audio. Jednym z przyjętych założeń miała być także wyjątkowo przystępna cena tych urządzeń.
W niedługim czasie wśród urządzeń znajdujących się w ofercie firmy Intelix znalazło się urządzenie o nazwie Psychologist. Był to jeden z pierwszych systemów typu „self-adjust monitor mixing”, czyli system pozwalający na samodzielne definiowanie przez wykonawców własnych miksów monitorowych. Psychologist wykorzystywał pomysł zaprojektowanego przez firmę Intelix urządzenia o nazwie Matrix Mixwe. Poz walało ono na kierowanie sygnałów audio z wielu wejść do wielu wyjść. Matryca została zaprojektowana tak, że sygnały wejściowe można było miksować jednocześnie do dowolnych wyjść i w dowolnych proporcjach dla każdego z nich, a także je panoramować. Odbywało się za pomocą połączonych z matrycą kilku indywidualnych Mini-Mikserów.
Mini-Miksery połączone były pomiędzy sobą wciąż popularnymi jeszcze w tamtych latach kablami PC, zakończonymi 9-cio stykowymi złączami typu D, prowadzącymi również zasilanie. Jakkolwiek nowoczesny w swoim czasie system ten był niestety urządzeniem dość uciążliwym w przygotowaniu do pracy, gdyż wymagał on zarówno kabli telefonicznych, zakończonych złączami RJ-12, kabli PC o złączach typu D, a także specyficznych adapterów pozwalających na przejście z jednego standardu złączy w drugi. Ograniczeniem była też długość kabli międzypołączeniowych, a także sposób zasilania i liczba Mini-Mikserów.
Z kolejną propozycją podobnego systemu, wkroczyła na rynek firma Hear Technologies Inc. Miało to miejsce w mniej więcej tym samym okresie – czyli na początku roku 2000. Firma wypuściła na rynek produkt, któremu nadano nazwę Hear Back – Personal Monitor Mixer System. System ten był już projektem dokładniej przemyślanym i prostszym w obsłudze – jeśli chodzi o przygotowanie do pracy. Wykorzystano tu protokół oparty na warstwie fizycznej Ethernetu, transportowany poprzez skrętkę CAT-5E. Dzięki zastosowanym rozwiązaniom system Hear Back zapewniał doskonałą jakość oraz wysoką wierność przekazu audio, charakteryzując się niską latencją oraz małą zawartością zniekształceń. Pozwalał też na zastosowanie znacznie dłuższych kabli połączeniowych, bez szkody dla jakości przesyłanego audio.
Założenia towarzyszące wprowadzeniu na rynek wymienionych powyżej systemów stały się fundamentem, na którym zbudowana została w roku 2002 firma Aviom Inc, a przynajmniej taka wersja historii powstania podana jest na jej stronie. Tu dodam, że Aviom to jedyna marka – z grona trzech wymienionych w tym materiale – która trafiła na nasz rodzimy rynek i stała się na nim rozpoznawalna. Proponowany przez Aviom system wykorzystuje protokół o nazwie A-Net, opierając się również na fizycznej warstwie Ethernetu, wykorzystując do transportu skrętkę CAT-5E.
System składa się z modułu konwertującego sygnał audio na sygnał cyfrowy z rozdzielczością 24-bitową, który następnie jest kierowany do modułu zasilającego 16 kanałową sieć z przyłączonymi mini-konsoletami (na przykład model A-16), pozwalającymi muzykom na wybór i ustalenie proporcji potrzebnych sygnałów. Mini-konsolety ponownie zamieniają sygnał cyfrowy na analogowy, który może zasilać słuchawki, nadajnik systemu IEM lub – rzadziej – być kierowany do monitora podłogowego. Jak wspomniałem, wszystkie urządzenia sieci „rozmawiają” ze sobą poprzez kale CAT-5, którymi przesyłane jest także zasilanie. Tyle na temat historii.
Na przestrzeni ostatnich lat z ofertą podobnych urządzeń wyszło wielu producentów sprzętu, jak na przykład Allen & Heath z modelem ME-1, AVID w kooperacji z PIVITEC oferuje urządzenie o nazwie E-32, Roland z osobistym mikserem M48,
no i oczywiście Behringer z systemem POWERPLAY,
przystosowanym do współpracy poprzez wyjście Ultranet z konsoletą cyfrową X-32 (i jej mniejszymi wersjami). Osobisty mini-mikser systemu tego producenta, oznaczony jako P16-M, do złudzenia przypomina mi wyglądem urządzenie AVIOM’a (A-16II). Po zagłębieniu się w techniczne detale i opisy okazało się, że oferuje również niemal identyczne rozwiązania oraz możliwości. Myślę jednak, że tak jak w wielu innych przypadkach wszelkie podobieństwo produktów marki Behringer do urządzeń innych producentów jest zupełnie przypadkowe. W końcu przecież każdy pies ma łeb, cztery łapy i ogon (lub jego resztki), no i wielu osobnikom ich właściciele nadali imię Burek...
Wróćmy do opisanych systemów. Jak powiedziałem na wstępie, urządzenia tego typu nie są nowatorskim rozwiązaniem, gdyż koncepcja stworzenia takiego systemu sięga początku lat 2000. Obecne propozycje wielu producentów to jedynie adaptacja starego pomysłu do nowych możliwości technologicznych. O ile dobrze pamiętam, Aviom próbował zainteresować swoja ofertą innych producentów, proponując na przykład kartę do konsolet Yamaha umożliwiającą korzystanie z sieci mini- konsolet na scenie.
Systemy pozwalające na samodzielne ustalanie wykonawcom zawartości własnego miksu mają bezsprzecznie wiele zalet. Oto niektóre z nich:
– Pozwalają na pozbycie się z łańcucha audio osoby monitorowca, który zdaniem wielu wykonawców i tak nie ma pojęcia o ich potrzebach oraz swojej pracy.
– Uzyskanie dodatkowego, wolnego miejsca na scenie – to niewątpliwa zaleta.
– Brak monitorów podłogowych, często „masakrujących” misternie wypracowany miks głównego systemu oraz obrazek TV.
– Możliwość operowania systemem FOH z niższym poziomem.
– Wyeliminowanie przesunięć czasowych (odbicia) powodujących zjawisko filtracji grzebieniowej.
– Ogólnie niższe wartości SPL na scenie.
– Wyeliminowanie ryzyka powstania sprzężeń.
– System zastępuje oddzielną konsoletę monitorową, a więc zmniejsza koszty (nie potrzeba monitorów, korektorów, wzmacniaczy i realizatora).
– Zdejmuje z realizatora FOH odpowiedzialność za miks w odsłuchach.
– Jest ułatwieniem podczas rejestracji koncertu.
Można by rzec, że rozwiązanie to ma same zalety i daje duże oszczędności! Prawda niestety wygląda nieco inaczej, gdyż idealnych urządzeń czy też rozwiązań po prostu nie ma! Pora więc na wymienienie także mankamentów tego rozwiązania:
– Pierwszym i chyba najistotniejszym jest to, że muzycy zmuszeni są do zajmowania się na scenie czymś więcej niż tylko graniem i śpiewaniem.
– Postawieni zostają przed koniecznością nauki obsługi nowego sprzętu. Tu pozwolę sobie zauważyć, że aby stać się dobrym monitorowcem potrzeba doświadczenia zdobywanego w czasie wielu lat pracy. Kiedy zatem i jakim sposobem muzycy mieliby posiąść tę wiedzę i doświadczenie? Pomijam tu kwestię zaznajomienia się z urządzeniem na tyle, by móc je intuicyjnie obsługiwać podczas grania.
– Automatycznym, instynktownym (zresztą naturalnym) odruchem każdego początkującego realizatora jest zgłaśnianie wszystkiego, co wydaje się zbyt ciche. Efekt tego jest w sumie taki, że pod koniec koncertu wszystkie tłumiki lądują w skrajnym, najwyższym położeniu. Nie sądzę, by w przypadku wykonawców występujących w roli początkujących realizatorów wyglądało to inaczej...
– Miksowanie odsłuchów sprowadza się także do wynikającej z nabytego doświadczenia umiejętności porządkowania dźwiękowego chaosu, który okazjonalnie może pojawiać się na scenie – choć może w przypadku samodzielnego ustalania przez muzyków poziomów sytuacja taka teoretycznie nie powinna mieć miejsca.
Co prawda podane argumenty „przeciw” nie są tak liczne (4:10), jak argumenty „za”, ale ich ciężar gatunkowy sprawia, iż można je uznać za równoważne! Istotnym argumentem przemawiającym na korzyść stosowania metody „self-adjust” jest to, że uzyskanie właściwych proporcji oraz klarowności dźwięku nie wymaga tu dużych poziomów. Poza tym muzyk w wyniku ignorancji lub braku doświadczenia popsuje jedynie własny miks, nie hałasując ani nie szkodząc nikomu na scenie. Stwierdzenie „dobry dźwięk monitorów” będzie z pewnością na zawsze oznaczał coś zupełnie innego w indywidualnym rozumieniu każdego wykonawcy. Dlatego, moim zdaniem, nie należy niczego z góry przesądzać zarówno „na plus”, jak i „na minus” żadnego z możliwych do wykorzystania sposobów realizacji odsłuchu. Wyboru metody, z której będzie się korzystać, należy dokonać wspólnie, poprzez praktyczne sprawdzenie każdego ze sposobów oraz rozważeniu wszystkich indywidualnych opinii odnośnie tego, czy i na ile dany sposób zaspakaja oczekiwania, zapewniając maksymalny komfort pracy wszystkim zainteresowanym.
Marek Witkowski