Zostań w domu, zamów taniej!
Nie wychodź z domu i zamów online swoje ulubione pisma 20% taniej. Skorzystaj z kodu rabatowego: czytajwdomu

Od „ściany” do „linijki” - Historia systemów nagłośnieniowych

2020-02-25
Od „ściany” do „linijki” - Historia systemów nagłośnieniowych

Pisząc poprzedni artykuł nie planowałem jego dalszej części, a mimo to stało się inaczej. Większość weteranów z pewnością potwierdzi to, że tkwiąc w dzisiejszych realiach i myśląc o tym co będzie jutro, lubimy od czasu do czasu spojrzeć w przeszłość, analizując różne etapy drogi, która doprowadziła nas do miejsca, w którym aktualnie jesteśmy. Taka retrospekcja pozwala nie tylko na nabranie dystansu i wyrobienie sobie własnego punktu widzenia na wiele spraw, ale też na przewidywanie możliwych kierunków w rozwoju technologii oraz systemów nagłośnieniowych.

Przewidzieć nieprzewidywalne? Dlaczego nie! Wiele osób może uznać to za paradoks, ale przecież zdarzenia pozornie niemożliwe, bo sprzeczne z powszechnie panującą opinią, a niekiedy także z tak zwanym zdrowym rozsądkiem, wielokrotnie miały miejsce w przeszłości, znajdując później swoje racjonalne uzasadnienie. Żeby nie być gołosłownym, podam prosty przykład – dla urozmaicenia nie związany z branżą nagłośnieniową. Sztuka latania... Pragnienie wzbicia się w przestworza towarzyszyło człowiekowi od bardzo dawna, ale swoje marzenie zrealizował on po raz pierwszy dopiero w 1903 roku. Wcześniej człowiek obserwował ptaki, tworząc projekty „latających machin”, wzorowanych na ich szkielecie i wcale nie mam w tym momencie na myśli mitycznego Ikara, ale Leonarda da Vinci – postać jak najbardziej realną, z krwi i kości oraz jego (co prawda nieudane) eksperymenty z Ornitopterem (Skrzydłowcem) w 1496 roku. Takich nieudanych prób latania było później jeszcze wiele, a wszystko dlatego, że bezkompromisowe prawa fizyki wciąż skutecznie uniemożliwiały człowiekowi oderwanie się od powierzchni Ziemi.  Co zatem zmieniło się na początku XX wieku, że lot – choć bardzo krótki – stał się możliwy? Nie zmieniły się reguły, ale postęp technologiczny. Zastosowanie silnika spalinowego było rozwiązaniem bardziej efektywnym od napędu bazującego na sile ludzkich mięśni. Prawa fizyki pozostały niezmiennie te same, ale ich lepsze zrozumienie, w połączeniu z nowymi możliwościami technicznymi, otworzyło furtkę do sukcesu.

Jak były rozmieszczone zespoły głośnikowe – tak, jak pozwalała na to konstrukcja rusztowania.

Czym zatem są wspomniane prawa fizyki, od których tak wiele w życiu człowieka zależy? W otaczającym nas świecie występuje wiele współzależności, które w znacznej części decydują o panującym w nim porządku. Zależności te funkcjonują bez względu na to, czy mamy świadomość ich istnienia, czy też nie, a także bez względu na to, czy fakt ich występowania łaskawie godzimy się akceptować. Natomiast prawa fizyki są pojęciami opisującymi wiele takich zależności, a więc pewien niezmiennik otaczającego nas świata. Najczęściej są one przedstawiane w języku matematycznym i formułowane za pomocą prawidłowości wyrażonych przy użyciu symboli ujętych we wzory. Poznanie różnych prawidłowości i zrozumienie ich istoty pozwala nam lepiej rozumieć otaczający nas świat, a umiejętne korzystanie z tej wiedzy jest zwykle bardzo pomocne przy realizacji różnych przedsięwzięć. Natomiast niewiedza lub lekceważenie wspomnianych prawidłowości staje się nie tylko przeszkodą na drodze do realizacji zamierzonych celów, ale bywa też przyczyną wielu bolesnych doświadczeń – tu dodam, że bolesnych często również w znaczeniu jak najbardziej dosłownym. Akustyka – określana też niekiedy mianem fizyki dźwięku – jest dziedziną ścisłą. Dlatego wszystko, co się z nią wiąże nie toleruje dywagacji, ale podlega ścisłym regułom, odwołującym się do matematycznych konkretów.

Należy jednak zaznaczyć, że prawa fizyki – podobnie jak wszystkie naukowe teorie – są jednak tymczasowe. Oznacza to, że obowiązują one tylko w pewnym zakresie, a ich treść może ewoluować w wyniku nowych odkryć, zmiany definicji (czyli postrzegania zjawisk), a także wielkości, które opisują. W przypadku akustyki, na przestrzeni co najmniej dziewięciu ostatnich dekad nie zmieniło się jednak nic. Nie zmieniło się przede wszystkim dlatego, bo – o czym już zresztą wspomniałem – jest ona dziedziną pokrewną fizyce, bazującą na jej zasadach i prawach, a jak doskonale wiemy, żadne z wcześniej sformułowanych, udowodnionych, a tym samym wciąż obowiązujących praw fizyki, nie zostało dotąd obalone. Co więcej, „reguły gry” dotyczące stricte akustyki zostały jasno określone już na początku lat 40. ubiegłego stulecia. Jak być może wszyscy pamiętają, Harry F. Olsen, w wydanej w 1940 roku książce pod tytułem „Elements Of Acoustical Engineering” jako pierwszy sformułował i opublikował jedną z elementarnych definicji źródła liniowego, wskazując teoretyczne zasady, stanowiące podstawę do konstruowania późniejszych systemów liniowych. Mimo tego, pierwszy system liniowy miał swoją premierę dopiero ponad cztery dekady później i wcale nie przez zaniechanie czy lenistwo konstruktorów, ale z powodu panującego wcześniej niedostatku technologii oraz materiałów, stanowiącego realną przeszkodę w wykorzystaniu posiadanego już zakresu wiedzy.  

Patrząc z perspektywy osoby, która do branży trafiła ponad trzy dekady temu, mogę powiedzieć, że na przestrzeni tego okresu – sukcesywnie, aczkolwiek radykalnie – zmieniały się systemy nagłośnieniowe, a także narzędzia wykorzystywane w procesie przygotowania ich do pracy. Jeśli udamy się dziś na stanowisko realizacyjne, z którego zarządzany jest nowoczesny, podwieszany system nagłośnieniowy (nieważne w tym momencie jakiego producenta) standardowo spotkamy tam co najmniej jeden wielokanałowy procesor sygnału, wyposażony w matrycę, wszystkie typy filtrów, moduły opóźnienia oraz wiele innych modułów – może nawet zbyt wiele… Standardowo spotkamy tam również nowoczesny analizator akustyczny, który umożliwia wygodne przeprowadzenie procesu optymalizacji systemu, a także doświadczonego (to wciąż nie jest standardem) operatora z planem strojenia systemu – świadomie realizowanym krok po kroku. Tak jest dziś, ale jeszcze całkiem niedawno nie zastalibyśmy w tym miejscu wielu opisanych wcześniej rzeczy. Jakieś 3 – 4 dekady wstecz, po obu stronach okna sceny stałaby kolekcja przypadkowo zebranych głośników, umieszczonych w obudowach wykonanych samodzielnie przez firmę nagłośnieniową. Tu od razu wyjaśnię, że nie jest to przytyk lub użalanie się nad polskimi realiami, bo w czasie, o którym mowa, sytuacja wyglądała bardzo podobnie również na Zachodzie. Jedyna różnica polegała być może na tym, że wspomniana „kolekcja głośników”, z racji możliwości finansowych tamtejszych firm i bogactwa rynkowej oferty, była mniej przypadkowa, a obudowy głośników lepiej dopracowane, a do tego wyposażone w koła i znacznie więcej uchwytów. Funkcję „procesora sygnału” spełniałaby aktywna, analogowa zwrotnica (zwana z angielska crossoverem), o ustalonym nachyleniu filtrów oraz jakiś korektor graficzny – globalnie jeden dla całego systemu.

Należy tu jeszcze wyjaśnić, że w Polsce tamtego okresu, źródłem dostępu do instrumentów, głośników i innych urządzeń były najczęściej prywatne kontakty – głównie z muzykami wysyłanymi do pracy w zachodnich lokalach gastronomicznych lub krewni za granicą, no i oczywiście możliwości finansowe kupującego. Na stanowisku realizacyjnym z czasem mogli byśmy zastać także prosty (by nie użyć stwierdzenia, że prymitywny) analizator, któremu trudno byłoby dziś zaufać, gdyż jego działanie opierało się na znikomej (o ile jakiejkolwiek) metodologii, rzadko odwołującej się do naukowych metod. Każdy z wymienionych elementów zmieniał się na przestrzeni lat indywidualnie i na swój własny sposób, przyczyniając się tym samym do ewolucji systemu nagłośnieniowego – jako całości. Bez cienia zażenowania mogę dziś powiedzieć, że tak samo jak pewna liczba innych młodych wówczas dźwiękowców, byłem naocznym świadkiem dziejącej się historii. Na moich oczach ewoluowały zespoły głośnikowe, wzmacniacze, procesory i analizatory, ale przede wszystkim ewoluowała świadomość ludzi oraz metodologia przygotowania systemów. Przedstawiam tu oczywiście wyłącznie mój subiektywny punkt widzenia, a nie żadną autorytatywną, historyczną dokumentację, bo jej rzetelne spisanie zajęłoby kilka opasłych tomów. Być może kilka osób uzna moje wynurzenia za przejaw megalomanii, ale daleki jestem od tego typu skłonności! Jestem natomiast przekonany, że każdy dzisiejszy weteran branży nagłośnieniowej (w kraju i poza nim) był świadkiem tworzącej się na jego oczach historii. Co więcej, uważam też, że każdy – na swój sposób – wniósł pewien wkład w globalny rozwój branży nagłośnieniowej, za co wszyscy powinniśmy być wdzięczni sobie nawzajem. Mam tu na myśli zarówno wspólny dorobek w znaczeniu globalnym, jak też indywidualny wkład każdego z osobna w poszerzanie wiedzy. Dlatego właśnie odnoszę się nie tylko z sentymentem, a także z ogromnym szacunkiem do lat, które pozostały daleko za mną, a przede wszystkim chylę czoła przed wszystkimi, których praca przyczyniła się do rozwoju branży nagłośnieniowej.

Jeśli chodzi o elektronikę, to jedynym „procesorem” sygnału dla całego tego (na owe czasy) gigantycznych rozmiarów systemu były aktywne, analogowe, 4-drożne zwrotnice marki BSS.

Osobom należącym do młodej generacji dźwiękowców z pewnością trudno  nawet wyobrazić sobie jak prymitywny był sprzęt, narzędzia i metody stosowane w latach 70. i 80. Jedynym oryginalnym, fabrycznie produkowanym sprzętem w tamtym okresie był sprzęt instalacyjny dedykowany dla kin oraz mobilnych lub stałych instalacji rozgłoszeniowych. Z czasem pojawiły się pierwsze estradowe zestawy marki Dynacord, a jeszcze później marki Peavey, ale był to wciąż sprzęt daleki od systemów koncertowych w dzisiejszym rozumieniu tego określenia. Jednak systemy dedykowane dla kin (na przykład Altec Lansing), które zaczęto wykorzystywać dla potrzeb koncertowych – u nas tworząc we własnym zakresie ich „klony” – nie były w najmniejszym stopniu przystosowane do częstego transportowania ich z miejsca na miejsce, układania w ściany, nie mówiąc już o możliwości podwieszenia. Obudowy tych zespołów głośnikowych nie były wewnętrznie, ani zewnętrznie wzmacniane metalowymi profilami, służącymi jednoczenie za osprzęt do podwieszania – jak ma to miejsce obecnie. Koncertujących grup jednak wciąż przybywało – podobnie jak i imprez – wymagających mobilnych systemów nagłośnieniowych, o możliwościach dalece wykraczających poza granice wyobraźni producentów sprzętu w tamtym okresie. Z czasem – o czym przy różnych okazjach już pisałem – tworzące się firmy nagłośnieniowe zaczęły projektować własne obudowy mobilnych zespołów głośnikowych, a niektórzy producenci głośników szybko wyspecjalizowali się w produkcji komponentów dedykowanych do wykorzystania w tego typu konstrukcjach. W latach, w których stawiałem swoje pierwsze zawodowe kroki, firmy działające na krajowym rynku – dziś nazywanym rentalowym – identyfikowane były na podstawie dwóch elementów: konstrukcji obudów posiadanych zespołów głośnikowych, no i oczywiście wypełniających je głośników. Nikt – a przynajmniej sobie tego nie przypominam – nie posiadał w owym czasie jednorodnego systemu nagłośnieniowego, pochodzącego wprost z magazynowej półki producenta. Takie systemy jak JBL czy Cervin Vega pojawiły się w kraju w nieco późniejszym okresie, o czym pamiętają już nieliczni.

Mobilne systemy głośnikowe wykorzystywane podczas koncertów, przez wiele lat nie były podwieszane – ani u nas, ani na Zachodzie, a przez długi okres również w Stanach. Wyładowywano je z ciężarówki wprost na scenę i ustawiano na specjalnie zbudowanych podestach po bokach okna sceny. Z zespołów głośnikowych budowano ściany, kierunkując ją orientacyjnie w okolice środka widowni. Im większy był jej obszar, tym szersze i wyższe były ściany głośników po obu stronach sceny. W przypadku koncertów plenerowych lub dużych festiwali, kolejne warstwy głośników ustawiano wzwyż na rusztowaniu wyposażonym w podłogę ze sklejki. Pamiętam taki koncert (mój pierwszy festiwal w Jarocinie w 1993 rok) i tego typu monstrualną, kilkupoziomową konstrukcję nagłośnieniową Głównej Sceny, w której tworzeniu miałem również swój fizyczny udział. Patrząc z perspektywy lat, konstrukcja ta wyglądała cokolwiek śmiesznie... Kilka poziomów z ustawionymi na nich zespołami głośnikowymi, zwieńczonych ogromnymi tubami o ponad metrowym gardle, wyposażonymi w 2-calowy przetworniki JBL’a. Jak były rozmieszczone zespoły głośnikowe? Ano tak, jak pozwalała na to konstrukcja rusztowania. Opisana ściana była – jak na tamte lata – piekielnie głośna. Szkopuł tkwił jednak w tym, że nie tylko głośna z przodu, ale emitowała też sporo hałasu we wszystkich pozostałych kierunkach. Mimo to, postęp w jednorodności uzyskanego poziomu głośności (nie pokrycia) dźwięku, był po prostu niewiarygodny! Dźwięk był głośny – potwornie głośny, a zarazem, daleki od standardu hi-fi. Był „kanciasty” i agresywny, ale był to przecież rock and roll, którego ówczesny kanon dopuszczał różne kompromisy. Nie wiedzieliśmy z pewnością wielu ważnych rzeczy, ale wszyscy wiedzieliśmy, że nie można uzyskać dużej głośności i wysokiej jakości dźwięku jednocześnie, bo takie były ówczesne realia. Należało wybierać, a kompromis na rzecz głośności, był powszechnie akceptowany – jako rzecz normalna i bardzo pożądana.

Znormalizowane systemy liniowe nie tylko otworzyły furtkę do ukształtowania procesu optymalizacji, ale również do uporządkowania kalibracji mocy systemów w odniesieniu do ich fizycznych rozmiarów.

Czy rzeczywiście słyszę w tym momencie jakieś pytanie? Co takiego? Charakterystyka fazowa? Oczywiście... przecież to pytaniu nasuwa się automatycznie i dziś jest jak najbardziej uprawnione! W opisanej powyżej konstrukcji, każdy jej element został dokładnie sprawdzony pod względem polaryzacji, za pomocą urządzenia BSS AR-130, które aktualnie nie jest już produkowane. Tak więc  przynajmniej ta pierwsza i najprostsza część „łamigłówki” mogła być z powodzeniem rozwiązana, ale do rozwiązania pozostawała jeszcze druga jej część, a mianowicie wyrównanie poszczególnych elementów w każdej ze ścian oraz globalnie całego systemu. Niestety, ta część musiała pozostać (nie tylko w opisanym tu przypadku) w sferze rozważań, pobożnych życzeń oraz wiary w to, że pewne działania wykonane wcześniej „na oko i ucho” przyniosły oczekiwany skutek. Nie było wówczas narzędzia, które umożliwiałoby dokładne mierzenie i weryfikację wyniku tego procesu. Do dyspozycji pozostawało jedynie wizualne, fizyczne wyrównanie w linii obudów, z zachowaniem pryncypialnej zasady niedopuszczenia do utraty stabilności zbudowanej konstrukcji. Jeśli chodzi o elektronikę, to jedynym „procesorem” sygnału dla całego tego (na owe czasy) gigantycznych rozmiarów systemu były aktywne, analogowe, 4-drożne zwrotnice marki BSS (model FDS-360), wyposażone w prosty limiter.  „Optymalizacja” poziomów sygnału odbywała się więc za pomocą regulatorów poziomu sygnału wysyłanego ze zwrotnicy i/lub za pomocą potencjometrów poszczególnych wzmacniaczy. Nie trzeba chyba tłumaczyć, że była to metoda, za pomocą której trudno było uzyskać jednolity, spójny rezultat. Charakterystycznym elementem procesu ustawiania poziomów było w tamtym okresie wołanie „ustaw końcówki basowe na godz. 4” albo „cofnij środki o 2 ząbki na BSS-ie” itd. Zegarmistrzowska precyzja – można by powiedzieć o tak fachowym działaniu, gdyby nie fakt, że poziomy współczesnych wzmacniaczy, kontrolowanych za pomocą dedykowanego oprogramowania, można zmieniać dowolnie w precyzyjnych krokach, co 1 dB!

Wiem, że dziś nie dla wszystkich będzie to przekonującym wytłumaczeniem sytuacji, a tym bardziej żadnym usprawiedliwieniem, ale muszę to powiedzieć… Większość ludzi, którzy trafiali do raczkującej wówczas jeszcze branży nagłośnieniowej, to byli entuzjaści, czego nie należy absolutnie postrzegać w kategorii zarzutu! Pasja oraz chęć poznawania nowego były wielkim, rzadkim dziś atutem, co nie zmienia i tak faktu, że początkowo wielu z nas miało mgliste (lub żadne) pojęcie o elementarnych sprawach związanych z elektroniką czy akustyką. Nie wszyscy wiedzieliśmy czym jest struktura wzmocnienia, ani też jaki wpływ mogą wywierać na siebie różne modele zespołów głośnikowych – ustawione jeden przy drugim itd. Jednak – jak już wcześniej wspominałem – tak było nie tylko u nas, ale również w wielu innych krajach. Wszyscy się wszystkiego uczyliśmy od podstaw, no może z wyjątkiem kilku inżynierów z dyplomami szanowanej uczelni w kieszeni. Jednak „uczonych w mowie i piśmie” – jak to żartobliwie zwykłem określać – było w rzeczywistości niewielu. Nikt rozsądny nie skazywał się na włóczęgę po kraju rozklekotaną ciężarówką, mając jako alternatywę pracę w teatrze, w radio czy telewizji, zapewniającą względny spokój i bardziej przewidywalne perspektywy. Niewiele osób dziś wie, że choć w rozkwicie była złota era obudów tworzonych samodzielnie przez firmy rentalowe, to już w latach 70. ubiegłego stulecia, w głowach niektórych konstruktorów zrodził się pomysł zespołów głośnikowych o ustalonych wcześniej parametrach działania. Był to jednak pomysł wręcz rewolucyjny i raczej nie cieszący się entuzjastycznym przyjęciem w swoim czasie. Dlaczego? Czy dlatego, że niemal każda innowacja – jak wiele rzeczy oraz sytuacji wcześniej nieznanych – wzbudza pewne zaniepokojenie i nakazuje ostrożność? Nie tylko z tego powodu, bo jak powiedziałem, funkcjonujące już zespoły głośnikowe konstruowane samodzielnie przez firmy nagłośnieniowe, pozwalały na pewne działania, które ich użytkownicy zdążyli już bardzo polubić. Chodziło tu oczywiście o możliwość kręcenia gałami! Każdy użytkownik miał dotychczas możliwość nadania systemowi własnego „sznytu”, manipulując głównie ustawieniami crossovera i wierząc, że dzięki zgłębieniu wiedzy tajemnej – dostępnej jedynie wybrańcom losu – jego system działa najlepiej w kraju. Co prawda eksperymenty tego typu niekiedy kończyły się tragicznie dla przetworników, uszczuplając przy okazji zawartość portfela ich właściciela, ale czegóż nie robi się dla dobra nauki i zweryfikowania jakości posiadanej wiedzy!

Jak były rozmieszczone zespoły głośnikowe – tak, jak pozwalała na to konstrukcja rusztowania.

Niestety, zespoły głośnikowe – nazwę je „wstępnie przygotowanymi” przez producenta – w znacznym zakresie odbierały użytkownikowi przyjemność eksperymentowania i zdobywania wiedzy na podstawie popełnianych błędów. Szczerze mówiąc, odbierały tę możliwość nie do końca, bo jak wiemy, poczynania człowieka ogranicza (również w tym przypadku) jedynie jego wyobraźnia, która podsuwała niekiedy co najmniej idiotyczne pomysły. Jednak w koncepcji systemów tworzonych z zespołów głośnikowych wstępnie przygotowanych przez producenta, obszar możliwych eksperymentów zostałby mocno zawężony. W przeciwieństwie do istniejących już rozwiązań, nowa koncepcja zakładała możliwość wyboru tylko gotowych, zamkniętych ustawień, ze starannie wyznaczonymi przez producenta wartościami parametrów, dedykowanymi dla konkretnych modeli zespołów głośnikowych charakteryzujących się określoną konstrukcją obudowy, wyposażonych w określoną kombinację przetworników, tub itd. Za wcześnie było na tak radykalne zmiany – przede wszystkim zmiany w świadomości. Wielu użytkowników żyło w przekonaniu, że tylko oni wiedzą jak powinien działać ich system i nie zamierzali „lekkomyślnie” zdawać się w tej kwestii na opinię producenta. Nowa koncepcja odbierała możliwość ingerencji w ustawienia parametrów, co przez niektórych użytkowników było postrzeganie jednoznaczne – jako kwestionowanie ich kompetencji. Musiało upłynąć sporo czasu, zanim przekonano się do dobrodziejstwa tego typu rozwiązania. Sytuacja zaczęła zmieniać się dopiero w latach 80., a więc w okresie dynamicznej ewolucji technologii głośnikowej. Podczas koncertów stopniowo znikały z pola widzenia ogromne „pudła” zawierające głośniki przetwarzające wyłącznie jeden wybrany zakres pasma. Wykrystalizował się zupełnie inny trend projektowania zespołów głośnikowych. Postawiono w tym przypadku głównie na dwa typy rozwiązań: konstrukcję szerokopasmową, dwu- lub trójdrożną, o dolnej granicy przetwarzania od około 70 Hz oraz dedykowany subwoofer, przetwarzający zakres od 100 Hz w dół. Producenci zaczęli też wyposażać obudowy we wzmocnienia, umożliwiające zarazem ich podwieszenie, a umieszczenie kombinacji przetworników w jednej obudowie o ustalonej, fizycznej charakterystyce, otworzyło furtkę do kolejnego etapu ewolucji zespołów głośnikowych – systemów z dedykowanym procesorem głośnikowym.

Producenci nie sprzedawali już swoich zespołów głośnikowych „na sztuki”. Powstała tendencja oferowania zespołów głośnikowych jako kompletnych systemów, wyposażonych w dedykowane kontrolery głośnikowe, które udostępniały gotowe ustawienia wartości parametrów crossovera, korekcje charakterystyki amplitudowej i fazowej oraz limitery. Wszystkie wymienione tu parametry były fabrycznie zoptymalizowane dla konkretnej kombinacji modeli elementów tworzących dany system, a także sugerowanych typów wzmacniaczy. Patrząc na ten etap od innej strony zauważymy, że był on wstępem do technologii „plug and play” (podłącz i graj), która stworzyła podstawy dla przemysłowego standardu współczesnych systemów nagłośnieniowych. Zaskakującym może być fakt, jak bardzo kontrowersyjną była w początkowym okresie ta koncepcja. Podobnie jak miało to miejsce w poprzednim przypadku, wielu użytkowników i realizatorów potraktowało ją jako dążenie producentów do ograniczenia (czy wręcz odebrania) im możliwości indywidualnego decydowania o warunkach pracy systemu, czego namacalnym dowodem miało być zamknięcie dostępu do samodzielnego dzielenia pasma, wyboru nachylenia filtrów itd. Negatywne nastawienie potęgował też strach przed „nieznanym”, jako że tajemnicą okryte były wszystkie procesy zachodzące wewnątrz dedykowanych kontrolerów. Dopełnieniem niechętnego nastawienia było też poczucie krzywdy, wyrządzonej przez producentów, którzy odbierali realizatorom sporą część dostępnych wcześniej narzędzi, ale przypuszczam, że największe znaczenie miała tu jednak urażona duma, bo jak wspomniałem już wcześniej, część realizatorów wierzyła wyłącznie we własne umiejętności, a także niespotykaną u innych intuicję do doboru punktów podziału pasma itd. Upokorzeniem dla nich była konieczność oddania tej czynności producentowi i zaufaniu wiedzy jego konstruktorów. W tym przypadku również – identycznie jak w poprzedniej, bliźniaczo podobnej sytuacji – musiało upłynąć sporo czasu, zanim powszechnie zaakceptowano fakt, że kompletne zespoły głośnikowe o ustalonych, znanych cechach, są lepiej wykonane i precyzyjnie przygotowane w laboratorium badawczym producenta, niż zespoły głośnikowe zbudowane w warsztacie którejkolwiek z firm rentalowych, a następnie „optymalizowane” każdorazowo przed ich kolejnym użyciem. Przewaga fabrycznie produkowanych zespołów głośnikowych, oferowanych w postaci kompletnych systemów, nad konstruowanymi we własnym zakresie, stała się w końcu dla wszystkich oczywista, przyczyniając się do powolnego zmierzchu tych ostatnich. W Polsce proces ten nieco się wydłużył, trwając niemal do końca lat 90.

Wszystkie nowoczesne systemy koncertowe wyposażone zostały w zoptymalizowane przez producentów parametry pracy. Obecnie użytkownik nie kupuje po prostu kilku zespołów głośnikowych, jak miało to miejsce jeszcze do niedawna, ale kompletny system oczekując, że dany producent w pełni przygotował go do pracy, optymalizując podział pasma, odpowiedź częstotliwościową, wyskalowanie mocy wzmacniaczy oraz zabezpieczenia. Współczesne systemy nagłośnieniowe dostępne są na rynku w dwóch wersjach: „self-powered”, z wbudowanym wzmacniaczem oraz modułami elektroniki zapewniającymi optymalne warunki pracy przetwornikom, oraz te z zewnętrznymi wzmacniaczami, wyposażonymi w biblioteki ustawień dedykowanych dla kombinacji określonych modeli. Dzisiejszy użytkownik oczekuje od producenta rozwiązań, w których dostarczenie sygnału (analogowego lub cyfrowego) będzie skutkowało przewidywalną reakcją systemu. Na każdym kolejnym etapie rozwojowi systemów nagłośnieniowych towarzyszyła również ewolucja metod optymalizacji oraz przeznaczonych do tego narzędzi. Wróćmy na moment do systemów koncertowych konstruowanych we własnym zakresie przez firmy rentalowe w latach 70. i 80. W jakim stopniu możliwe było zoptymalizowanie systemu poskładanego z „klocków” o różnej konstrukcji, układanych obok siebie i warstwami wzwyż jeden na drugim, a do tego wyposażonych w różne przetworniki i tuby? Posiadając najlepszy nawet analizator oraz możliwość cyfrowego przetwarzania sygnału, nie było racjonalnej metody by sprostać takiemu wyzwaniu. Dopiero znormalizowane systemy liniowe otworzył furtkę do optymalizacji w pełnym tego określenia znaczeniu. Newralgiczne punkty podziału pasma – dawniej wyznaczane z dużą swobodą przez użytkownika – zastąpiono formą nienaruszalnych dedykowanych ustawień, tworzących wiadomy element w procesie budowy grona. Doszły natomiast inne, zupełnie nowe zagadnienia, z którymi użytkownicy nowoczesnych systemów musieli się oswoić, a mianowicie kształt pokrycia, kierunkowość, kąty rozchylenia, kompatybilność z innymi modelami producenta i wiele, wiele innych. Pomimo tak wielu różnych czynników, efekt działania systemu jest z wyprzedzeniem przewidywalny, a to dlatego, że wszystkie jego elementy składowe spełniają określony standard. Nawet niewielkich rozmiarów system liniowy, zestawiony z identycznych elementów, jest konstrukcją bardzo złożoną, podlegającą ściśle określonym zależnościom i dlatego jego zachowanie jest przewidywalne. Elementy o znanej charakterystyce, zestawione oraz zorientowane kątowo w wiadomy sposób, pozwalają na przewidzenie globalnego efektu ich działania. Zasada ta odnosi się wyłącznie do znormalizowanych systemów nagłośnieniowych, więc szczęścia życzę każdemu, kto zdecydowałby się budować system w garażu, montując w nim zbieraninę przypadkowych głośników i stosując okazjonalnie pozyskaną elektronikę…

Osobom należącym do młodej generacji dźwiękowców z pewnością trudno nawet wyobrazić sobie jak prymitywny był sprzęt, narzędzia i metody stosowane w latach 70. i 80.

Znormalizowane systemy liniowe nie tylko otworzyły furtkę do ukształtowania procesu optymalizacji. Otworzyły również furtkę do uporządkowania kalibracji mocy systemów w odniesieniu do ich fizycznych rozmiarów, pozwalając na używanie proporcjonalnie zbliżonego wielkością systemu w celu uzyskania podobnego rezultatu. Powiem inaczej… W przypadku wspomnianych wcześniej systemów z lat 80., konstruowanych samodzielnie przez firmy rentalowe, obowiązywała następująca zasada: „większe miejsce zdarzenia – wymaga więcej sprzętu – ustawianego wszerz i wzwyż”. Nowoczesne systemy zmieniły tę zasadę radykalnie. Obecnie skala stała się proporcjonalna. Ta sama liczba elementów może być wykorzystana zarówno w niewielkim, jak i w dużym pomieszczeniu. Proporcjonalnie zmienia się tylko liczba elementów grona oraz skala mocy. Jest jednak jeszcze coś, co nowoczesnym systemom liniowym zapewnia ogromną przewagę nad ich wszystkimi poprzednikami. Otóż nie zmuszają one użytkownika do podejmowania trudnego wyboru „głośność albo jakość dźwięku”, gdyż w tym przypadku możliwe jest do uzyskania równocześnie jedno i drugie. C.D.N.

Estrada i Studio Kursy
Produkcja muzyczna od podstaw
Produkcja muzyczna od podstaw
50.00 zł
Produkcja muzyczna w praktyce
Produkcja muzyczna w praktyce
120.00 zł
Bitwig Studio od podstaw
Bitwig Studio od podstaw
55.00 zł
Sound Forge od podstaw
Sound Forge od podstaw
40.00 zł
Kontakt 5 Kompedium
Kontakt 5 Kompedium
60.00 zł
Zobacz wszystkie
Live Sound & Instalation Newsletter
Krótko i na temat, zawsze najświeższe informacje