Ulubiony kiosk PRZEJRZYJ ONLINE LISTOPADOWE WYDANIE Live Sound PRZESYŁKA GRATIS

Tutoriale

Pomiary i strojenie systemów nagłośnieniowych - Właściwe używanie RTA i FFT

Pomiary i strojenie systemów nagłośnieniowych - Właściwe używanie RTA i FFT

Dodano: poniedziałek, 18 marca 2013

Jaka metoda strojenia systemu nagłośnieniowego jest lepsza – na ucho czy drogą pomiarów? Hm, ani jedna, ani druga. Ponieważ obie wzajemnie się uzupełniają, toteż najlepszym rozwiązaniem jest ich powiązanie.

 

Przy czym ostateczny werdykt co do jakości brzmienia powinien być wydawany „na ucho”. Jeżeli brzmienie jest kiepskie, wszystko inne przestaje się liczyć.

Zdarzyło mi się kiedyś stroić system nagłośnieniowy w dużym kościele. Zastosowałem wówczas te same metody, które idealnie sprawdziły się w przypadku setek innych systemów, a jednak efekt brzmieniowy wciąż pozostawał nie do zaakceptowania. Jednak zamiast próbować przekonywać swoje uszy, że z tego, co wyraźnie widzę na ekranie laptopa wynika, iż wszystko jest w porządku, zawierzyłem raczej uszom, dochodząc do wniosku, że coś tu jednak jest nie „halo”. I cóż, okazało się, że mikrofon kalibracyjny, z którego korzystałem, uległ uszkodzeniu. Gdy tylko powtórzyłem pomiary przy użyciu sprawnego mikrofonu, nagle krzywa odpowiedzi pomieszczenia okazała się dokładnie odpowiadać wrażeniom słuchowym.


To właśnie ucho jest sędzią ostatecznym. Bez względu na to, z jak zaawansowanych narzędzi korzystamy, zdrowy rozsądek powinien zwyciężać nad wskazaniami!

Bywa jednakże, iż z powodów takich jak choroba, skutki uboczne zażywania leków, zmęczenie, kiepska pamięć akustyczna czy też przytępienie słuchu następujące wraz z wiekiem, strojenie systemu wyłącznie na słuch może nie dawać dobrych efektów, a przynajmniej nie takie, jakie dany system jest w stanie dać. Wówczas strojenie sprzętowe pozwoli wykryć problemy, których ucho „stroiciela” nie jest w stanie zidentyfikować, a które mogą sprawić, że system będzie brzmiał co najwyżej „w miarę” zamiast „rewelacyjnie”.

Często zapraszam znajomych do zabawy w wyszukiwanie głośnika, który działa w przeciwfazie względem pozostałych w gronie. Nietrudno jest stwierdzić, że „coś tu jest nie tak”, ale znacznie trudniej powiedzieć, co konkretnie. W takiej sytuacji właśnie pomiary pozwalają dokładnie namierzyć źródło i rodzaj problemu.

Nie zrozumcie mnie źle – ucho wciąż pozostaje narzędziem doskonałym w pewnych obszarach, np. do równoważenia poziomów oddzielnie zasilanych wielodrożnych zestawów głośnikowych. Dopasowanie poziomów sekcji wysoko- i niskotonowej za pomocą li tylko komputera może być nie lada wyzwaniem, znacznie trudniejszym niż metodą „na ucho”. Szczególnie w przypadku gdy zmiana jednego bądź drugiego o zaledwie 1 decybel przynosi znaczącą różnicę w brzmieniu całości.

Istnieje wiele systemów, które strojono przy użyciu TEF-a, SIM-a czy też SMAART-a, a mimo to brzmią kiepsko. Czy rację mają więc spece twierdzący, że narzędzia te nie sprawdzają się? Na to wygląda.


Jednak problem tkwi nie w systemach pomiarowych, które są wciąż unowocześniane i ulepszane. Największym problemem jest tu błąd ludzki. Zamiast więc deliberować, zajmijmy się od razu tymi błędami, które najczęściej popełniamy, strojąc systemy nagłośnieniowe przy użyciu narzędzi pomiarowych.

WIELKA TRÓJKA


Błędy te podzielić można na trzy główne kategorie: a) niezrozumienie wskazań RTA; b) niewłaściwe umiejscowienie mikrofonu pomiarowego; c) próba korygowania brzmienia dźwięku z wielu źródeł lub zanieczyszczonego odbiciami wyłącznie na podstawie analizy FFT.

Z moich doświadczeń wynika, że w 95 procentach przypadków niepoprawność equalizacji systemów nagłośnieniowych jest konsekwencją tych właśnie trzech błędów. Dlatego też „starzy wyjadacze” podchodzą z rezerwą do tych facetów, którzy biegają wokół z miernikami.


RTA to dwuwymiarowy system pomiarowy, prezentujący poziom energii wyrażony w decybelach lub woltach, w określonym paśmie częstotliwości. Z kolei TEF, SMAART, SIM i im podobne to systemy trójwymiarowe, dodatkowo prezentujące zmiany poziomu energii poszczególnych częstotliwości w czasie. W związku z tym RTA, w odróżnieniu od trójwymiarowych systemów działających w oparciu o szybką transformatę Fouriera (FFT), nie uwzględniają upływu czasu, w rezultacie czego mogą pomijać zjawiska i zmiany zachodzące w ułamkach sekund. Owe ułamki sekund zaś to dla systemu 3D cała wieczność. Gdy dokonujemy pomiarów sygnału elektrycznego, na przykład szumu różowego, na wyjściu konsolety analogowej, to z uwagi na to, że opóźnienie jego propagacji w układach elektronicznych miksera jest znikome, wyniki uzyskane za pomocą RTA będą bardzo zbliżone do tych, jakie wyświetli nam trójwymiarowy system FFT. Wynika to stąd, że elektronika miksera nie powoduje „rozsmarowania” oryginalnego sygnału w czasie. Tym samym jeśli wykres na ekranie RTA jest płaski, to płaski będzie także w systemie pomiarowym 3D.

Kiedy jednak ów sygnał elektryczny zostanie przetworzony przez głośniki do postaci sygnału akustycznego, który zacznie odbijać się od ścian pomieszczenia, sytuacja ulegnie zasadniczej zmianie. Energia akustyczna nie będzie już skupiona w jednym punkcie przestrzennym i czasowym. Co więcej, będzie rozpraszana przez głośnik w sposób nierównomierny, a owa nierównomierność będzie ściśle związana z poszczególnymi częstotliwościami.

Sygnał bezpośredni, który przemieszcza się wprost z głośnika do mikrofonu pomiarowego pokonuje najkrótszą z możliwych dróg pomiędzy tymi dwoma punktami. Energia, która odbija się od ścian i podłogi dociera do mikrofonu o wiele milisekund później. RTA nie zauważa jednak, że owa opóźniona w czasie energia sumuje się z sygnałem bezpośrednim. Inaczej rzecz się ma w przypadku systemów trójwymiarowych, które potrafią zignorować wpływ energii opóźnionej na wyniki pomiaru. To sprawia, że są one systemami o wiele lepszymi i dokładniejszymi.


Jeśli spróbujemy dokonać equalizacji zestawu głośnikowego tak, by wykres jego odpowiedzi na ekranie RTA był płaski, korzystając w tym celu z mikrofonu pomiarowego umieszczonego pośrodku obszaru odsłuchu, to zapewne uzyskane wyniki niemiło nas zaskoczą. Pomiar taki zupełnie nie odpowiada bowiem temu, co uzyskamy, korygując charakterystykę sygnału elektrycznego.

TYPY KRZYWYCH


Prawdopodobnie pierwszą osobą, która dostrzegła ten rozziew pomiędzy wynikami pomiarów był doktor Charles Boner, ojciec chrzestny wszystkich konsultantów dźwiękowych, który jako pierwszy zaczął stosować equalizację systemów nagłośnieniowych. Opracował on coś, co nazwano charakterystyką pomieszczenia idealnego lub krzywą odsłuchu korzystnego. Ogólnie mówiąc, jest to wykres ilustrujący odpowiedź mocy akustycznej, generowanej przez system głośnikowy, która ulega przekształceniom w wyniku absorpcji przez powietrze oraz ściany.

Czym jest owa odpowiedź? Oprócz tego, że jest jednym z najbardziej nadużywanych, a jednocześnie najmniej rozumianych pojęć, określa łączną moc akustyczną, jaką wytwarza dany głośnik. Dla przykładu dokonajmy pomiaru dla dwudrożnego zestawu głośnikowego, znajdującego się w dużym pomieszczeniu, ustawiając mikrofon pomiarowy na wprost głośników, pośrodku obszaru odsłuchowego, lecz w polu pogłosowym, w odległości większej niż dystans krytyczny, gdzie dźwięk bezpośredni ma energię niższą niż energia pola pogłosowego.

Większa część energii wysokich częstotliwości dociera wprost do mikrofonu, co wynika z zastosowania tuby zapewniającej im wysoką kierunkowość. Zupełnie inaczej jest z energią niskich tonów, a to z tego powodu, że głośnik niskotonowy rozprasza dźwięk, w przybliżeniu, wszechkierunkowo. Dlatego jeśli naszym celem będzie uzyskanie płaskiej i bezechowej charakterystyki dźwięku bezpośredniego, to należałoby zwiększyć poziom energii niskich tonów emitowanych do pomieszczenia, by zrównoważyć poziom SPL wysokich częstotliwości w miejscu ustawienia mikrofonu pomiarowego. Po takiej operacji na ekranie RTA ujrzelibyśmy ogromny garb w obszarze niskich tonów, zaś zakres wysokich częstotliwości stopniowo opadałby w kierunku obszaru, w którym tuba drivera wykazuje lepszą kontrolę dyspersji.

To, oczywiście, krzywa Bonera. To, od którego punktu charakterystyka HF zaczynałaby opadanie – a także jakie miałoby ono nachylenie – zależałoby od dyspersji tuby wysokotonowej, liczby urządzeń głośnikowych oraz od tego, czy kierunkowość sekcji niskotonowej może być w jakikolwiek sposób kontrolowana.

Dla kinowej instalacji nagłośnieniowej, gdzie wymiary sali i charakterystyki pochłaniania energii akustycznej da się obliczyć z góry, a liczba, rozlokowanie i parametry głośników są wartościami stałymi, można opierać się na krzywej ściśle zdefiniowanej. Natomiast w przypadku instalacji mobilnych, gdy zmieniają się zarówno charakterystyki otoczenia, jak i konfiguracja systemu nagłośnieniowego, kształt krzywej Bonera, która w tych warunkach pozwoli uzyskać płaską charakterystykę odpowiedzi pomieszczenia, może być bardzo różny.

W czasach zanim powstały trójwymiarowe systemy pomiarowe doboru punktów podziału oraz nachylenia charakterystyki trzeba było dobierać metodą prób i błędów, aż wszystko zaczęło brzmieć przyzwoicie. Uzyskanie satysfakcjonujących rezultatów zabierało mnóstwo czasu. Ponadto podobne pomiary trzeba było wykonywać dla każdego systemu indywidualnie.

ZDARZENIA ZORIENTOWANE W CZASIE


Skupmy się teraz na anomaliach z angielska nazywanych „non-minimum-phase”, a po naszemu nieminimalnofazowymi. Termin ten odnosi się do zjawisk zorientowanych w czasie, których nie da się skorygować drogą equalizacji. Ich źródłem mogą być odbicia dźwięku czy też głośniki znajdujące się w większej odległości, z których dźwięk jest na tyle opóźniony, że powoduje wytłumianie pewnych pasm energii dźwiękowej docierającej bezpośrednio z systemu nagłośnieniowego. Innym przykładem takiego zjawiska jest wcięcie charakterystyki w punkcie podziału pasma przez crossover, będące wynikiem braku synchronizacji czasowej pomiędzy przetwornikami. Żadnego z tych zjawisk – należących właśnie do kategorii non-minimum-phase – nie da się zniwelować poprzez użycie EQ.

To samo odnosi się do pogłosu i odbić dźwięku. Nawet jeśli zmienimy pogłosowość pomieszczenia, modyfikując jego charakterystyki w zakresie pochłaniania fal dźwiękowych, to i tak nie wpłynie to na możliwość korygowania wspomnianych problemów poprzez korekcję. Już słyszę, jak niektórzy oponują wobec takiego stwierdzenia: „Przecież nieraz stosowałem EQ, gdy okazywało się, że mimo poprawnej korekcji przy pustej sali podczas koncertu brzmienie było kiepskie, bo gdy pojawiła się publiczność, sala stała się mniej pogłosowa”. Owszem, zgadza się, korekcja była konieczna, ale nie dlatego, że pogłosowość pomieszczenia zmalała. Konieczność ta wynikała ze zmian propagacji dźwięku, wywołanych wzrostem temperatury i wilgotności powietrza. Nie są to zjawiska zorientowane w czasie i należą do grupy minimalnofazowych, które da się skorygować poprzez zastosowanie korekcji.

Krzysztof Marecki