X4L - wzmacniacz z DSP z serii X
Biznes „nagłośnieniowy” – w porównaniu z innymi dziedzinami techniki (np. przemysłem samochodowym, czy ...
Analogowy? Cyfrowy? A może jedno i drugie? W świecie profesjonalnego audio mamy wiele możliwości do wyboru, ale rzadko kiedy możemy sobie pozwolić na dokonanie niewłaściwego. Za to bardzo często spotykamy się z takimi czy innymi opiniami.
Słownik Merriam Webster definiuje „analogowość” jako coś analogicznego (podobnego bądź pozostającego w pewnej relacji) z czymś innym. A zatem analogowym może być dany produkt żywnościowy, zastępujący inny – na przykład paluszki „krabowe” z niedrogiego mięsa białej ryby, udającego prawdziwe, ale drogie mięso kraba. Jako inny przykład, bliższy wegetarianom, można wskazać potrawy z soi, która po przetworzeniu może wyglądać i smakować jak stek wołowy.
Jeśli zetknęliście się z tego typu zamiennikami, to wiecie, że jedne produkty udają inne w bardziej lub mniej wiarygodny sposób. Z podobną sytuacją mamy do czynienia w świecie audio.
Jednakże fundamentalna różnica pomiędzy przetworzoną żywnością i dźwiękiem polega na tym, że owo z natury analogowe pożywienie może być tylko i wyłącznie analogowe. Dźwięk natomiast można reprodukować jako analogowe LUB cyfrowe odtworzenie oryginału.
Gdy coś wydaje dźwięk, na przykład instrument muzyczny czy struny głosowe, wytworzone wibracje przenoszone są przez powietrze jako analogowy nośnik owego dźwięku. Inaczej mówiąc, na początku mamy do czynienia z jego analogową postacią, czyli odwzorowaniem bardzo bliskim oryginałowi. Jeśli uda nam się zachować i odtworzyć w naszym systemie audio wszelkie subtelności i niuanse oryginalnego dźwięku, to jesteśmy w domu. Jak to jednak zrobić?
Nie chodzi tu o to, czy lepiej będzie zdać się w pełni na technologię analogową, czy cyfrową. Obie metody mają swoje zalety i wady, a na dokładność odwzorowania oryginalnego brzmienia wpływ ma wiele czynników, w tym elektroniczna konstrukcja oraz dobór poszczególnych elementów toru audio.
Mimo ogromnego postępu i pojawiania się coraz doskonalszych rozwiązań cyfrowych wciąż trwa dyskusja, która z metod reprodukcji dźwięku jest „lepsza”. Istotą problemu jest tu dokładność, z jaką cyfrowy sprzęt, choćby ten działający z najwyższymi parametrami próbkowania, jest w stanie zreprodukować szerokopasmowe brzmienie sprzętu analogowego.
Dźwięki – czyli drgania powietrza słyszalne przez człowieka, o częstotliwościach z zakresu od 20 Hz do 20 kHz – poruszają się pod postacią sygnału analogowego, zachowującego ciągłość zarówno pod względem czasu, jak i amplitudy. System cyfrowy musi jednak dokonać konwersji owego naturalnego dźwięku, po jego przechwyceniu przez mikrofon.
Mikrofon analogowy „tłumaczy” ruchy cząsteczek powietrza i membrany na sygnał elektryczny. Sygnał ten musi być następnie przekształcony do postaci cyfrowej, czyli ciągu zer i jedynek. Dopiero w takiej formie może być transmitowany, przetwarzany i przechowywany w systemie cyfrowym. Zadanie owej konwersji należy do przetworników analogowo-cyfrowych, a dokonywane jest drogą próbkowania i kwantyzacji.
Próbkowanie i kwantyzację można w pewnym sensie porównać do obserwacji prędkościomierza samochodowego. Jeśli nie sprawdzamy regularnie prędkości, wówczas może się okazać, że samochód jedzie szybciej lub wolniej niż nam się wydaje.
Próbkowanie dźwięku polega, ujmując rzecz w skrócie, na regularnym mierzeniu napięcia bądź natężenia analogowego. Ponieważ wartość mierzonego parametru ulega ciągłym zmianom, to konieczne jest zebranie szeregu odrębnych próbek, co pozwoli nam zapisać owe zmiany pod postacią niezmiennych liczb. Próbki te muszą być pobierane z odpowiednio dużą częstotliwością, gdyż tylko dzięki temu zarejestrowane zostaną wszelkie istotne zmiany próbkowanej wartości pomiędzy pomiarami. Próbkowanie musi być też dokonane z wystarczająco wysoką rozdzielczością, która pozwoli dokładnie oddać przebieg zmian.
Teoria mówi, że częstotliwość, z jaką sygnał jest próbkowany, musi być co najmniej dwukrotnie wyższa od najwyższej częstotliwości audio, jaką zamierzamy reprodukować.
Powód tego, że standard Red Book dla płyt kompaktowych wyznacza częstotliwość próbkowania na 44,1 kHz wywodzi się od firm Sony i Philips. Zmierzały one bowiem do opracowania technologii, która pozwoli zachować pełne spektrum słyszalnych przez człowieka częstotliwości audio, a jednocześnie „upchnąć” wynikowe informacje cyfrowe na taśmie wideo.
Umieszczając trzy próbki audio na każdą linię obrazu z odświeżaniem 50 lub 60 Hz można było próbkować dźwięk z częstotliwością 44.100 razy na sekundę i zmieścić niezbędną ilość informacji na taśmie cyfrowej, będącej prekursorem płyt kompaktowych.
Dziś wiemy, że im wyższa jest częstotliwość próbkowania, tym lepiej. Zwiększenie jej daleko ponad 40-kilohercowe minimum pozwoliło cyfrowym narzędziom na obróbkę sygnału bez utraty jakości i zredukowanie aliasingu. Aliasing to zjawisko polegające na przenikaniu sygnałów o częstotliwościach z zakresu powyżej częstotliwości próbkowania do sygnału właściwego, w rezultacie czego powstają nieprzyjemne zniekształcenia.
Ktoś kiedyś w doskonały sposób zobrazował istotę aliasingu. Wyobraźmy sobie człowieka żyjącego w całkowicie ciemnej jaskini, który wychyla z niej głowę raz na 25 godzin. Gdyby zaczął jednego wieczora o godzinie 20, to kolejny raz wyjrzałby na świat o godzinie 21 następnego dnia, więc znów ujrzałby ciemność. Wyglądając w ten sposób przez 10 kolejnych wieczorów i nocy mógłby dojść do wniosku, że noc trwa 10 razy dłużej niż w rzeczywistości.
Dokładnie o to chodzi w aliasingu. To fałszywa rzeczywistość, powstająca w wyniku próbkowania dźwięku z niedostateczną częstotliwością. Gdyby nasz jaskiniowiec wychylał głowę z jaskini co godzinę, wówczas mógłby ocenić czas trwania nocy w sposób właściwy. To samo tyczy się próbkowania audio. Jeśli nie zbierzemy wystarczającej liczby próbek w określonym czasie, utracimy wiele istotnych informacji, uzyskując niewłaściwe brzmienie, harmonicznie odległe od tego, co zamierzaliśmy uzyskać.
Mówiąc prosto, numeryczne odwzorowanie próbki audio zamrożonej w czasie może reprezentować wartość powyżej bądź poniżej określonego progu. Możliwe są dwa stany: włączony i wyłączony. Jednak jednobitowy zapis audio brzmiałby jak zepsuty, kiepskiej jakości efekt gitarowy typu fuzz.
Większa precyzja pomiaru przekłada się na wierniejsze odwzorowanie próbkowanego dźwięku. Teoretycznie zapis mógłby być realizowany w systemie dziesiętnym, jednak obwody cyfrowe lepiej radzą sobie z obliczeniami binarnymi, gdy zamiast 10 różnych poziomów wyróżniamy tylko dwa, reprezentowane przez zero i jedynkę.
Ciągi znaków binarnych odczytywane i odtwarzane są jak klatki filmu rysunkowego, tworząc iluzję ciągłości zapisu analogowego. Im więcej rysunków jest wyświetlanych w ciągu każdej sekundy, tym lepszej jakości i bardziej realistyczny staje się ruchomy obraz. To samo dzieje się z dźwiękiem. Inaczej mówiąc, wyższa częstotliwość próbkowania i większa długość słowa cyfrowego zapewniają lepsze rezultaty brzmieniowe.
Podłączając mikrofon do przedwzmacniacza i tworząc określoną ścieżkę sygnałową musimy zawierzyć producentowi sprzętu. Tak jak my mamy możliwość zestawienia owej ścieżki z różnych urządzeń, tak producenci mogą wybierać komponenty elektroniczne, z których urządzenia te budują.
Gdy projektant procesora wybiera rezystor, kondensator czy też DSP, musi pamiętać o odpowiedzialności, jaka na nim ciąży – odpowiedzialność za takie rzeczy, jak niezawodność sprzętu, cena końcowa produktu, możliwości obsługi technicznej i serwisu, wygląd urządzenia i tak dalej.
A zatem duża część wysiłku projektanta poświęcona jest zachowaniu rozsądnego kompromisu pomiędzy kosztem wytworzenia produktu i jego jakością. I to właśnie na tym polu okazuje się, że dany produkt bądź technologia jest lepsza od innych. Gdzie więc tkwią pułapki?
Więcej znaczy lepiej, tak? Jako społeczeństwo ulegamy magii dużych liczb. Skoro dźwięk 16-bitowy brzmi lepiej niż 8-bitowy, to logicznym jest, że zapis 24-bitowy musi gwarantować brzmienie jeszcze lepsze. Producenci starają się oczarować nas liczbami, naukową gadką, na przykład zapewniając nas, że ich przetworniki analogowo-cyfrowe pracują z 24-bitową rozdzielczością. Prosta reguła inżynierska mówi, że każdemu przyrostowi rozdzielczości o 1 bit towarzyszy zwiększenie dynamiki o 6 dB. Oznacza to, że rozdzielczość 24 bitów zapewnia dynamikę 144 dB (6x24).
Kiedy jednak czytamy specyfikacje poszczególnych produktów, często stwierdzamy, że rzeczywista dynamika przetworników, które w teorii miały być 24-bitowe, wynosi zaledwie 118 dB. Ową różnicę pomiędzy obiecanymi 24 bitami i rzeczywistymi, niecałymi 20, określa się mianem „bitów marketingowych”. Mają one dać nam jedynie iluzję tego, że zyskujemy coś więcej niż to jest naprawdę.
Zakres dynamiki to tylko jeden z wyznaczników efektywności. Inne parametry, takie jak poziom zniekształceń, również pozostają w relacji z tą zawyżoną liczbą bitów. Zatem nasze 24-bitowe przetworniki są w rzeczywistości przetwornikami 20-bitowymi. Oczywiście nawet 20-bitowa rozdzielczość zapewnia bardzo dobre rezultaty, jeśli chodzi o zakres dynamiki, czyli różnicę pomiędzy najwyższym poziomem sygnału i poziomem szumu.
To są jednak tylko pomiary. Niestety nie zawsze stanowią one miarodajny wyznacznik tego, które urządzenie brzmi dobrze, a które nie. Często przecież można spotkać się z sytuacją, gdy procesor brzmi doskonale nawet jeśli jego parametry nie są tak wyśrubowane, jak byśmy sobie tego życzyli.
Kluczem jest precyzja konwersji sygnału na wejściu i wyjściu, a także przetwarzania wewnętrznego. Funkcje takie jak korekcja bazują na powtarzalnych przetworzeniach liczbowych. Jeśli zastosowane w danym procesorze obwody cyfrowe nie zapewniają wystarczającej precyzji, wówczas do krystalicznie czystego sygnału cyfrowego mogą wkraść się zniekształcenia i szumy.
To jest tak, jak z budżetem domowym. Jeśli przykładamy wagę jedynie do złotówek, ignorując w rozliczeniach grosze, to z każdym miesiącem nasz bilans stopniowo się pogarsza. Zaokrąglanie poszczególnych sum powoduje bowiem, że obraz stanu finansów staje się coraz bardziej nieprawdziwy. To samo dzieje się w przypadku przetwarzania cyfrowego – niewielkie błędy wynikające z zaokrągleń wyników obliczeń są przyczyną powstawania zniekształceń i zakłóceń.
I tu dochodzimy do fundamentalnej różnicy pomiędzy dźwiękiem analogowym i cyfrowym: istnieją zniekształcenia dobre i złe.
To, czy coś brzmi dobrze, czy źle, zależy w dużej mierze od tego, kogo pytamy o zdanie. Inaczej mówiąc, od gustu pytanej osoby. Zatwardziali zwolennicy „analogu” wskazują na niedefiniowalny, emocjonalny wpływ, jaki wywiera na nich muzyka zarejestrowana metodą nie-cyfrową.
Na przykład audiofile i puryści wciąż preferują naturalność i otwartość brzmieniową nagrań na płytach winylowych, jednocześnie określając brzmienie płyt kompaktowych jako szorstkie, chłodne i pozbawione emocji.
Świat audio już od dawna przestawiony jest na technologię cyfrową. Rejestracja i postprodukcja muzyczna to dwie dziedziny, które najwcześniej „przesiadły się” na cyfrę. Choć panuje obecnie moda na realizację „w analogu”, to jednak gros produkcji odbywa się w domenie cyfrowej. Także radio i telewizja bazują obecnie niemal wyłącznie na tej platformie. Ostatnim bastionem dźwięku analogowego przez szereg lat pozostawał dźwięk live. Jednak i tu cyfra weszła szerokim frontem.
Począwszy od czasów upowszechnienia się płyt kompaktowych, co miało miejsce w latach 80. ubiegłego wieku, poziom akceptacji nowej formy dostarczania muzyki wciąż rośnie, zaś sama technologia cyfrowa doszła już do poziomu, przy którym jest w stanie zapewnić w pełni satysfakcjonującą jakość, często nawet przewyższającą tę, którą uzyskuje się metodami analogowymi.
Z drugiej jednak strony poziom jakościowy, wyznaczony przez standard CD, ulega obniżeniu. Natura formatu MP3 powoduje, że słuchacz nieuchronnie coś traci. Kompresja typu MPEG-2 Layer III jest bowiem metodą „stratną”, co oznacza, iż podczas konwersji odrzucane są informacje, które z punktu widzenia algorytmu nie mają znaczenia. Być może jednak przy okazji tracone jest coś nieuchwytnego, co sprawia, że brzmienie analogu pozostaje niedoścignionym wzorem.
Ów stan rzeczy może prowadzić do sytuacji, w której pojęcie zniekształceń przestanie mieć dla kolejnych pokoleń jakiekolwiek znaczenie. Młodzież jest obecnie przyzwyczajona do „skrzeczącego” brzmienia. Ci młodzi ludzie, urodzeni już w epoce cyfrowej, w ogóle nie zawracają sobie głowy takimi pojęciami, jak „dobre” zniekształcenia czy też akceptowalny poziom zniekształceń harmonicznych w sygnale.
Dla nich to, co my uznajemy za szkodliwe zniekształcenia cyfrowe stanowi element soundu, którego słuchają na co dzień. Wymieniając się „zripowanymi” mp3-kami (pomińmy w tym miejscu kwestię legalności takiego procederu) przyzwyczaili się do charczącego brzmienia. Co więcej, z moich rozmów ze znajomymi, którzy dochowali się potomstwa w wieku nastoletnim, wynika, że takie brzmienie jest wśród młodzieży nie tylko akceptowane, ale wręcz preferowane względem brzmienia płyt CD.
Nieprzyjemne brzmienie cyfry, które jest cechą nie tylko plików MP3, może pojawić się nawet w warunkach pracy live. Tzw. popy, trzaski oraz specyficzny szum, za które to „atrakcje” audiofile uwielbiają płyty winylowe, są niczym w porównaniu ze zniekształceniami cyfrowymi, i to bez względu na to, czy nagranie jest skompresowane, czy też nie.
Szum i zniekształcenia w sygnale cyfrowym mają naturę nieharmoniczną i nie pozostają w żadnej relacji z brzmieniem oryginału. Z kolei zniekształcenia analogowe zachowują wzajemne relacje harmoniczne, w związku z czym odbieramy je jako przyjemne, a w najgorszym przypadku tolerowalne. Zniekształcenia te potrafią bowiem dodać brzmieniu charakterystycznego, acz trudnego do zdefiniowania „ciepła”.
Czy złe zawsze oznacza złe? Zniekształcenia bywają elementarnym składnikiem barwy, jak na przykład w przypadku przesteru gitary elektrycznej, a zatem i pożądane. Gdy przepuszczamy sygnał audio przez układ lampowy, to robimy to w celu nadania mu określonego brzmienia, a nie po to, by wiernie bądź realistycznie odtworzyć dany dźwięk. W takich więc przypadkach przetwarzanie audio nie służy dokładnemu odtworzeniu brzmienia źródłowego, a wprowadzeniu dodatkowych składników, pozostających w ścisłej relacji z materiałem muzycznym.
To właśnie dlatego stare, klasyczne konsolety, jak te zaprojektowane przez Ruperta Neve’a, są wciąż tak cenione. Regulator „Warmth”, który można znaleźć w produkowanych obecnie urządzeniach, sygnowanych nazwiskiem pana Neve, pozwala regulować poziom zniekształceń wprowadzanych do sygnału.
W świecie analogowym zniekształcenia zwykle pozostają w ścisłej relacji z oryginalnym brzmieniem. Tranzystory, wzmacniacze operacyjne, rezystory, kondensatory i cewki generują częstotliwości harmoniczne, zarówno parzyste, jak i nieparzyste. Owe harmoniczne pochodzą od częstotliwości zawartych w materiale dźwiękowym i są równomiernie rozłożone w oktawach.
Jeśli zniekształcenie wytwarza harmoniczne parzyste – na przykład dla częstotliwości 100 Hz druga i czwarta będą to 200 i 400 Hz – brzmienie staje się cieplejsze i bardziej organiczne.
Z kolei harmoniczne nieparzyste – trzecia, piąta itd. – nadają brzmieniu twardości i zgrzytliwości. Jednak i jedne, i drugie harmoniczne wciąż zachowują „muzyczny” charakter. Natura zniekształceń w sygnale cyfrowym sprawia zaś, że pod względem harmonicznym pozostają one w zupełnym oderwaniu od brzmienia oryginalnego. Owe cyfrowe aliasy, powstające podczas konwersji analogowo- cyfrowej, przedostając się do spróbkowanego sygnału sprawiają, że brzmi on nieprzyjemnie. Ich usunięcie z gotowego zapisu cyfrowego jest praktycznie niemożliwe.
Jednak istnieją zniekształcenia różnego rodzaju – harmoniczne, intermodulacyjne, częstotliwościowe, fazowe i tak dalej – i bywa, że pojawiają się jednocześnie. Nie wszystkie też dają przyjemne efekty. Ostatecznym zaś zadaniem dowolnego systemu audio, czy to analogowego, czy cyfrowego, jest zachowanie jak najniższego poziomu zniekształceń.
Produkty uboczne kompresji realizowanej w domenie cyfrowej mogą całkowicie „położyć” brzmienie. Ten sam proces, przeprowadzony należycie, może przynieść bardzo przyjemny sound, nie gorszy niż w analogu. Jednak wymodelowanie tego, co się dzieje z dźwiękiem w kompresorze analogowym bywa bardzo trudne.
Projektanci urządzeń analogowych często opierają się na prostym elemencie sterującym, składającym się ze źródła światła, które pada na fotorezystor. Gdy jego strumień przybiera na sile, fotorezystor zwiększa swą rezystancję, ograniczając poziom przepływającego przezeń sygnału audio. Jednak szybkość reakcji fotorezystora jest nieduża. Gdy więc na wejście układu dotrze sygnał o bardzo dużej sile, wówczas element światłoczuły może nie zareagować z właściwą prędkością, w rezultacie czego część fragmentu dźwiękowego zostanie przepuszczona bez zmian. Równie powoli fotorezystor powraca do stanu sprzed reakcji na ów głośny fragment. Przy okazji kompresor wprowadza pewną dawkę parzystych harmonicznych.
Wróćmy do analogii z jedzeniem. Można powiedzieć, że modelowanie pięknego brzmienia kompresora analogowego w domenie cyfrowej to jak próba oddania wszystkich subtelności smaku ziaren wanilii. Sztuczna wanilia stanowi chemiczną kompozycję odpowiadającą składem prawdziwej, jednak pozbawiona jest wielu subtelnych składników smakowych i aromatów, które sprawiają, iż prawdziwa wanilia smakuje tak, a nie inaczej.
Tym, na co z pewnością możemy liczyć w przypadku procesorów cyfrowych, jest precyzja sterowania i powtarzalność procesów. Przywoływanie skomplikowanych presetów jest w domenie cyfrowej o wiele łatwiejsze. Niemniej jednak wielu użytkowników wciąż wybiera urządzenia analogowe, gdyż jakość brzmienia ma dla nich o wiele większe znacznie niż łatwość korzystania z cyfry.
Automatyka sterowania obróbką dynamiczną oraz przywoływania snapshotów w urządzeniach cyfrowych, takich jak konsolety mikserskie, pozwala na niemal natychmiastowe przestawienie miksera w nawet najbardziej skomplikowaną konfigurację. Jest to bardzo przydatne wówczas, gdy na przykład konsoleta FOH obsługuje szereg występów w serii, jeden po drugim.
Podobnie na dużych trasach, na których intensywnie korzysta się z odsłuchów dousznych, a koncerty każdego dnia odbywają się w innym miejscu, użycie konsolet cyfrowych pozwala znacząco skrócić czas potrzebny na ich skonfigurowanie. Konsolety produkowane przez DiGiCo, Midasa, Soundcrafta, AVID, Yamahę czy Innovason oferują szereg rozmaitych, lecz niezmiernie przydatnych funkcji, choć oczywiście ma to swoją cenę.
Z kolei cyfrowe procesory głośnikowe, jak choćby te oferowane pod szyldem Lake, zapewniają nam taki poziom nadzoru nad przetwarzaniem sygnału głośnikowego – filtry o regulowanych zboczach czy też możliwość nakładania charakterystyk korekcji – jakiego osiągnięcie w domenie analogowej jest zwyczajnie niemożliwe.
Alternatywą są systemy hybrydowe, łączące przetwarzanie analogowe ze sterowaniem cyfrowym. Z takim podejściem eksperymentowali producenci konsolet nagraniowych już w latach 80.
Chyba nie da się jednoznacznie wskazać, która platforma – analog bądź cyfra – jest lepsza. Doskonałe rezultaty można uzyskać za pomocą tak jednej, jak i drugiej. Kwestią podstawową jest umiejętność wykorzystania posiadanych środków. Tym samym może więc warto zakończyć tę nikomu niepotrzebną wojenkę pomiędzy zwolennikami obu platform, a skupić się raczej na poszukiwaniu ich zalet?
Krzysztof Marecki