X4L - wzmacniacz z DSP z serii X
Biznes „nagłośnieniowy” – w porównaniu z innymi dziedzinami techniki (np. przemysłem samochodowym, czy ...
W dzisiejszych czasach, w sieciach cyfrowych w każdej minucie, ba - w każdej sekundzie - przesyłane są miliardy bitów informacji. Nowoczesne światłowody jednomodowe są w stanie „za jednym zamachem” przesłać jeden gigabit informacji na odległość kilkudziesięciu kilometrów.
Taka przepustowość jest już w zupełności wystarczająca, aby sieciowo przesyłać również dźwięk wielokanałowy, i to nie jakieś marne 8, 16 czy nawet 64 kanały - setki kanałów audio wysokiej jakości, zamienionych na impulsy świetlne może wędrować (to niezbyt trafne określenie, bardziej adekwatne będzie mknąć) z prędkością rzędu 300 tysięcy km/s na odległość nawet kilkudziesięciu kilometrów. Oczywiście, w większości obecnych zastosowań ani aż taka ilość kanałów, ani takie odległości nie są niezbędne. System pozwalający na przesłanie 64 kanałów na odległość kilkuset metrów będzie często w zupełności wystarczający, a do tego wystarczy użyć relatywnie taniej skrętki.
Właśnie - te dwa słowa, tani i skrętka, są dwoma kluczami, które coraz łatwiej otwierają sobie drzwi do niejednej firmy nagłośnieniowej czy instalacyjnej. O ile ten drugi jest oczywisty - zastosowanie nawet wyższej klasy (CAT5E czy CAT6) skrętki jest o wiele mniej kosztowne i znacznie przyjemniejsze (po co taszczyć dziesiątki kilogramow grubaśnych i sztywnych kabli wielożyłowych, skoro transport, rozwijanie i zwijanie UTP lub STP jest łatwe, lekkie i przyjemne) niż kabli multicore’owych. Natomiast z tym kosztem już nie jest tak prosto - co prawda wiele zyskujemy, zamieniając przewody wieloparowe na skrętki, jednak konieczność zainwestowania w dodatkowy sprzęt, pozwalający cieszyć nam się z dobrodziejstw sieci cyfrowych, sprawia że w wielu przypadkach i tak finansowo wychodzimy na to samo, a może nawet nieco gorzej (przynajmniej w przypadku niewielkich instalacji lub „koncertówki”).
Mamy jednak jeszcze inne aspekty przemawiające na korzyść sieci audio: cyfrowa domena przesyłanych sygnałów, dzięki czemu znacząco poprawia nam się jakość transmisji (brak zakłóceń i obcinania pasma), stosunkowo łatwa konfiguracja i ewentualna rekonfiguracja, gdyż odbywa się ona software’owo, a nie hardware’owo, możliwość „zaprzęgnięcia” zwykłego PC-ta do sterowania siecią czy urządzeń w niej pracujących i na koniec, często nie mniej ważne, możliwość przesyłania przez tą samą sieć innych sygnałów - sterujących, DMX-owych czy np. obrazu z małej kamerki internetowej, umieszczonej w newralgicznym miejscu naszego systemu.
W tym artykule przyjrzymy się bliżej tym aspektom sieci cyfrowych, ale żeby obraz był kompletny, nie możemy również pominąć wad i problemów związanych z cyfrowymi sieciami audio. Zacznijmy więc od tego, co „złe”, a więc na początek zajmijmy się
To „magiczne” słowo oznacza nic innego, jak - po naszemu - opóźnienie sygnału. Opóźnienie to jest związane zarówno z działaniem samej sieci (o tym za moment), jak i pracą urządzeń w owej sieci (przetwarzanie A/D i D/A, obróbka w procesorach DSP, itp.).
Być może pamiętamy z poprzedniego artykułu, że dwa kluczowe bloki funkcyjne prawie każdej obecnie sieci to kable oraz switche. Zasada działania switcha (jeśli jednak nie pamiętamy) w skrócie polega na tym, że przyjmuje on informację do niego docierającą, odczytuje adres odbiorcy, do którego „paczka” ma być dostarczona, i przesyła ją do niego najbardziej odpowiednią drogą (tych może być kilka, toteż musi on zdecydować która będzie najlepsza). To wszystko wymaga pewnej ilości czasu. Co prawda switch nie musi zastanawiać się i podejmować tych decyzji tak długo, jak większość naszych urzędników, jednak nie może odbywać się to natychmiastowo - w 100-megabitowej sieci ten proces trwać będzie do 120 μs.
Jeśli sieć jest bardziej rozbudowana, a więc i przybywa w niej switchy, przez które musi przewędrować sygnał, to opóźnienie sygnału zaczyna nam wzrastać, proporcjonalnie to liczby „odwiedzonych” switchy. Do tego dochodzi nam, o czym już wspomniałem wcześniej, opóźnienie związane z obróbką sygnału w procesorach DSP czy konwerterach A/D i D/A - w średniej wielkości sieci stanowi to ok. 1/3 całej latencji wprowadzanej przez system.
Jak widzimy, przy dużych, rozbudowanych sieciach latencja może osiągnąć całkiem „spore” wartości. Dość powiedzieć, że opóźnienie sygnału w zakresie 1-5 ms powodować będzie powstawanie efektu filtra grzebieniowego, zaś powyżej 5 ms może być już słyszalne jako sztuczny pogłos, a następnie jako wyraźne drugie odbicie (echo). Najbardziej „wrażliwymi” pod tym względem są systemy monitoringu dousznego, do których musimy podchodzić ze szczególną troską, jeśli chodzi o latencję sygnału. Mniejszą wagę natomiast można już przywiązywać w tej materii do nagłośnienia FOH, gdzie 5-milisekundowe opóźnienie sygnału odpowiada wirtualnemu przesunięciu źródła sygnału o ok. 30 cm od jego faktycznej pozycji.
W sieciach, które będziemy bardziej szczegółowo opisywać w kolejnych odcinkach, rozwiązanie problemu latencji odbywa się na rożne sposoby. Np. EtherSound charakteryzuje się bardzo małą, stałą (dla danej konfiguracji i wielkości sieci) latencją, podczas gdy w protokole CobraNet mamy możliwość wyboru spośród kilku wartości opóźnienia - dla małych, średnich i wielkich sieci, tak aby zapewnić płynny przepływ danych w całej sieci.
To kolejne „magiczne” hasło, dla którego dobrego polskiego odpowiednika jeszcze chyba nikt nie wymyślił. Najbardziej powszechne - nadmiarowość - nie jest zbyt szczęśliwym, aczkolwiek dość dobrze oddaje ideę tego zjawiska. W skrócie chodzi o to, aby zapewnić dodatkowy, teoretycznie niewykorzystywany „na co dzień” kanał przesyłowy, który jednak pozwoli nam, w sytuacji gdy awarii ulegnie główny kanał, w dalszym ciągu przesyłać i dostarczać dane do ich adresatów.
Owa redundancja w systemach cyfrowego przesyłu danych jest niezbędna, gdyż - inaczej niż w przypadku przesyłu analogowego (gdzie mamy wiele oddzielnych przewodów, którymi wędrują osobne sygnały i uszkodzenie jednego lub kilku z nich spowoduje niemożliwość przesłania tylko tych uszkodzonych) - przecięcie czy uszkodzenie skrętki czy światłowodu „kładzie” nam od razu całą sieć. Redundancja jest szczególnie istotna w przypadku systemów live, gdyż przerwanie jedynego połączenia między sceną a stakiem praktycznie kończy koncert (i to w najmniej oczekiwanym momencie). Sposobów na zapewnienie owej „nadmiarowości”, czyli tak naprawdę zabezpieczenia się przed nagłym uszkodzeniem głównego przewodu przesyłowego, jest kilka. Pierwszym z nich jest
Który nie ma jednak nic wspólnego z trunkami (aczkolwiek nie podejmuję się ustanowienia polskiego odpowiednika tego słowa). Idea trunkingu polega na łączeniu wielu portów w jedno łącze (maksymalnie do czterech portów/1 łącze). Dzięki takiej funkcjonalności możliwe jest uzyskanie przepływności równej krotności przepływności poszczególnych portów. Dla nas natomiast jest ważne, że uzyskujemy dzięki temu również dodatkową formę zabezpieczenia przed awariami łącza, gdyż w przypadku przerwania komunikacji na danym porcie, w danym łączu ruch obsługiwany przez ten port jest przenoszony na inne porty z tego łącza.
Czyli pierścień, a konkretnie pierścieniowa topologia sieci (pisałem o tym w poprzednim numerze LSP). W skrócie - polega ona na takim połączeniu urządzeń sieciowych, iż tworzą one pierścień. Informacje w takim układzie krążą wkoło, lecz tylko w jedną stronę, szukając adresu swego przeznaczenia. W takim układzie każdy element sieci jest połączony z dwoma sąsiednimi, a więc w sumie za pomocą dwóch kabli - to sprawia, że sieć pierścieniowa z definicji jest już redundantna (jeśli np. zostanie zerwane połączenie między urządzeniami A i B, to informacja z A do B i tak dotrze, ale okrężną droga np. przez E, D, C aż w końcu trafi do B).
W praktycznym zastosowaniu jedno z połączeń (dowolne) programowo odłącza się, tak aby informacja krążyła pomiędzy urządzeniami zawsze tą samą drogą (dzięki temu m.in. zmniejsza nam się przez to czas opóźnienia sygnału spowodowanego podejmowaniem decyzji, którą drogą wysłać sygnał - krótszą czy dłuższą, nie tworzy się też pętla sygnałowa). Fizycznie jednak wszystkie kable mamy podpięte, dzięki czemu, gdy tylko wystąpi uszkodzenie któregoś z obecnych połączeń, zablokowane programowo połączenie natychmiast zostaje aktywowane, dzięki czemu informacja - już inną drogą - ma szanse dotrzeć do punktu przeznaczenia. Dopiero awaria kolejnego połączenia przerywa transmisję w sieci, aczkolwiek nie całej.
Co można przetłumaczyć (aczkolwiek nie wiem, czy brzmi to dość sensownie) jako „drzewo rozpinające”. W topologii gwiazdy pakiety informacji przesyłane są między urządzeniami w sieci na podstawie ich adresów IP lub MAC. Istotne jest, aby pomiędzy nadawcą a odbiorcą była tylko jedna „trasa” prowadząca przez switche i kable. Jeśli bowiem byłaby więcej niż jedna możliwość dotarcia do adresata, mielibyśmy do czynienia z pętlą, w której nasza informacja może po prostu utknąć, krążąc wkoło. Nie dość na tym - może to spowodować zablokowanie całej sieci. Na szczęście możemy skorzystać z zarządzanych switchy z zaimplementowanym protokołem IEEE 802.1w Spanning Tree Protocol, w skrócie STP (nie mylić ze skrótem skrętki ekranowanej - Shielded Twisted Pair). Takie switche pozwalają na dodatkowe połączenie, które normalnie jest zablokowane, a uruchamiane dopiero w przypadku, gdy aktywny port ulegnie awarii (podobnie jak w sieci typu ring).
Takich zdublowanych połączeń może być kilka, a w przypadku gdy mamy sieć, w której bezpieczeństwo pracy jest kluczowe, możemy po prostu zdublować całą sieć, korzystając z podwójnej ilości switchy i połączeń. Dzięki temu sieć jest w stanie wznowić działanie w przypadku jakiejkolwiek awarii połączeń. Niestety wadą jest to, że w przypadku dużych sieci czas potrzebny na odzyskanie połączenia wynosi nawet 30 s. Obecnie wprowadzany jest nowy protokoł, IEE 802.p Rapid STP, który jest w stanie wznowić połączenie w czasie krótszym niż 100 ms.
To - jak sama nazwa wskazuje - sieciowanie sieci. Jest to bardzo ekstremalna forma zabezpieczenia, gdzie każde urządzenie pracujące w sieci jest połączone z każdym pozostałym. Jak łatwo się domyślić, takie rozwiązanie w bardzo rozbudowanej sieci jest praktycznie niemożliwe, a nawet jeśli, to zupełnie nieopłacalne. Tracimy na tym główny atut sieci cyfrowej - zmniejszenie ilości kabli. W przypadku meshingu znów musimy borykać się z „makaronem” przewodów. Niewątpliwą zaletą tego rozwiązania jest fakt, że prawdopodobieństwo wystąpienia awarii w takiej sieci jest minimalne - trzeba by przeciąć wszystkie połączenia w jednym węźle, żeby odłączyć go od sieci, przy czym i tak pozostałe urządzenia będą dalej pracować bez zakłócenia. Dopiero przecięcie prawie wszystkich przewodów jest w stanie skutecznie zablokować transmisję pomiędzy urządzeniami.
Jak widać, również problem bezpieczeństwa transmisji znajduje swoje rozwiązania, aczkolwiek - nie da się ukryć - związane jest to z dodatkowymi zabiegami, a także i kosztami.
Aby zakończyć temat minusów, musimy też wspomnieć, że sieci cyfrowe są jednak nieco bardziej skomplikowane i złożone niż analogowe. Fakt - kable są cieńsze, łatwiej je prowadzić, a i tak połączyć musimy wszystkie urządzenia przynajmniej jednym kablem. Trzeba jednak wziąć pod uwagę, że przy połączeniach analogowych, kiedy starannie przemyślimy konfigurację sieci, a potem ją zrealizujemy (czyli podłączymy wszystko jak należy), powinniśmy tylko włączyć sprzęt i... ma działać (aczkolwiek rożnie z tym bywa). W sieciach cyfrowych prawidłowe podłączenie urządzeń to dopiero połowa (a może nawet i mniej) sukcesu - dochodzi nam jeszcze warstwa software’owa, a więc cała konfiguracja i sterowanie siecią. W niektórych przypadkach jest to proste, w innych wymaga pewnej wiedzy z zakresu sieci komputerowych i obsługi specjalistycznych programów. Fakt pozostaje jednak faktem, że bez zaprzyjaźnienia się, choćby powierzchownego, z komputerem raczej się nie obejdzie.
Żeby jednak nie odstraszyć całkowicie przyszłych, potencjalnych „sieciowców” wspomnieć też trzeba - tym razem nieco szerzej - o tej „jasnej stronie mocy”.
Na początek może jeszcze raz co nieco o
Jak to już kilka razy pisałem, zamiana tradycyjnego, analogowego przesyłania wielokanałowego na cyfrową sieć audio automatycznie odciąża nas kablowo. Aby przesłać, nawet kilkaset kanałów, nie potrzebujemy kilkuset przewodów (strach pomyśleć, jak wyglądałby taki multicore!) - zamiast tego wystarczy nam cztery pary cieniutkich, skręconych ze sobą drucików, tworzących tzw. skrętkę nieekranowaną UTP (Unshielded Twisted Pair). Wersja ekranowana, oferująca większą odporność na zakłócenia elektromagnetyczne, znana jest jako STP (Shielded Twisted Pair), aczkolwiek skrętka nieekranowana jest bardziej popularna. Tego typu kabelki dostępne są w rożnych wersjach jakościowych, zależnych od aplikacji w jakich są one wykorzystywane, kategoryzowane przez Telecommunications Industry Association od 1 do 6. Kategoryzacja jest zależna od materiału oraz od ilości skręceń przypadających na 1 m bieżący przewodu.
W sieciach 10 Mb powszechnie używa się skrętki niezbyt wysokiej jakości CAT3. Ethernet 100-Megabitowy nie obejdzie się bez skrętki CAT5 lub wyższej. Ważna uwaga - niezależnie czy będzie to CAT3, czy CAT5, z wyglądu nie różnią się one niczym - trzeba patrzeć na opisy, aby się nie pomylić. Jeśli chcemy pracować z siecią Gigabitową musimy skorzystać z lepszej wersji „piątki” - CAT5E, a jeszcze lepszą jakość zapewni nam CAT6. W obrębie wszystkich kategorii mamy też rożne wersje, o rożnych własnościach fizycznych - wzmocnione dla instalacji, giętkie do patchowania czy z dodatkowym ekranowaniem i osłoną do aplikacji touringowych.
Standardowym złączem, dzięki któremu urządzenia komunikują się z pozostałymi członkami sieci, jest RJ45. Choć złącze wszędzie jest takie samo, innych wtyczek będziemy używać w instalacjach stałych (gdzie kabel wpina się raz i pozostaje tam nie ruszany na długie lata), a innych w instalacjach mobilnych i koncertowych (gdzie nieustannie musimy podłączać i odłączać kable). W tym drugim przypadku najlepszym rozwiązaniem jest złącze EtherCon znanego producenta wszelkiej maści gniazd i wtyczek, firmy Neutrik.
Światłowody zapewniają znacznie szersze pasmo przenoszenia w stosunku do skrętek, przez co pozwalają na przesyłanie sygnałów nawet na kilometrowe odległości. Do wyboru mamy dwa standardy: światłowody wielo- i jednomodowe. Pierwsze mogą przenosić informacje w sieciach Giga bitowych do 2 km, zaś drugie - nawet do 80 km. Jak łatwo się domyślić, światłowody jednomodowe są droższe, a w zasadzie droższe jest źródło światła, którym musi być dioda laserowa. Kolejną wadą światłowodów w stosunku do skrętek jest to, że ich montaż (światłowód-wtyczka) nie jest już taki prosty, jak zaciśnięcie RJtek na skrętce. Natomiast ich niewątpliwą zaletą, oprócz odległości, na jakie można za ich pomocą przesyłać sygnał, jest praktycznie zerowa wrażliwość na zakłócenia elektromagnetyczne.
Jeśli chcemy używać zamiennie jednego i drugiego medium, konieczne będzie nabycie media konwerterów, dzięki którym sygnał elektryczny zamienimy na impulsy świetlne i vice versa. Obecnie wybór takich konwerterów jest szeroki, zarówno dla sieci 100-megabitowych, jak i gigabitowych.
To, co kilka wersów wcześniej wymieniłem jako minus systemów sieciowych, teraz przydzieliłem do plusów - chodzi o fakt, iż w sieciach cyfrowych mamy do czynienia z dwiema, niezależnymi warstwami: fizyczną (kable, switche, itp.) oraz funkcjonalną. Fakt, powoduje to większy stopień złożoności i wymaga większej wiedzy od operatora takiej sieci, ale z drugiej strony daje nam sporą niezależność. Odpowiednio raz dobrane i poprawnie zainstalowanie okablowanie może pozostawać nienaruszone przez lata, podczas gdy wszelkich zmian konfiguracyjnych możemy dokonywać nawet codziennie.
Wystarczy tylko w odpowiednim miejscu podpiąć się z odpowiednim urządzeniem (laptopem, tabletem) i w ciągu kilku, kilkunastu lub kilkudziesięciu minut „przemeblować” całą sieć, a nawet wywrócić ją do góry nogami. Wszelkie rekonfiguracje nie wymagają już zastanawiania się „gdzie wpięliśmy A” albo „na które wejście podajemy sygnał z B” - wszystko jest czytelne i dostępne na zawołanie, z jednego miejsca, bez konieczności grzebania w szafach sprzętowych, zaglądania „w plecy” konsoletom, procesorom i innym urządzeniom.
Dzięki obecnie używanym sieciom Cobra Net, EtherSound i Dante wszystko mamy zunifikowane - korzystamy z tych samych urządzeń, co w zwykłej sieci Ethernet. Mało tego - korzystamy TYLKO z tego. Nie potrzebujemy już używać dodatkowych interfejsów typu GPI, RS232, RS422 czy RS485, konwerterów z jednego na drugie, różnorakich kabli i wtyczek. Jak to się ma do rzeczywistości? Zapraszam do lektury za dwa miesiące.