Cyfrowe sieci audio. Podstawy, wady i zalety

2015-03-13
Cyfrowe sieci audio. Podstawy, wady i zalety

Chyba nikt nie wyobraża sobie obecnie systemów dźwiękowych – czy to w studiu nagraniowym lub telewizyjnym, w instalacjach stałych, czy też przy obsłudze wydarzeń live – bez cyfrowej transmisji sygnałów audio.

Z uwagi na niemalże niepodzielne królowanie konsolet cyfrowych coraz rzadszym jest obrazek, gdy między sceną a stanowiskiem realizatora rozciągnięta jest gruba „kicha” analogowego kabla wieloparowego.

Obecnie standardem w tego typu połączeniach jest skrętka, a nierzadko jest to i światłowód. Nie wspominając już o dystrybucji sygnałów w takich obiektach jak studia telewizyjne czy radiowe, studia nagrań oraz przybytki kultury, jak opery, teatry, filharmonie itp. We współczesnych sieciach cyfrowych w każdej sekundzie przesyłane są miliardy bitów informacji. Nowoczesne światłowody jednomodowe są w stanie „za jednym zamachem” przesłać dziesięć gigabitów informacji na odległość kilkudziesięciu kilometrów. Taka przepustowość jest już w zupełności wystarczająca, aby sieciowo przesyłać również dźwięk wielokanałowy. I to nie jakieś marne 8, 16 czy nawet 64 kanały – setki kanałów audio wysokiej jakości zamienionych na impulsy świetlne może wędrować (może to niezbyt trafne określenie, bardziej adekwatne będzie mknąć) z prędkością rzędu 300 tysięcy km/s nawet na odległość kilkudziesięciu kilometrów.

W tym artykule, i kolejnym (a może nawet kolejnych), przyjrzymy się bliżej cyfrowym sieciom audio opartym na protokole IP, które już od jakiegoś czasu są obecne w przemyśle audio (a część z nich wręcz już powoli kończy swój „żywot”) – CobraNet-owi, EtherSoundowi i Dante oraz sięgniemy myślą w niedaleką przyszłość i zobaczymy, co inżynierowie oferują nam w zamian za te starsze i mniej wydajne protokoły, które pewnie niedługo odejdą do lamusa.

Najpierw jednak w dużym skrócie powiedzmy sobie co nieco o samych sieciach oraz o architekturze sieci Ethernet jako bazie, na której swoje działanie opiera większość systemów cyfrowej transmisji wielokanałowej audio.

SIEĆ


Zasadę działania sieci opisuje model ISO/OSI „Open System Interconnection” (model łączenia systemów otwartych). Został on stworzony w celu ustandaryzowania wszelkich procesów zachodzących w sieci. Opisuje on zarówno właściwości fizyczne elementów (napięcia, wielkości wtyczek), jak i sam sposób działania sieci (komunikację, kodowanie danych, protokoły transmisyjne itd.). Dzięki niemu możliwe jest współdziałanie wszystkich urządzeń sieciowych wyprodukowanych przez różnych producentów, i nie tylko. Model ISO/OSI dzieli proces działania sieci na 7 etapów (warstw, nazywanych także stosem), z których każdy obsługiwany jest przez pewien układ sprzętowy lub programowy. Każda warstwa komunikuje się za pomocą jednego lub kilku protokołów z analogiczną warstwą w drugim komputerze. Kolejne warstwy porozumiewają się także ze sobą, dodając lub ujmując pewne dane. Działanie owego stosu najłatwiej przedstawić na uproszczonym cztero-warstwowym przykładzie internetowego protokołu TCP/IP:

– Warstwa aplikacji (dla uproszczenia schematu zawarto w niej warstwę prezentacji i sesji) – dzięki niej wszelkie programy komunikacyjne potrafią w łatwy sposób wysłać i odbierać dane przez sieć. Koduje znaki, liczby, kontroluje wymianę danych pomiędzy komputerami. Rozpoczyna i zrywa połączenia nawiązane przez aplikację. Mówiąc inaczej – modeluje i zapisuje dane tak, aby były zrozumiałe dla wszystkich urządzeń, programów sieciowych oraz kolejnych warstw.

– Warstwa transportowa – odpowiada za dostarczenie danych do odpowiedniego portu, procesu oraz odpowiednie uporządkowanie danych. Jest swoistym łącznikiem pomiędzy warstwą aplikacji a warstwą sieciową (np. Internetu). Ponadto sprawdza, czy dane zostały dostarczone w odpowiednie miejsce oraz sumę kontrolną CRC.

– Warstwa sieciowa – w niej system zapisuje informację, gdzie dane uporządkowane przez poprzednią warstwę mają dotrzeć.

– Warstwa dostępu do sieci (w jej skład wchodzi warstwa fizyczna i łącza danych) – zapewnia zgrane współdziałanie wszelkich komponentów sieci. Opisuje topologię, karty sieciowe, kable, wtyczki, wszelkie fizyczne elementy przeznaczone do transportu danych w sieci. Jej działanie kontrolują między innymi sterowniki kart sieciowych, mostki itp. Definiuje sposób sprzętowej kompresji danych oraz mechanizm sprawdzania błędów (Cyclic Redundancy Check). Warstwa łącza danych zapewnia niezawodną transmisję poprzez kanały transmisyjne, zaś fizyczna odpowiedzialna jest za przesyłanie bitów.

SIEĆ ETHERNET


Ethernet jest siecią opartą na wymianie pakietów o ustalonym formacie. Pakiet przenoszony przez Ethernet nazywany jest ramką ethernetową. Jedną z podstawowych informacji przenoszonych przez ramkę jest adres sprzętowy odbiorcy, na podstawie którego odbierający ramkę rozpoznaje, że została ona skierowana właśnie do niego. Aby więc przesłać przez sieć ethernetową dane, trzeba najpierw dokonać ich pakietowania.

Pakietowanie danych to procedura, która polega na dzieleniu większej całości danych na niewielkie części i zorganizowaniu ich w taki sposób, by mogły zostać przesłane poprzez sieć. Wszystkie pakiety mogą bezpiecznie współistnieć obok siebie, gdyż zaopatrzone są w:
– adres nadawcy
– adres odbiorcy
– kolejny numer w sekwencji pakietów
– sumę kontrolną

Każdy komputer lub inne urządzenie podłączone do sieci ma swój unikatowy adres (MAC adres, o nim za chwilę), więc transmisja danych w sieci to w istocie procedura polegająca na dostarczaniu przesyłek z jednego miejsca w inne. Nie działa to jednak tak, jak firma kurierska, gdzie – w dużym uproszczeniu – przesyłka dostarczana jest z punktu A do punktu B (i nikt inny, teoretycznie, nie ma prawda jej dostać).

W sieciach typu Ethernet stacje robocze wysyłają dane w trybie rozgłoszeniowym (broadcastowym) – gdy jeden użytkownik nadaje komunikat do innego użytkownika, jest on rozsyłany rozgłoszeniowo do wszystkich stacji. Każda stacja odbiera wszystkie przepływające przez medium transmisyjne ramki. W momencie transmisji poszczególne stacje znajdujące się w sieci muszą dokonać sprawdzenia, czy przepływające ramki nie są adresowane właśnie do nich, jako stacji odbiorczych.

Ethernet jest siecią typu rywalizującego, gdzie wszystkie węzły w danym segmencie rywalizują ze sobą o dostęp do sieci – w przypadku gdy dwa komputery próbują komunikować się w tym samym czasie, następuje kolizja, komputery muszą się wycofać i zaprzestać transmisji. Sieć ta korzysta przy tym z protokołu CSMA/CD (Carrier-Sense Multiple Access with Collision Detection). Występowanie zjawiska kolizji jest jednym z powodów, dla którego Ethernet w „czystej postaci” nie może być wykorzystywany do przesyłania dźwięku na żywo – wizja zatykania się łącza z powodu zatrzymania transmisji, choćby na krótką chwilę, jest nie do przyjęcia na koncertach czy podczas transmisji audio na stadionie, hali, dworcu czy w hotelu.

Drugi powód, dla którego nie możemy korzystać ze zwykłego Ethernetu, jeśli chcemy przesyłać dźwięk wielokanałowy, wynika ze wspomnianego wcześniej pakietowania danych. Pakiet składa się z preambuły (naprzemiennie następujące znaki 0 i 1, informujące o nadejściu ramki). Dalej umiejscowiona jest ramka zawierająca adres docelowy (może być skierowany do pojedynczego odbiorcy – unicast, określonej grupy – multicast, lub do wszystkich, którzy tą wiadomość odbiorą – broadcast, czyli tak zwany adres rozgłoszeniowy) i wyjściowy (adres nadawcy), nr protokołu (pozwalający określić który protokół używamy) dane oraz CRC.

ADRESY I PROTOKOŁY


Aby urządzenia mogły się między sobą komunikować, muszą wiedzieć, kto jest kto. Do tego służą adresy. Adresy ethernetowe są adresami sprzętowymi MAC (Media Access Control). Są to 12-cyfrowe (48-bitowe) adresy przypisane na stałe do interfejsów sieciowych. Żadne urządzenia sieciowe nie mają tego samego adresu ethernetowego, są więc unikalne i jednoznacznie rozpoznawalne w sieci.

Ponadto do komunikacji urządzeń w sieci niezbędne jest również określenie zasad przebiegu komunikacji i przesyłania danych. Zbiór takich zasad nazywany jest protokołem komunikacyjnym. Protokół komunikacyjny, wspólny dla współdziałających rozmówców, musi być określony w sposób jednoznaczny, wykluczający możliwość jakichkolwiek niejasności i nieporozumień. Wśród ogromnej liczby protokołów wykorzystywanych do komunikacji w sieciach na szczególną uwagę zasługują protokoły z rodziny TCP/IP. Jest to rodzina protokołów, na których opiera się wiele sieci lokalnych oraz Internet.

Podstawowym protokołem w rodzinie TCP/IP jest protokół IP. Definiuje on identyfikację komputerów niezależną od sprzętu oraz steruje przepływem pakietów przez sieć. Podstawową informacją identyfikującą komputer na poziomie fizycznym jest adres sprzętowy – w przypadku TCP/IP jest to 32-bitowy adres IP. W odróżnieniu od adresu sprzętowego adres IP jest adresem niezależnym od sprzętu, nadawanym i przechowywanym przez oprogramowanie. Adresy IP zapisuje się w postaci czterech liczb dziesiętnych, oddzielonych kropkami. Każda z tych liczb odpowiada jednemu oktetowi adresu IP (np. 128.10.2.30). Jest to adres IP protokołu w wersji czwartej, IPv4. Zapotrzebowanie na adresy IPv4 stało się na tyle duże, że pula nieprzydzielonych adresów zaczyna się wyczerpywać (dostępnych jest 4.294.967.295 unikalnych adresów, dla mających problemy z policzeniem miejsc – ponad 4 miliardy), z tego powodu powstała nowa, szósta wersja protokołu – IPv6. W protokole IPv6 rozmiar przestrzeni adresowej został zwiększony do 128 bitów, co daje 2128 ≈ 3,4×1038 kombinacji (trzydzieści cztery z przodu i 37 zer!). Niestety protokół Ipv6 nie jest kompatybilny z Ipv4, dlatego też przejście na adresowanie w wersji szóstej na razie zostało odłożone.

PRZEPUSTOWOŚĆ I TOPOLOGIE


Obecnie możemy spotkać cztery typy Ethernetu, które odróżnia przepustowość:

– Ethernet 10 Mb/s, IEEE 802.3 (Standard Ethernet) – bodajże najczęściej jeszcze spotykany typ Ethernetu, zwłaszcza w mniejszych sieciach, aczkolwiek coraz powszechniej wypierany jest przez
– Ethernet 100 Mb/s (Fast Ethernet) – który jednak okazuje się nie być na tyle szybki, aby powoli nie być już wypieranym przez
– Ethernet 1000 Mb/s (Gigabit Ethernet) – ta jeszcze nie dawno„kosmiczna” przepustowość też nie jest już wystarczająca, toteż „zwykły” Ethernet Gigabitowy czuje już na plecach oddech swojego następcy, którym jest
– Ethernet 10 Gb/s (10 Gigabit Ethernet)

W sieciach audio nie korzysta się z 10-Megibitowego Ethernetu, gdyż jest on stanowczo za wolny, aby bezproblemowo przesyłać dźwięk wielokanałowy (choćby to miał być 8-kanałowy). 100 Mb/s to niezbędne minimum, a 10 Gb/s to już w zasadzie obecnie standard.

Jeśli zaś chodzi o topologie sieciowe, to znów wyróżnia się cztery najbardziej popularne topologie (czyli sposoby wzajemnego połączenia urządzeń):
– topologia szynowa (zwana magistralową)
– topologia pierścieniowa
– topologia gwiazdy
– topologia drzewa


Dla nas najbardziej interesujące, bo najczęściej spotykane, będą dwie środkowe, choć w większych systemach sieciowych możemy też mieć do czynienia z topologią drzewa. Pokrótce więc coś o nich:

Topologia pierścieniowa to struktura, gdzie urządzenia sieciowe podłączone są do medium tworzącego pierścień. Informacje w takim układzie krążą wkoło, lecz tylko w jedną stronę, szukając adresu swego przeznaczenia.
W topologii gwiazdy kable sieciowe połączone są w jednym punkcie, gdzie znajduje się switch lub hub. Jego zaletę stanowi bezpieczeństwo oraz wydajność.
Topologia drzewiasta stanowi strukturę podobną do układu szynowego, lecz tutaj możliwe jest występowanie gałęzi posiadających wiele węzłów.

Przyjrzyjmy się jeszcze kilku ważnym aspektom cyfrowej transmisji danych i zobaczmy, jakie problemy możemy napotkać, chcąc przesyłać wiele kanałów audio przez sieć cyfrową.

LATENCJA


To dobrze znane już chyba wszystkim słowo, oznaczające opóźnienie sygnału wynikające z przetwarzania i transmisji cyfrowej. Opóźnienie to jest związane więc zarówno z działaniem samej sieci, jak i pracą urządzeń w owej sieci (przetwarzanie A/D i D/A, obróbka w procesorach DSP itp.).

Weźmy dla przykładu jeden z podstawowych elementów rozbudowanej sieci opartej na IP – switch. Zasada działania switcha w skrócie polega na tym, że przyjmuje on informację do niego docierającą, odczytuje adres odbiorcy, do którego „paczka” ma być dostarczona, i przesyła ją do niego najbardziej odpowiednią drogą (tych może być kilka, toteż musi on zdecydować, która będzie najlepsza). To wszystko wymaga pewnej ilości czasu. Co prawda switch nie musi zastanawiać się i podejmować tych decyzji tak długo, jak większość naszych urzędników, jednak nie może odbywać się to natychmiastowo – w 100-megabitowej sieci ten proces trwać będzie do 120 μs. Jeśli sieć jest bardziej rozbudowana, a więc i przybywa w niej switchy, przez które musi przewędrować sygnał, to opóźnienie sygnału zaczyna nam wzrastać proporcjonalnie to liczby „odwiedzonych” switchy. Do tego dochodzi nam, o czym już wspomniałem wcześniej, opóźnienie związane z obróbką sygnału w procesorach DSP czy konwerterach A/D i D/A – w średniej wielkości sieci stanowi to ok. 1/3 całej latencji wprowadzanej przez system.

Jak widzimy, przy dużych, rozbudowanych sieciach latencja może osiągnąć całkiem „spore” wartości. Dość powiedzieć, że opóźnienie sygnału w zakresie 1-5 ms powodować będzie powstawanie efektu filtra grzebieniowego, zaś powyżej 5 ms może być już słyszalne jako sztuczny pogłos, a następnie jako wyraźne drugie odbicie (echo). Najbardziej „wrażliwymi” pod tym względem są systemy monitoringu dousznego, do których musimy podchodzić ze szczególną troską, jeśli chodzi o latencję sygnału. Mniejszą wagę natomiast można już przywiązywać w tej materii do nagłośnienia FOH, gdzie 5 milisekundowe opóźnienie sygnału odpowiada wirtualnemu przesunięciu źródła sygnału o ok. 30 cm od jego faktycznej pozycji.

REDUNDANCJA


To kolejne „magiczne” hasło, dla którego dobrego polskiego odpowiednika jeszcze chyba nikt nie wymyślił. Najbardziej powszechne – nadmiarowość – nie jest zbyt szczęśliwym, aczkolwiek dość dobrze oddaje ideę tego zjawiska. W skrócie chodzi o to, aby zapewnić dodatkowy, teoretycznie niewykorzystywany „na co dzień”, kanał przesyłowy, który jednak pozwoli nam, w sytuacji gdy awarii ulegnie główny kanał, w dalszym ciągu przesyłać i dostarczać dane do ich adresatów. Owa redundancja w systemach cyfrowego przesyłu danych jest niezbędna, gdyż – odwrotnie niż w przypadku przesyłu analogowego (gdzie mamy wiele oddzielnych przewodów, którymi wędrują osobne sygnały i uszkodzenie jednego lub kilku z nich spowoduje niemożliwość przesłania tylko tych uszkodzonych) – przecięcie czy uszkodzenie skrętki czy światłowodu „kładzie” nam od razu całą sieć. Redundancja jest szczególnie istotna w przypadku systemów live, gdyż przerwanie jedynego połączenia między sceną a stackiem praktycznie kończy koncert (i to w najmniej oczekiwanym momencie).

Sposobów na zapewnienie owej „nadmiarowości”, czyli tak naprawdę zabezpieczenia się przed nagłym uszkodzeniem głównego przewodu przesyłowego, jest kilka. Pierwszym z nich jest

TRUNKING


Idea trunkingu polega na łączeniu wielu portów w jedno łącze (maksymalnie do czterech portów/1 łącze). Dzięki takiej funkcjonalności możliwe jest uzyskanie przepływności równej krotności przepływności poszczególnych portów. Dla nas natomiast jest ważne, że uzyskujemy dzięki temu również dodatkową formę zabezpieczenia przed awariami łącza, gdyż w przypadku przerwania komunikacji na danym porcie w danym łączu ruch obsługiwany przez ten port jest przenoszony na inne porty z tego łącza.

RING


Wspomniana wyżej konfiguracja pierścieniowa jest sama w sobie redundantna – jeśli pierścień zostanie zamknięty. W takim układzie każdy element sieci jest połączony z dwom sąsiednimi, a więc w sumie za pomocą dwóch kabli, i to właśnie sprawia, że sieć pierścieniowa z definicji jest już redundantna (jeśli np. zostanie przerwane połączenie między urządzeniem A i B, to informacja z A do B i tak dotrze, ale okrężną drogą np. przez E, D, C, aż w końcu trafi do B). Ponieważ normalnie ruch odbywa się w jednym kierunku, menedżer redundancji pierścieniowej natychmiast wykrywa powstałą przerwę i utrzymuje dopływ danych z obu stron układu. Urządzenie nadrzędne wykrywa ponowne zamknięcie pierścienia i odpowiednio na to reaguje rozpoczynając dostarczanie danych tylko z jednego kierunku.

W praktycznym zastosowaniu jedno z połączeń (dowolne) programowo odłącza się, tak aby informacja krążyła pomiędzy urządzeniami zawsze tą samą drogą (dzięki temu m.in. zmniejsza się przez to czas opóźnienia sygnału spowodowany podejmowaniem decyzji, którą drogą wysłać sygnał – krótszą, czy dłuższą, nie tworzy się też pętla sygnałowa). Fizycznie jednak wszystkie kable są podpięte, dzięki czemu, gdy tylko wystąpi uszkodzenie któregoś z obecnych połączeń zablokowane programowo połączenie natychmiast zostaje aktywowane, dzięki czemu informacja – już inną drogą – ma szanse dotrzeć do punktu przeznaczenia. Dopiero awaria kolejnego połączenia przerywa transmisję w sieci, aczkolwiek nie całej.

SPANNING TREE


Co można przetłumaczyć (aczkolwiek nie wiem, czy brzmi to dość sensownie), jako „drzewo rozpinające”. W topologii gwiazdy pakiety informacji przesyłane są między urządzeniami w sieci na podstawie ich adresów IP lub MAC. Istotne jest, aby pomiędzy nadawcą a odbiorcą była tylko jedna „trasa”, prowadząca przez switche i kable. Jeśli bowiem byłaby więcej niż jedna możliwość dotarcia do adresata, mielibyśmy do czynienia z pętlą, w której nasza informacja może po prostu utknąć, krążąc wkoło. Nie dość na tym – może to spowodować zablokowanie całej sieci. Na szczęście możemy skorzystać z zarządzanych switchy z zaimplementowanym protokołem IEEE 802.1w Spanning Tree Protocol, w skrócie STP (nie mylić ze skrótem skrętki ekranowanej – Shielded Twisted Pair). Takie switche pozwalają na dodatkowe połączenie, które normalnie jest zablokowane, a dopiero w przypadku, gdy aktywny port ulegnie awarii (podobnie jak w sieci typu ring), połączenie zostaje aktywowane. Takich zdublowanych połączeń może być kilka, a w przypadku, gdy mamy sieć, w której bezpieczeństwo pracy jest kluczowe, możemy po prostu zdublować całą sieć, korzystając z podwójnej liczby switchy i połączeń. Dzięki temu sieć jest w stanie wznowić działanie w przypadku jakiejkolwiek awarii połączeń. Niestety wadą jest to, że w przypadku dużych sieci czas potrzebny na odzyskanie połączenia wynosi nawet 30 s. Obecnie wprowadzany jest nowy protokół, IEE 802.p Rapid STP, który jest w stanie wznowić połączenie w czasie krótszym niż 100 ms.

MESHING


To – jak sama nazwa wskazuje – sieciowanie sieci. Jest to bardzo ekstremalna forma zabezpieczenia, gdzie każde urządzenie pracujące z sieci jest połączone z każdym pozostałym. Jak łatwo się domyślić, takie rozwiązanie w bardzo rozbudowanej sieci jest praktycznie niemożliwe, a nawet jeśli, to zupełnie nieopłacalne. Tracimy na tym główny atut sieci cyfrowej – zmniejszenie liczby kabli. W przypadku meshingu znów musimy borykać się z „makaronem” przewodów. Niewątpliwą zaletą tego rozwiązania jest fakt, że prawdopodobieństwo wystąpienia awarii w takiej sieci jest minimalne – trzeba by przeciąć wszystkie połączenia w jednym węźle, żeby odłączyć go od sieci, przy czym i tak pozostałe urządzenia będą dalej pracować bez zakłócenia. Dopiero przecięcie prawie wszystkich przewodów jest w stanie skutecznie zablokować transmisję pomiędzy wszystkimi urządzeniami.

Jak widać, również problem bezpieczeństwa transmisji znajduje swoje rozwiązania, aczkolwiek – nie da się ukryć – związane jest to z dodatkowymi zabiegami, a także i kosztami.

ZŁOŻONOŚĆ


Aby zakończyć temat minusów, musimy też wspomnieć, że sieci cyfrowe są jednak nieco bardziej skomplikowane i złożone niż analogowe. Fakt – kable są cieńsze, łatwiej je prowadzić, a i tak połączyć musimy każde urządzenie przynajmniej jednym kablem. Trzeba jednak wziąć pod uwagę, że przy połączeniach analogowych, kiedy starannie przemyślimy konfigurację sieci, a potem ją zrealizujemy (czyli podłączymy wszystko, jak należy) powinniśmy tylko włączyć sprzęt i... ma działać (aczkolwiek różnie z tym bywa). W sieciach cyfrowych prawidłowe podłączenie urządzeń w sieci to dopiero połowa (a może nawet i mniej) sukcesu – dochodzi nam jeszcze warstwa software’owa, a więc cała konfiguracja i sterowanie siecią. W niektórych przypadkach jest to proste, w innych wymaga pewnej wiedzy z zakresu sieci komputerowych i obsługi specjalistycznych programów. Fakt pozostaje jednak faktem, że bez zaprzyjaźnienia się, choćby powierzchownego, z komputerem raczej się nie obejdzie.

PLUSY


Żeby jednak nie odstraszyć całkowicie przyszłych, potencjalnych „sieciowców” wspomnieć też trzeba – tym razem nieco szerzej – a tej „jasnej stronie mocy”. Na początek może jeszcze raz co nieco o

POŁĄCZENIACH


Zamiana tradycyjnego, analogowego przesyłania wielokanałowego na cyfrową sieć audio automatycznie odciąża nas kablowo. Aby przesłać, nawet kilkaset kanałów, nie potrzebujemy kilkuset przewodów (strach pomyśleć, jak wyglądałby taki multicore!) – zamiast tego wystarczą nam cztery pary cieniutkich, skręconych ze sobą drucików, tworzących tzw. skrętkę nieekranowaną UTP (Unshielded Twisted Pair).

Wersja ekranowana, oferująca większą odporność na zakłócenia elektromagnetyczne, znana jest jako STP (Shielded Twisted Pair), aczkolwiek skrętka nieekranowana jest bardziej popularna. Tego typu kabelki dostępne są w różnych wersjach jakościowych, zależnych od aplikacji, w jakich są wykorzystywane, kategoryzowane przez Telecommunications Industry Association od 1 do 6. Kategoryzacja jest zależna od materiału oraz od liczby skręceń przypadających na 1 m bieżący przewodu. W sieciach 10 Mb powszechnie używa się skrętki niezbyt wysokiej jakości CAT3. Ethernet 100-Megabitowy nie obejdzie się bez skrętki CAT5 lub wyższej. Ważna uwaga – niezależnie, czy będzie to CAT3, czy CAT5, z wyglądu nie różnią się one niczym – trzeba patrzeć na opisy, aby się nie pomylić. Jeśli chcemy pracować z siecią Gigabitową, musimy skorzystać z lepszej wersji „piątki” – CAT5E, a jeszcze lepszą jakość zapewni nam CAT6. W obrębie wszystkich kategorii mamy też różne wersje, o różnych własnościach fizycznych – wzmocnione dla instalacji, giętkie do patchowania czy z dodatkowym ekranowaniem i osłoną do aplikacji touringowych.

Standardowym złączem, dzięki któremu urządzenia komunikują się z pozostałymi członkami sieci, jest RJ45. Choć złącze wszędzie jest takie samo, innych wtyczek będziemy używać w instalacji stałych (gdzie kabel wpina się raz, i pozostaje tam nieruszany na długie lata), a innych w instalacjach mobilnych i koncertowych (gdzie nieustannie musimy podłączać i odłączać kable). W tym drugim przypadku najlepszym rozwiązaniem jest złącze EtherCon znanego producenta wszelkiej maści gniazd i wtyczek, firmy Neutrik.

 

ŚWIATŁOWODY


Światłowody zapewniają znacznie szersze pasmo przenoszenia w stosunku do skrętek, przez co pozwalają na przesyłanie sygnałów nawet na kilometrowe odległości. Do wyboru mamy dwa standardy: światłowody wielo- i jednomodowe. Pierwsze mogą przenosić informacje w sieciach Gigabitowych do 2 km, zaś drugie nawet do 80 km. Jak łatwo się domyślić, światłowody jednomodowe są droższe, a w zasadzie droższe jest źródło światła, którym musi być dioda laserowa. Kolejną wadą światłowodów w stosunku do skrętek jest to, że ich montaż (światłowód- wtyczka) nie jest już tak prosty, jak zaciśnięcie RJ-tek na skrętce. Natomiast ich niewątpliwą zaletą, oprócz odległości, na jakie można za ich pomocą przesyłać sygnał, jest praktycznie zerowa wrażliwość na zakłócenia elektromagnetyczne.


Jeśli chcemy używać zamiennie jednego i drugiego medium, konieczne będzie nabycie media konwerterów, dzięki którym sygnał elektryczny zamienimy na impulsy świetlne, i vice versa.

 

DWIE ODDZIELNE WARSTWY


To, co kilka wersów wcześniej wymieniłem jako minus systemów sieciowych, teraz przydzieliłem do plusów – chodzi o fakt, iż w sieciach cyfrowych mamy do czynienia z dwiema niezależnymi warstwami: fizyczną (kable, switche itp.) oraz funkcjonalną. Fakt, powoduje to większy stopień złożoności i wymaga większej wiedzy od operatora takiej sieci, ale z drugiej strony daje nam sporą niezależność. Odpowiednio raz dobrane i poprawnie zainstalowanie okablowanie może pozostawać nienaruszone przez lata, podczas gdy wszelkich zmian konfiguracyjnych możemy dokonywać nawet codziennie. Wystarczy tylko w odpowiednim miejscu podpiąć się z odpowiednim urządzeniem (laptopem, tabletem) i w ciągu kilku, kilkunastu lub kilkudziesięciu minut „przemeblować” całą sieć, a nawet wywrócić ja do góry nogami. Wszelkie rekonfiguracje nie wymagają już zastanawiania się „gdzie wpięliśmy A” albo „na które wejście podajemy sygnał z B” – wszystko jest czytelne i dostępne na zawołanie, z jednego miejsca, bez konieczności grzebania w szafach sprzętowych, zaglądania „w plecy” konsoletom, procesorom i innym urządzeniom.

WSZYSTKO W JEDNYM


Dzięki takim sieciom jak CobraNet, EtherSound i Dante wszystko mamy zunifikowane – korzystamy z tych samych urządzeń, co zwykła sieć Ethernet. Mało tego – korzystamy TYLKO z tego. Nie potrzebujemy już używać dodatkowych interfejsów typu GPI, RS232, RS422 czy RS485, konwerterów z jednego na drugie, różnorakich kabli i wtyczek. Inne sieci też korzystają z niektórych standardowych rozwiązań Ethernetowych, jak skrętki czy złącza RJ45, ale już np. switche muszą mieć dedykowane (AES50, HyperMac, AVB). Ale konkretne informacje o tym, co oferują i jak działają owe sieci, znajdziecie w kolejnym artykule.

Piotr Sadłoń

Estrada i Studio Kursy
Produkcja muzyczna od podstaw
Produkcja muzyczna od podstaw
50.00 zł
Produkcja muzyczna w praktyce
Produkcja muzyczna w praktyce
120.00 zł
Bitwig Studio od podstaw
Bitwig Studio od podstaw
55.00 zł
Sound Forge od podstaw
Sound Forge od podstaw
40.00 zł
Kontakt 5 Kompedium
Kontakt 5 Kompedium
60.00 zł
Zobacz wszystkie
Live Sound & Instalation Newsletter
Krótko i na temat, zawsze najświeższe informacje