전자기기그룹/정보통신

디지털 오디오 전송 방식

청솔1 2010. 9. 6. 11:47

디지털 오디오 전송 방식

 

Data Conversions

하나의 웨이브 폼이 디지털 포맷으로 변환되어가는 과정에서 숫자들을 나타내는 디지털 워드들로 변환된다.

변환되는 과정에서 1 0으로 변환된다.

오디오 시그널의 변환 과정은 데이터의 변환과정과 별다른 다른 차이점은 없다고 할 수 있다.

그렇기 때문에 Data Conversion 이해 할 수 있게 되면 디지털 오디오의 변환 과정을 보다 쉽게 이해 할 수 있을 것이다.

디지털 오디오가 핵심이 Data Conversion에 있다고 이야기 할 수 도 있겠지만, Data Conversion을 통해 아날로그 오디오를 얼마나 충실하게 보존할 수 있는지 알 수 있다.

아날로그 시그널의 경우 계속 무한의 숫자에서 변환하고 있지만 컴퓨터의 경우 2개의 수밖에 가질 수 없다.

이로 인해 시그널은 바이너리 디지털 워드로 컨버팅 되어 컴퓨터가 인식할 수 있게 하고 있다.

디지털 워드의 경우 정확한 숫자로 시그널의 밸류를 표현하게 된다.

워드들이 생성되면 컴퓨터 안에서 저장과 전송, 처리들의 과정을 거치게 된다.

 

바이너리 넘버 (Binary Numbers)

디지털에 대해 언급하게 되면 컴퓨터를 빼놓고 말 할 수 없다.

컴퓨터 들의 중앙 처리 방식은 정말로 간단하다.

컴퓨터들은 예/아니요, /오프, 오픈/클로즈드, 있다/없다 등과 같은 기초적인 말들과 커뮤니케이션 하고 있다.

모두가 두 가지인 1 0으로 인식하게 되고 이것을 바이너리(Binary) 표현법 이라고 할 수 있다.

바이너리는 라틴어의 BINI에서 파생된 단어로 수학에서 2진법으로 운영되고 있다.

2진법은 우리가 잘 알다시피 10진법(Deciaml-라틴어의 Decima)에서 파생된 것으로 10진법의 경우 0-9까지 숫자로 구성할 수 있다.

바이너리 체계에서 0 1만으로 사용하고 있는데, 0 NO, 꺼짐, 클로즈드, 없음을 표현할 수 있는 의미인 반면 1의 경우 Yes, 켜짐, 오픈, 있음 등의 의미로 사용되고 있다.

전기회로에서 회로가 오픈 되어 있는지 아닌지를 결정하는 것은 어렵지 않다.

따라서 바이너리 넘버 시스템은 컴퓨터 분야에서 지금도 변하지 않고 사용되고 있다.

컴퓨터가 소형화에 고성능화 되고 있으면서 메모리의 사이즈 면에서도 방대해져 가고 있다.

한가지 문제는 바이너리로 표현하는 글자의길이 수가 데미컬 표현법 보다 훨씬 길다는 것이다.

예를 들어 바이너리로 6자리는 데미컬로 단 2자리로 표현하고 있다.

바이너리의 영역 안에서 디지트(Digit) 즉 열손가락을 사용하는 숫자 체계는 혼란을 불러 일으킬 수 있다.

그래서 벨 연구소의 존 터키(John Turky)는 이러한 혼동스런 체제를 정리하기 위해 기본 유닛 체계에 대해 바이너리 유닛이나 바이너릴 디지트(Binary Digit)라고 명명하고 줄여서 비트(Bit)라고 부르기로 하였다.

그래서 이 비트는 온/오프 같은 두 가지 상황(State)을 표현하기 위한 가장 간단한 메시지라고 볼 수 있다.

 

Harry & Claude 이론

프랑스 수학자인 Fourier 18세기 후반에 A/D Conversion에 대한 기본 바탕이 되는 발표를 내 놓았다. 모든 데이터 Conversion 기술 등은 샘플링이라는 부분에 의존하고 있으며, 입력 시그널은 정형화된 간격에서 Digital 워드를 생산하여 아날로그 시그널을 가장 근접하게 기록하도록 되어있다. 이러한 연구는 Nyquist에 근간하고 있다.

Harry Nyquist 20세기 후반의 벨 연구소에서 근무하고 있었으며, 지금의 샘플링 된 Data 체계라고 알고 있는 영역에 대한 중요한 논문을 발표하였다.

Nyquist의 샘플링에 대한 논의의 핵심은 어느 한Rate 샘플링을 할 때는 실제 시그널보다 적어도 두 배 이상으로 적용 하여 Sampling하면, 시그널을 재구성할 때에 데이터가 손실되지 않는다는 것이다.

그리고 이후에 Fourier는 이런 대안적인 시그널의 구성이 사인과 코사인 웨이브에 대한 합과 일치한다는 것을 증명하고 Nyquist의 가이드에 따르면 정보의 손실 없이 샘플링 된다는 것이 중요한 내용이다.

이것이 Nyquist의 주파수라고 명명하고 있으며, 정확하게 샘플링 된 가장 높은 주파수는 샘플링 주파수의 절반이라고 말하고 있다.

예를 들어 CD의 경우 22.05k Hz라고 할 때에 샘플링 주파수 44.1 k Hz가 되는 것이다.

Nyquist이 파워 풀 한 만큼 어두운 부분도 있게 마련이다. 그 중에서도 가장 큰 부분이 주파수의 Aliasing현상이다. Nyquist 기준에 따르면 정보손실에 대한 부분에 대한 것을 보장하지만 정보를 더 얻는 것에 대한 보장도 없다.

정확한 시간 간격에서 얻어지는 아날로그 신호의 샘플링은 샘플링 펄스에 의한 입력 신호들의 구성밖에 되지 않는 다는 것이다.

이러한 체계는 본래의 시그널과 구성되는 잘못된(false) 시그널을 생산할 수 있다는 것을 보여주고 있다.

다른 말로 말하면, 주어진 샘플링 구성이 하나의 독특한 시그널과   연관 지을 수 없다는 것을 보여준다.

2번의 그림에서 보여주듯이 같은 샘플들의 구성에서도 하나의 샘플링 된 결과가 다른 세 개의 샘플링 결과들과 다를 수 있다는 것을 보여주고 있다.

결과적으로 같은 샘플링 주파수와 샘플링 된 결과물 사이에는 다른 주파수들의 정보가 모아질 가능성들이 있다고 할 수 있다.

이러한 잘못된 Wave From들의 현상을 “Aliases”라고 명명하고 있으며, 이러한 주파수들은 화이트 Noise 전기적인 시스템의 초음파 시그널에서 나타나고 있다.

이후에 이러한 Aliasing 주파수의 문제를 해결하기 위해서 좀 더 발전된 오디오 Conversion 시스템이 도입이 필요하였으며, Shannon이 이러한 문제를 해결하기 위해 새로운 것을 제공하였다.

벨 연구소의 젊은 엔지니어였던 Shannon Nyquist의 연구를 가까이에서 볼 수 있었고 이러한 연구에 몇 가지를 간단하게 추가하였다.

그는 입력 시그널의 Bandwidth를 반절 이하로 제한하면 Aliasing으로 생기는 에러를 방지할 수 있다는 것을 발견하였다.

이러한 입력에 대한 밴드 limiting이 샘플링 주파수의 절반 이하로 setup되게 되면 Aliasing을 막을 수 있다고 설명하고 있다.

그러나 이러한 주장을 실현하기에는 불가능 하다.

이러한 Shannon의 가설을 충족하기 위해서는 무한대-슬로프 형태를 가진 블럭-윌 리미터(block-wall) 같은 장비를 보유하고 있어야 한다.

그러나 이세상에서 이러한 필터를 보유하고 있는 곳은 없다.

여러분도 Nyquist 주파수보다 더 큰 시그널이 절대로 없다고 보장 할 수 없을 것이다. 다행히도 이러한 문제를 다루고 있는 한 방법이 있다.

 

오버샘플링(Over Sampling)

여러분이 이러한 입력 Bandwidth를 제한하게 되면 Aliasing은 더 이상 일어나지 않는다.

이 문제의 이유를 생각해보면, 샘플링 주파수를 증가 시켜 제품에서 Aliasing현상이 일어나도록 해보면, 초음파에서 단일 축 필터를 사용하면 이러한 쉽게 이해 할 수 있을 것이다.

여기에서 오버 샘플링이라는 개념을 이해하게 될 것이다.

오디오 풀 스펙트럼에서 최소의 샘플링 주파수는 40kHz가 되야 한다. 일반적으로 음향적인 가청주파수의 한계를 20kHz라고 보고 있으며 인간이 들을 수 있는 가청범위라고 할 수 있다.

오버 샘플링은 샘플링 주파수의 대역을 40kHz이상으로 설정하는 이유가 여기에 있다.

최근 오디오 시장에서는 CD의 스탠더드 샘플링 주파수인 44.1kHz와 프로오디오의 준-스탠더드의 경우인 48kHz에서 8배와 16배가 되는 오버 샘플링 주파수가 되는 350kHz 700kHz로 이동 하는 것은 샘플링 주파수가 높으면 더 이상 문제가 되지 안 된다.

 

Quantization

Quantizing은 현재 샘플에서 가장 근소한 밸류를 결정하는 과정이라고 할 수 있다. 예를 들어 사용자가 샘플의 양자를 결정함에 있어서 두 밸류 사이에서 결정하는 것이어서 에러를 만들 수 있는 가능성이 존재한다.

에러의 얼마나 큰지 혹은 오리지널에 얼마나 충실한지에 대해서는 비트의 수에 관계되어 있다.

비트 수가 많을 수록, 오리지널에 충실해 진다. 컨버터의 경우 2 N승 파트로 나누어진 절대 전압을 가지고 있다. 여기에서 n은 비트의 넘버이고, 각 파트는 같은 밸 류 값을 가지고 있다.

이러한 밸 류보다 더 작게 나눌 수 없기 때문에 에러가 발생한다.

conversion의 과정에는 늘 에러가 존재한다. 이것이 정확성의 문제이다.

 비트의 수는 컨버터의 정확성을 결정한다. 8비트의 경우, 2 8승이 256이기 때문에 그림3과 같이 256만큼의 레벨로 converting이 가능하다.

시그널이 positive극성과 negative극성에서 돌아다니기 때문에 여기에는 각 방향 마다 128의 레벨이 존재하게 된다.

 +_5V 레퍼런스가 존재하거나 비트가 39mV와 같다고 가정해 볼 때, 8비트 시스템에서는 39mV보다 더 작은 단위를 분해할 수 없게 된다. 이것은 최악의 경우에 0.78%의 정확도 에러를 발생 시킬 수 있다고 보고 있다.

아래 표에서 비교할 수 있듯이 16비트에서 20비트와 24 비트로 이동하면서 에러가 줄어드는 것을 볼 수 있을 것이다.

 

연속하는 근사치 (Successive Approximation)

A/D 회로의 중심은 측정기(Comparator)에 있다.

측정기는 전자회로의 블럭이며 두 가지 인력에 대한 밸류를 비교하는 임무를 수행하고 있다.

만약에 파지티브 입력이 네거티브 입력 크다고 가정하면 출력은 파지티브에서 맴돌게 된다.

반대로 네거티브 입력이 상대적으로 크다고 할 때에는 네거티브에서 출력이 맴돌게 된다.

따라서 기준이 되는 전압을 기준으로 입력 시그널을 측정하도록 하게 되었다.

이 회로의 특성은 입력 시그널이 기준이 되는 전압의 기준을 넘어설 때 높은 출력을 만들게 되고 반대로 넘어서지 않을 때 낮은 출력을 만든다는 것이다.

여기에서 높은 출력을 ‘1’이라고 가정하고 낮은 출력을 ‘2’라고 가정하자.

데이터 컨버젼이 어떻게 이루어지고 있는지에 대한 합이 연속된 근사치에 대한 설명이 될 수 있다.

이 회로는 각 샘플의 밸류값을 매기고 바이너리 밸류에 가장 가까운 디지털 워드를 생산해낸다.

이런 과정은 비트들에서 표현할 수 있을 만큼의 많은 고정을 만들게 된다.

예를 들어 16비트의 경우 각 샘플에 대해서 16스텝이 필요하게 된다.

아날로그 샘플은 연속된 근사치로서 디지털 코드를 결정하는 요소가 되며, 코드들에서 가장 중요한 비트들을 결정하는 첫 단계라고 할 수 있다.

이러한 아날로그 신호를 측정하는 단계를 Daniel Sheingold는 좋은 비유를 들어 설명하고 있다.

Daniel Sheingold은 이러한 Successive Approximation를 고대에 저울추로 황금의 중량을 재는 방법과 비슷하다고 표현하고 있다.

이것을 우리 시대의 언어로 표현하게 되면, 미지의 시그널이 회로 안에 들어오게 된다.

0’은 무게가 넘지 않는 것은 제거하는 과정에 해당하고, 1’은 각 중량이 초과하여 남아있는 현상으로 표현할 수 있다.

여기서 측정회로는 황금의 중량을 재는 저울추와 같다고 할 수 있다.

특히 여기에서 주목할 것은 비트의 수는 저울을 측량할 수 있는 기준들의 수와 비슷하다고 할 수 있으며, 디지털 워드의 경우 미 무게를 재는 미지의 대상 같다고 할 수 있다.

 황금의 무게를 재는 과정은 다음과 같다.

먼저 가장 무거운 기준을 무게 추에 측정한다.

여기에서 저울 추가 움직이지 않는다면, 다음으로 가벼운 기준으로 황금의 무게를 잰다.

이러한 과정에서 저울 추가 움직이는 단계까지 차례로 기준들을 사용하여 황금의 무게를 재는 것이다.

회로로 돌아와서 생각해 보면, 앞의 황금 저울추의 예에서 ‘0’이 기울어지지 않는다와 ‘1’이 무게의 추가 기울어졌다라고 생각해 볼 수 있다.

알지 못하는 샘플에 대해 디지털 워드로 밸류로 전환하는 과정도 이와 동일하다.

초기 단계의 회로들은 각 샘플에 대해 저울추에서 하던 작업을 반복해야 했으며, 이러한 과정은 지금도 적용되고 있다.

 

PCM/PWM

앞에서 논의한 입력 시그널에 대한 측정회로의 예가 지금 논의 할 펄스 코드 모듈레이션(PCM)의 좋은 예가 될 수 있다.

PCM은 세 가지의 요소가 필요하다.

: 샘플링, 퀀타이징, 그리고 고정 된 길이의 디지털 워드로 엔코딩하는 작업등이다.

PCM 시스템은 연속된 디지털 워드의 형태이며, 적용되는 비트의 수로 그 크기가 결정된다.

펄스 위쓰 모듈레이션(PWM)은 간단하면서도 PCM과는 다른 방법을 사용하고 있다.

아날로그 입력이 아래 그림을 보면 삼각파로 샘플링 주파수의 비율과 반복 주기되는 기준전압에 적용되는 것을 볼 수 있다.

이러한 과정을 아날로그 모듈레이션이라고 할 수 있다.

모듈레이션을 가장 쉽게 이해하기 위해서는 제로 볼트에서의 입력과 기준 전압에 적용되는 것을 보면 이해할 수 있다. 앞에서 말한 ‘0’과 ‘1’로 밸류를 정하는 측정회로(Comparator)를 통하여, 회로 이전의 삼각파가 사각파(Square)로 전환되는 것을 볼 수 있다.

입력이 제로 볼트인 경우 이러한 삼각파는 정현화된 사각파로 전환이 되고, 입력 시그널이 있는 경우 회로를 거쳐 변형된 사각파가 생성되게 된다.

 

 디더링

오버샘플링처럼 원치 않는 노이즈를 제거하는 과정이 있는 반면에 오리지널 시그널에 꼭 노이즈를 넣어야 하는 과정도 존재한다. 바로 디더링 노이즈를 말하고 있다.

디더란 12세기의 떨다(Tremble)라는 영어에서 파생된 말이다. 현재에는 혼동된 상황이나 결정되지 않은 행동 등에 대한 의미를 가지고 있다. 그러나 현재의 의미가 어떤 듯이던지 디어 노이즈가 미움의 대상이 되는 노이즈는 아니라는 것은 분명하다.

디더는 노이즈와 레졸루션 사이를 교환하는 임무를 수행하고 있다.

디더는 각 비트의 해상도 나오는 두 개의 레벨 중에 하나를 선택하는 데이터 컨버팅 문제를 해결하고 있다.

일반적으로 Quantization과정에서 컨버팅 된 두 개 의 근사치 두 레벨을 모두 선택할 수 는 없으며, 둘 중에서 하나를 선택해야 하는 과정에서 문제가 발생한다.

이러한 문제를 해결하기 위해서 더 훌륭한 해상력을 얻기 위해서 더 많은 비트를 추가하는 것이 가장 직접적인 방법이 될 수 있지만, 이러한 시스템을 구축하기 위해서는 비용면에서 많은 부담을 감소해야만 했다.

그러므로 노이즈를 추가하여 비슷한 효과를 얻기 위해서 개발 된 것이 디더링이라고 할 수 있다.

디더링이란 컨버팅 이전의 과정에서 로우 레벨의 시그널을 추가하는 과정을 말한다.

이렇게 믹스 된 웨이브 폼은 가파른 계단 모양의 형태를 취하고 있다.

웨이폼을 분석한 스펙트럼을 보게 되면 대부분이 디스토션이 있다는 것을 알 수 있다.

디더링은 와이드 밴드 노이즈로 디스토션 부분을 대체하면서 이러한 디스토션들을 청각 밖의 영역들로 밀어내는 역활을 수행하고 있다.

  

디지털 오디오의 전송

디지털의 전송은 아날로그 장비들 간의 전송과 유사한 방식으로 전송되고 있습니다.

다른 부분이 있다면 시그널이 디지털이란 부분이다.

스테레오 디지털 시그널을 전송하기 위한 가장 많이 사용되는 프로토콜은 AES/EBU(AES3)S/PDIF(IEC 958 type II) 라고 할 수 있다.

AES/EBU는 밸런스드 출력으로 3-10V의 높은 전압을 사용하는 데이터 스트림으로 오디오와 특별한 형태의 서브코드 데이터들을 담아내고 있다.

S/PDIF는 소니와 필립스의 디지털 인터페이스 포맷의 약자로 언밸런스드 출력과 0.5V의 낮은 볼티지로 오디오와 데이터를 출력하고 있다.

AES/EBU XLR 커넥터를 사용하고 프로용 오디오 포맷으로 이용되고 있으며, S/PDIF의 경우는 RCA 커넥터를 사용하고 컨슈머 오디오 포맷으로 이용되고 있다.

이러한 시스템을 셀프-클러킹(Self-Clocking) 제품이라고 부르고 있다.

이러한 전송 프로토콜의 경우 샘플 클럭과 오디오, 그리고 서브코드들을 한꺼번에 함께 전송하기 때문에다.

이러한 이유로 이런 프로토콜은 시스템 성능에서부터, 지터의 문제, 그리고 클럭의 정확성까지 세심하게 살펴봐야 한다. 또한 D/A 컨버터의 혼란을 방지 하기 위해 상황에 맞는 임피던스를 고려한 케이블링이 필요하다.

그 밖에도 S/PDIF AES/EBU 같은 프로토콜은 연결의 마감이 확실해야 한다.

입력의 임피던스 또한 시스템의 임피던스와 일치해야 한다.

S/PDIF의 경우 75 ohm, AES/EBU의 경우, 110 ohm가 최적의 임피던스이다.

스테레오 타입의 디지털 인터페이스 포맷 외에도, 멀티채널로 구성된 다양한 포맷들이 있다.

ADAT의 경우 8 채널로 구성된 전송 포맷이다.

ADAT Lightpipe 프로토콜은 디지털 오디오 간의 전송을 위해 개발 되었다.

ADAT의 경우 하나의 광케이블을 통해 8채널을 전송할 수 있으며, 입력과 출력이 독립적으로 전송되고 있다.

ADAT 또한 셀프-클러킹 방식을 사용하고 있으며 최대 24비트 워드를 전송할 수 있다.

Tascam의 경우 자사만의 멀티채널 프로토콜인 TDIF(Tascam Digital InterFace)를 개발하고 DA-88과 함께 발표하였다.

이 프로토콜은 양방향성 전송특성을 가지고 있으며, 8채널을 전송하고, 양방향을 한 케이블을 통해 클럭을 전송하는 방식을 사용하고 있다.

멀티채널 프로토콜인 MADI(AES 10)는 최대 56 채널을 지원하고 있으며 동축케이블을 통해서는 최대 50미터, 그리고 광케이블을 통해서는 최대 2Km를 지원하고 있다.

MADI의 최대 샘플레이트가 48kHz이나 더 높은 샘플레이트를 원할 경우 채널을 공유하는 방식을 통해 업레이트가 가능하다.

이 밖에도 Yamaha에서는 멀티채널 프로토콜로서 mLan을 개발하였다.

mLan IEEE-1394 채택하고 오디오와 미디 데이터 등을 전송 할 수 있게 하였다.

Firewire 케이블 통해 최대 100개의 오디오 채널을 전송할 수 있다.

 

Jitter

Jitter를 잘 이해하기 위해서는 열차 플랫폼에 도착하는 열차를 생각하면 이해가 빠를 수도 있다.

열차가 매시간마다 풀랫폼에 도착하는 열차 역이 있다고 가정한다면, 매시간마다 도착하는 열차가 제때에 도착하지 않고 미뤄지거나 도착하게 되는 현상을 우리는 Jitter현상이라고 설명할 수 있다.

같은 시나리오가 디지털 오디오 시스템에서도 적용되고 있다.

앞에서는 시와 분의 간격을 예로 들었지만 실제적으로 Jitter에서 사용되는 시간의 간격은 몇 피코 세컨드에 해당한다.

정확한 웨이브폼이 구축되기 위해서는 D/A 컨버터가 정확한 간격에 클럭 시그널을 기준으로 동작해야 한다.

그러나 아쉽게도 이러한 완벽한 디지털 디지털 클럭은 존재하지 않는다.

어느 클럭도 조금의 변수가 있기 마련이다.

Jitter는 디스토션과 노이즈 레벨 플로어의 상승을 일으킨다.

때문에 이러한 Jitter의 문제는 오디오 네트워크의 품질을 결정하는 중요한 요소가 되기도 한다.

Jitter로 인해 시스템 안에서 아날로그 출력과 디지털 도메인(클럭)사이에서의 차이가 발생하여 심한 경우 싱크가 떨어지는 현상을 일으키기도 한다.

 D/A, A/D 컨버터는 레퍼런스 클럭을 기준으로 구동되고 있기 때문에, 디지터 클럭과 동일하게 변형되지 않으면 웨이폼의 재생에 오류가 일어난다.

이러한 현상은 하이 프리퀀시에서 더욱 잘 파악할 수 있다.

 

 Wander

Wander는 기기와 기기 간에서 발생하는 Jitter들이 쌓이면서 발생하는 저역 Jitter들을 이야기 한다. 이 논의는 앞에서 비유를 든 기차가 열차 플랫폼에 조금씩 늦게 도착하다가 저녁 8시쯤에 갑자기 45정도 열차가 늦게 도착한 현상과 같이 볼 수 있다.

Wnader는 데이시-체인 형식으로 장비가 클럭으로 연동 되었을 때에 발생할 수 있다. Jitter가 각 장비들에서 랜덤하게 일어난다고 하였을 때 마스터 클럭을 받는 말단의 장비들은 많은 Jitter가 발생하게 된다. 이러한 현상을 방지할 수 있는 것이 데이시-체인의 구성을 피하는 것이지만 이러한 대안적인 시스템을 구성하려면 재정과 시간적인 제한들과 마주하게 될 것이다. 이러한 Wander 또한 계속 쌓일 수 있는데, 심각해지면 네트워크 클럭에서 떨어질 수 있다.

  

What is Networked Audio? (네트워크 오디오)

 

1. 네트워크 오디오의 의미

네트워크의 의미는 원거리에 떨어져 있는 시스템을 통신 회선으로 그물처럼 연결한 것을 의미한다.

일반적으로 컴퓨터 네트워크라고 할 경우 여러 대의 원거리의 컴퓨터와 데이터베이스 등을 공유 하는 것을 말하며, 오디오 네트워크의 경우 여러 오디오 장비들을 통신망으로 연결한 것으로 간단하게 설명할 수 있다.

디지털 데이터 전송 기술에 힘입어서 싱글 케이블 하나로 몇 천의 단위에서 몇 백만 비트의 데이터를 전송할 수 있게 되었다.

최근에는 한 가닥의 광케이블로 기가 비트까지 전송할 수 있는 수준이다.

거리면 에서도 광케이블에 따라 몇 킬로 미터까지 전송이 가능하도록 지원하고 있다.

이러한 기술을 바탕으로 오디오 부분에서는 무거운 아날로그 케이블을 대체하고, 원거리 전체 방송을 할 수 있게 되었다.

더욱더 중요한 것은 오디오 네트워킹에서 오디오 입출력을 수정하기 위해서 더 이상 수 백 개의 오디오 케이블을 다시 뜯어 고칠 필요가 없게 되었다는 것이다.

실제적으로 연결을 하기 위해서 단순히 운영 소프트웨어에서 수정하면 해결될 수 있게 되었다.

네트워크 오디오 시스템은 디지털이기 때문에 디지털 도메인 안에서 연결이 되어 있다.

다시 말해 네트워킹 된 오디오는 케이블의 전자기적인 간섭 등에서 자유롭다는 장점과 함께 외부 DSP 장비들을 사용하여 IP 카메라나 비디오 같은 외부기기의 제어도 지원할 수 있다는 외적인 부분들도 주목할 만하다.

 

2. 네트워크 오디오의 장점

장점1: 케이블의 무게와 유연성

현재 아날로그 오디오 시스템은 구리선을 사용하고 있다.

만약, 많은 채널과 많은 전송거리가 필요한 상황에 부딪히게 되면 케이블의 무게가 0.1톤 넘는 것은 쉬운 일이 될 것이다.

AES/EBU 같은 디지털 케이블링이 기존의 아날로그 라인과 교체되고 있으며, 케이블 무게를 줄이고 오디오 퀄리티를 강화시키고 있다. 전자기 간섭과 케이블 커패시터 문제는 더 이상 디지털에서는 문제가 되지 않고 있다.

시리얼 포맷인 MADI와 네트워크 프로토콜인 CobraNet, EtherSound™ 그리고 OPTOCORE?? 들은 최근 들어 라이브 시장과 스튜디오에서 주목 받기 시작했으며, 가벼운 UTP(Unshielded Twisted Pair)케이블이나 광케이블로 교체되고 있다. 이러한 케이블의 경우 디지털 구리 케이블이나 아날로그 케이블 보다 가격에서 우위를 점하고 있다.

아날로그 멀티코어 케이블도 마찬가지이다. 멀티코어 케이블의 경우 무겁고 보관하기에 용이하지 않으며 유연성이 덜어진다는 단점이 있다. 반면에 UTP 케이블이나 광케이블의 경우 가볍고 인스톨 부분에서도 용이하며, 공간의 경우도 매우 작은 공간을 차지한다는 부분도 큰 장점으로 볼 수 있다.

 

장점2: 물리적인 그리고 기능적은 분리

코브라넷과 같은 네트워킹 프로토콜의 경우 기능적인 부분의 연결은 물리적으로 케이블링이 독자적으로 분리되어 있다. 이 것의 의미는 한번 충분한 양의 Bandwidth를 보유한 케이블인 인스톨 된 다음에는 케이블의 추가가 없이도 연결이 가능하다라는 것을 보여준다. 예를 들어 라이브 현장의 어디에서나 입출력 장비를 연결하기 위해 별 다른 생각 없이 연결하고 파워를 연결하면 간단하게 설치가 끝날 수 있어 시간을 절약할 수 있다는 것을 의미한다.

 

장점3: 컨트롤

네트워크 정보 기술 사용이 오디오 디스트리뷰트 기술에 대한 여러 이득을 가져왔다. 그 중에서 주목해야 할 부분이 시그널 제어 부분이다. 시그널 제어 부분은 같은 UPT나 광케이블을 통해 전달 되고 있다. 시그널을 제어하기 위해서 더 이상 GPI RS232 같은 케이블의 연결이 불필요해졌다. 예를 들어 IP 비디오 연결을 위해서는 RS422 같은 케이블의 연결이 필요했다. 그러나 최근에는 단순히 소프트웨어를 통한 프로그래밍 만으로도 이러한 제어가 가능해졌다.

 

3. 네트워크에서 반드시 고려해야 할 요소

 

1. 레이턴시 (Latency)

이더넷 네트워크의 블록들은 일반적으로 케이블과 스위치들로 구성되어 있다.

네트워크 상에서 데이터를 전송하기 위해 스위치는 데이터를 받아야 하고, 비트의 어드레싱을 연구하고 정보를 목적지까지 송출해야 한다.

이러한 과정은 짧은 처리 시간이 필요하게 되는데, 일반적으로 100Mb에서 120 마이크로 세컨 정도가 걸리게 된다.

그러나 네크워크의 규모가 커지게 되면 스위치의 수도 늘어나고 시그널 또한 네크워크를 경유하는 시간도 늘어나게 된다. 따라서 모든 스위치에서 딜레이 타임의 증가를 불러일으킨다.

일반적으로 중간 규모의 라이브 오디오 네트워크에서, AD/DA 컨버터와 각 DSP들이 전체 레이턴시의 1/3을 차지하고 있다.

전체 시스템의 레이턴시는 최상의 사운드를 만드는 데 중요함으로 주의 깊게 모니터를 해야 한다.

-이어 모니터 어플리케이션의 경우 가장 수요가 많고 레이턴시를 무시할 수 있는 솔루션이기도 한다. 1 밀리세컨과 5 밀리세컨 사이에서 아티스트들이 불편하게 느낄 수 있는 컴필터현상이 일어날 수 있다.

5밀리세컨이 넘게 되면 레이턴시는 리버브로 지각하게 되고 이 이상 늘어나게 되면 에코나 슬랩 같은 현상이 일어날 수 있다.

PA FOH나 모니터 시스템에서는 상대적으로 문제가 작게 느껴질 수 있다.

1 밀리세컨의 레이턴시가 발생하면 모니터가 마치 30 센티미터 정도 뒤로 밀려난 것 같은 느낌과 같은 것이 때문이다.

 

2. 리던던시 (Redundancy)

아날로그 시스템에서 오디오 시그널은 개별의 라인을 타고 전송되고 있다.

만약 하나의 라인이 연결에서 떨어지게 되는 상황이 오면 많은 경우에 스페어 케이블이나 같은 멀리 라인에서 다른 채널을 사용하여 문제를 쉽게 해결할 수 있다.

그러나 네트워크에서는 장거리 싱글 라인의 연결이 떨어지는 경우, 이러한 문제를 해결하기가 어려운 상황이 많다. 때문에 이러한 시스템의 연결을 떨어질 것을 염두하고 시스템을 백업할 수 있는 추가적인 시스템이 필요하다. 네트워크 시스템에서는 반드시 여분의 연결할 수 있는 케이블도 함께 시공되어야 하며 이를 자동으로 절체 할 수 있는 시스템도 구축되어야 한다.

예전에 은행과 같은 IT 기술이 집약되어 있는 산업의 경우 Redundancy를 구축하는 예들이 많았다.

핵폭발이나 응급 상황이 발생할 경우 이러한 시스템을 백업할 수 있도록 설계된 경우가 많았다.

장거리인 경우 반드시 케이블을 항상 두 배로 시공하여 하나의 케이블이 끊어진 경우에도 다른 케이블을 바로 사용할 수 있도록 되어있다.

특별히 라이브 투어의 경우 이러한 Redundancy의 구축이 절실히 필요하다.

일반적으로 IT 장비들은 장비의 열을 식혀주기 위한 에어컨이 설치된 작업실을 위해 디자인이 되었기 때문에 라이브 투어처럼 환경이 좋지 않은 곳에서는 불상사가 발생할 수 있는 여지가 있기 때문이다.

 

3. 복잡성

아날로그 시스템에서는 오디오의 연결이나 오디오의 흐름이 물리적으로 눈에 보이는 경우가 대부분이기 때문에 쉽게 시그널의 흐름을 파악할 수 있다.

그러나 네트워크에서는 물리적인 연결과는 별도로 내부에서는 전혀 다른 프로세싱이 진해될 수 있다. 네트워크 시스템에서 물리적인 실수가 될 수 있는 것은 단지 몇 가닥의 광케이블이나 UTP케이블이 전부이기 때문이다.

아날로그 시스템에서는 숙련되지 않은 엔지니어도 장비를 익혀가면서 운영할 수 있다면, 네트워크 시스템에서는 숙련된 엔지니어가 네트워크를 운영해야 되는 경우가 필요하다.

이러한 변화는 시스템 인티그레이터(Integrator)와 시스템 소유주, 운영자 모두가 구입에서 부터, 설계, 시공, 유지보수에 이르기까지 함께 참여해야 한다는 새로운 역활을 불러일으키게 된다.

 

4. 네트워크 토폴로지 (Network Topology)

네트워크 구성이라고 할 수 있으며, 아래 네 개의 토폴로지 중에서 하나를 선택하거나 토폴로지의 컴비네이션으로 구축해도 무방하다. 이런 네트워크를 구축하기 위해서는 로케이션의 수와 채널 수 그리고 허용 가능한 레이턴시 수준, 원하는 시스템 가격, 신뢰성과 확장성등을 비롯하여 스탠다드 이더넷 기술 기반인지 제조자 특유의 기술을 기반으로 하는지에 대한 여부를 따져 보아야 한다.

P2P (Point To Point) 토폴로지

P2P는 엄밀히 말해서 네트워크라고 할 수 없다.

P2P2개의 로케이션을 가지고 있으며, 고정된 멀티채널의 커넉션을 가지고 있다.

 P2P의 좋은 예가 AES/EBU MADI 그리고 AVIOM A-Net??등 이다.

일반적으로 P2P의 경우 매트릭스 라우터나 스플리터로 사용되는 경우가 많으며, 많은 시스템에서 흔히 볼 수 있는 구성이라고 볼 수 있다.

최근에 기존의 TCP/IP 기반이 인터페이스를 사용해 오디오를 네트워를 구성할 수 있는 Audinate DANTE 기술이 출시되었으며 DANTE 또한 이러한 P2P 토폴로지 유니캐스트 프로토콜에 포함될 수 있다.

 

데이시 체인(Daisy Chain) 토폴로지

데이시 체인은 간단한 토폴로지로서 장비들을 직렬로 연결한 구성이라고 할 수 있다.

이러사운드 프로토콜은 양방향성에서 멀티채널의 오디오 데이터 스트림을 읽고 쓰는 경우를 말한다. 이러한 토폴로지의 장점은 네트워크의 정보가 빠르게 전송될 수 있다는 장점을 자기고 있다는 것이다.

데이시 체인 방식이 이더사운드로 구성될 경우 1.4 마이크로세컨 정도의 레이턴시를 가진다.

 데이시 체인의 단점은 체인 안에서 디바이스가 떨어지는 경우 다른 장비에도 연쇄적으로 영향을 미친다는 것이다. 만약 하나의 디바이스가 덜어지는 경우 두 장비 사이의 연결이 없게 되면 두개의 파트로 분리되게 된다.

EtherSound™ 의 기술은 Allen & Heath, Archean, Audio Preformance, Auvitran, Bitner Audio, Bouyer, Camco, DiGiCo, Digigram, InnovaSon, Martin Audio, Fostex/Netcira, Klein & Hummel, Nexo, Peavy/Crest Audio, Richmond Sound Design, TESI, VTG Audio,

Whirlwind, Yamaha등의 제조사들이 채택하여 사용하고 있다.

 

(Ring) 토폴로지

링 토폴로지의 경우 데이시 체인에서 마지막 디바이스와 처음의 디바이스가 연결되어 있는 구성이다.

모든 디바이스는 순환되는 링 안에서 양방향으로 데이터가 지나가게 되어있다.

이러한 경우에 리던던시가 생겨나게 된다. 만약 하나의 디바이스가 떨어지게 되어도 그 디바이스를 제외한 다른 장비는 활성화 되어 있다.

OPTOCORE??의 경우 링 토폴로지에 대한 특별한 기능을 제공하고 있다.

OPTOCORE??의 경우 최대 500채널의 오디오와 시리얼 밴드위쓰를 가지고 있다.

EtherSoundES-100의 경우 Redunancy 링 토폴로지를 제공하며 64오디오 채널을 지원한다.

스타 토폴로지

스타 토폴로지의 경우 가장 네트워크의 Bandwidth를 효율적으로 사용하는 구성이기 때문에 대부분의 데이터 네트워크의 경우 스타 토폴로지로 구성되어 있다.

스타 토폴로지의 중앙은 가장 높은 트래픽을 전송하기 때문에 추가적인 프로세싱 파워와 Redundancy가 필요하다. 반면에 스타 네트워크의 말단의 디바이스 부분에는 낮은 프로세싱 파워로 가진 스위칭 허브나 디바이스로 구성해도 된다.

스타토폴로지는 ‘Tree’ 나 ‘Star of star’로 불리기도 하며, 네트워크를 확장성이 쉽다는 장점이 있다.

하드웨어 부분에서는 새로운 로케이션이 발생하면 단순하게 중앙과 연결하면 된다.

스타 네트워크의 중앙 부분은 네트워크의 데이터가 흘러가는 중심이기 대문에 중요한 역활을 하게 되는데, 만약 이러한 중앙의 스위치나 DSP가 무너지는 경우 전체에 큰 영향을 초래할 수 있다.

이러한 문제를 해결하기 위해서 이더넷 스패닝 트리 프로토콜을 사용한 Redundancy를 구축할 필요가 있다.

코브라넷의 경우 스타 토폴로지를 사용하고 있으며, 네트워크 상에서 더블 링크를 적용하여 Full-Redundancy를 지원하고 있다.

 스타 토폴로지는 AVIOM A-NET, Alcorn-McBride, Ashly, BSS, CAMCO, Creative, Crest, Crown, DBX, Digigram, EAW, EV, JBL, Peavy, QSC, Rane, Renkus Heinz, Symetrix, Whirlwind, Yamaha등에서 채택하고 있으며 CobraNet™ 를 채택하고 있다.


 

'전자기기그룹 > 정보통신' 카테고리의 다른 글

전화벨 발생회로  (0) 2010.09.23
Ring generator  (0) 2010.09.23
TCP /IP Protocol 05  (0) 2010.09.06
TCP /IP Protocol 04  (0) 2010.09.06
TCP/IP Protocol 03  (0) 2010.09.06