51
SSM STAGE SOUND MAGAZINE VOL.08
이번 공연을 준비하면서 어려웠던
점 또는 에피소드가 있으면 말씀해주
세요.
가장 아쉬웠던 부분은 일정이었던 것
같습니다. 이머시브를 사용하지 않는
기존 공연에 맞춰 대관 일정이 잡혀 있
었기 때문에 사실 이머시브를 적용하기
에는 시간이 너무 빠듯했죠. 다행히 이
천문화재단 측에서도 많은 협조를 해주
셨고 진행이 가능하다는 판단이 설 만
큼의 일정을 확보해주셔서 어려운 상황
임에도 불구하고 해보기로 했었죠. 사
전에 충분한 시뮬레이션과 프리 믹스를
통해 많은 준비를 했지만 공간 특성에
맞게 디테일을 잡아가기에는 아무래도
시간이 부족했습니다. 장면마다 가상의
세트 이미지를 설정하고 객석에서 느껴
지는 배우들의 동선을 가상의 세트에
맞춰 간다든지 하는 특성화 작업 정도
는 진행할 수 있었지만, 그 안에서 디테
일을 만족스럽게까지 만들지는 못했던
것 같아 아쉬움이 남습니다.
이러한 어려운 여건 속에서도 좋은 결과를 얻을 수 있도록 많은 도움을 주신 분들
과 현장에서 마치 오랫동안 함께 작업해온 듯한 팀워크로 함께 고생해주신 분들이
계셔서 즐겁고 행복하게 작업했던 것 같습니다. 특별히 이번 공연을 위해 물심양면
지원을 아끼지 않아 주신 ㈜사운드솔루션 이홍 대표님, 송남용 이사님, 정형근님 외
모든 임직원분들과 자문으로 도움 주신 한국장애인문화예술원 이제형 감독님, 드림
스케이프 조현식 대표님, ATR. TECH 한창운 대표님, 그리고 이천문화재단 임직원분
들께 지면을 빌어 깊은 감사의 마음을 전합니다.
이머시브 사운드 시스템을 사용하고자 하는 음향인들에게 조언하고 싶으신 점
이 있으신가요?
이머시브 오디오 시스템의 구성과 운영은 음향 기술의 전반적인 이해가 수반되어
야 한다고 생각합니다. 많은 입출력을 처리하기 위해 디지털 오디오 네트워크를 필
수적으로 사용하므로 이에 대한 기본적인 이해가 필요합니다. 또한, 다양한 이머시
브 오디오 렌더링 알고리즘의 장단점을 이해하고 콘텐츠의 유형과 공간의 구조적 환
51
52
PERFORMANCE REVIEW
경 등을 고려하여 적절한 알고리즘을 선택 및 적용하
기 위해 렌더링 알고리즘에 대한 이해도 필수적입니
다. 각각의 렌더링 알고리즘을 단순한 도구가 아닌 디
자인적 요소로 이해하고 적용할 수 있어야 한다고 생
각합니다.
또한 이머시브 공연을 진행하기 위해서는 좋은 음
원의 확보가 필수적입니다. 좋은 음원이란 음질에 관
한 부분만이 아니라 음원이 가지는 공간감까지 포함
합니다. 한 장면에서 여러 음원이 사용될 때, 특정 음
원이 다른 음원과 많이 다른 공간감을 가진 경우 이
질적으로 들리게 됩니다. 공간감의 통일성을 가지고
자연스러운 디자인을 진행하기 위해서 이머시브 엔
진의 공간계로 전체 공간감을 설정해나가기 때문에
개인적으로는 드라이한 소스를 선호하는 편입니다.
공간감이 부족한 음원은 채울 수 있지만 불필요하게
많은 부분을 빼기는 어렵기 때문이죠. 여건이 되신다
면 음악감독님과 함께 원하는 음원을 제작하여 사용
하시는 방법을 적극적으로 권장해드립니다. 음원 확
보가 생각보다 너무 많이 힘들거든요. SOUND
STAGE
PERFORMANCE REVIEW - 이머시브 암전 뮤지컬 '귀를 기울이면'
김 태 협
드림스케이프 과장
전) (주)사운드솔루션 기술부
김 종 현
아르코・대학로예술극장 음향감독
(사)무대음향협회 사무팀장
협회 소식 - (사)무대음향협회 하반기 기술세미나
인간이 가지고 있는 감각은 상호작용하며 이런 현
상은 멀티미디어 기술과 융합되어 인터렉티브 미디
어아트의 예술 작품에 응용되기도 한다. 이번 연구는
이러한 다중감각의 전이와 상호작용을 응용하여 공
간음향의 연출에 활용할 수 있는 방법에 대한 고찰이
다. 이를 위해 우리가 가장 많이 사용하고 상호작용함
을 쉽게 체감할 수 있는 감각 중 시감각과 청감각을
선택하고 이 두 감각을 전환할 수 있는 마이크로소프
트의 애저 키넥트 DK 뎁스 카메라를 멀티미디어 매개
체로 사용한다. 이것으로 분석한 특정 신체 관절의 좌
표를 우리가 원하는 데이터로 변환하여 공간음향 연
출에 활용하면 감각적 인지 효과를 높일 수 있으며 무
대음향 기기, 무대조명 기기, 기타 프로그램 등의 제
어에 응용할 수 있다.
감각의 전이를 응용하고 적용했던 미디어아트 작품
의 기술을 사례로 이를 활용한 공간음향의 연출과 효
과, 그리고 다양한 분야에서 적용할 수 있는 방법에
대해 기술하고자 한다.
54
TECHNICAL REPORT
감각의 인터랙션을 응용한 공간음향 연출 방법
부천문화재단 양성원
A Method Of Directing Spatial Audio Applying Multisensory Transition and Interaction
Sungwon Yang
Bucheon Cultural Foundation
모션 캡춰 카메라로 전환되는 감각의 인터랙션을 통
해 능동적으로 공간음향을 연출하고 무대기술 일치
화로 감흥과 몰입을 향상시켜 예술적 표현과 가치를
높이고자 하는 것이 주 연구 내용이다. 그 결과를 토
대로 이 기술이 활용될 수 있는 분야와 이를 효과적으
로 적용할 수 있는 방법에 대해 기술하고자 한다.
요 약
1. 서 론
인간은 시감각, 청감각, 미감각, 후감각, 촉감각의 5
가지 감각이 있다. 감각은 각각 독립적으로 작용하지
않고 서로 상호작용하며 이 현상을 감각의 전이, 공감
각이라고 한다.
공감각(Synesthesia)이란 감각을 공유한다는 뜻으
로, ‘synesthesia’의 어원은 ‘syn-(with)’과
‘aisthesia(sensation)’로 구성된 의미이다. 인간은 모
두 다중감각자이다. 오감을 통해 외부의 물리적 자극
을 받아들이고 이 정보를 뇌에서 처리한다. 이러한 입
력과 중앙 처리 과정에서 특정 감각의 물리적 자극은
그에 대응하는 감각과 지각, 인지에만 영향을 미치는
것이 아니라, 다른 감각과 상호작용하며 통합적으로
인지한다. 1)
2. 감각의 전이, 공감각(synesthesia)
예시 전이
분수처럼 흩어지는 푸른 종소리 시감각 -> 청감각
캄캄한 공기를 마시면 미감각 -> 촉감각
이마에 시며드는 향료로운 자양 촉감각 -> 시감각
타오르는 꽃불도 향기론데 시감각 -> 후감각
수박 냄새 품어 오는 저녁 물바람 후감각 -> 촉감각
표 1. 감각의 전이 예시 2)
1) 양원영.(2018).[용어와 건축] 공감각, 그리고 다중감각의
상호작용.건축, 62(9), 64-64.
2) 윤홍노.(1970). 공감각 은유의 구조성 - 현대 한국시를 중
심으로. 국어국 문학, 49·50, 183-200.
TECHNICAL REPORT - 감각의 인터랙션을 응용한 공간음향 연출 방법
55
SSM STAGE SOUND MAGAZINE VOL.08
소리로 공간을 지각하는 요소로는 수평각(Azimuth
Angle)의 ITD(Interaural Time Difference)와
ID(Interaural Intensity Difference)가 있고, 수직각
(Elevation Angle)의 귓바퀴 필터링 효과(Pinna
Filtering Effect), 그리고 거리 지각의 SI(Sound
Intensity)가 있다. 우리는 이 요소로 3D 공간 내에서
소리의 위치를 감지할 수 있다.
여기에서 아래의 표 2, 표 3, 표 4를 통해 이번 연구
와 밀접한 관련이 있는 단서를 알게 되었는데 바로 수
평 지각, 수직 지각, 거리 지각에서 모두 시각적인 단
서가 위치 정보에 우선할 정도로 큰 영향을 미친다는
사실이다. 이것을 잘 활용하면 청각적 위치 정보를 더
욱 뚜렷하게 할 수 있다. (clarify)
3. 공간 지각(Spatial Perception) 3)
그림 1. 공간음향의 용어(3D 구면 좌표계)
3) 강성훈, 강경욱, 입체음향(Spatial Audio), 기전연구사
(1997.7), 54-62
4) 최찬규, 이머시브 라이브 시스템 패닝 알고리즘, (사)무대
음향협회 (2022.04). SSM Vol. 02, 54.
그림 2. 소리의 방향과 귓바퀴 형태의 관계
단서(CUE) 원리
두 귀간 시간차 시간차, 또는 위상차가 630㎲
까지는 선형적, 1ms이상 귀간 편이 없음
두 귀간 레벨차 10 ~ 15dB의 레벨 차는 한 쪽으로 이동
스펙트럼
500 ~ 800Hz 이하 대역 : ITD로 감지
800 ~ 1.5kHz 사이 대역 : ITD, ID 감지
1.5kHz 이상 대역 : ID로 감지 4)
시각 작용 고막을 통해서 얻어진 음향 정보에는 전혀
관계없이 시각 정보가 우선한다.
4)표 2. 수평 지각의 단서
단서(CUE) 원리
귓바퀴 영향
앞 : 귓바퀴 난반사, 감쇄 많고 특이함, 지저분
하고 콤필터링 딥이 크다
위 : 귓바퀴 통과, 밋밋한 귓볼 반사, 감쇄 적고
밋밋함, 콤필터링 딥 적음
아래 : 귓볼 통과, 귓바퀴 반사, 감쇄 많지만
앞보다는 적음, 콤필터링 딥 적음
뒤 : 대부분 귓등 반사, 저음 회절, 고음 감쇄,
음량 감소, 콤필터링 딥 적음
머리의 영향 머리에 의한 음장의 산란
머리 움직임 움직임에 두 귀의 고막상의 신호 변화
골전도 고막 전달과 골전도 전달의 레벨차 40dB
시각 작용 고막을 통해서 얻어진 음향 정보에는 전혀 관
계없이 시각 정보가 우선한다.
표3. 수직 지각의 단서
단서(CUE) 원리
소리의 크기 역자승의 법칙에 의해 거리에 반비례
스펙트럼 음원이 가까워지면 음색이 어두워진다.
원거리는 고주파수 감쇠율 증가(공기 흡수)
두 귀간 차 0 ~ 1m까지는 두 귀간 차이가 작아짐
1m 이상부터 차이를 못 느낌
반사음 직접음 대비 반사음으로 공간 및 거리 감지
시각 작용 고막을 통해서 얻어진 음향 정보에는 전혀 관
계없이 시각 정보가 우선한다.
표4. 거리 지각의 단서
특히, ITD, ID, SI는 비교적 단순한 물리량의 변화(음
량의 변화)로도 쉽게 체감되고 간단히 제어될 수 있
어 시각적은 요소에 비교적 덜 영향을 받는 것에 비
해 PFE는 심리음향의 특징이 크므로 시각적인 요소
에 비교적 큰 영향을 받는다. 귓바퀴의 크기, 위치, 방
향, 형태에 따라 편차가 크고 그로 인해 전면, 또는 후
면에 대한 소리의 정위감이 모호해지는 경우도 있으
므로 더 시각적인 요소에 의존하게 된다. 시각적인 위
치와 소리의 정위가 다르면 감각적 이질감과 혼란함
이 생기듯 반대로 머리전달함수의 평균화 오류는 시
각적인 요소를 부가함으로써 해소할 수 있게 된다.
이처럼 우리의 감각은 상호작용하며 청각적 공간의
지각에서는 시각 요소가, 시각적인 공간의 지각에서
는 청각 요소가 감각을 명확하게 할 수 있음을 알 수
있다. 이번 연구는 연기자의 위치에 따라 상호작용하
는 감각의 부가로 감성과 몰입을 상승시키고 이를 응
용하기 위함이다.
56
TECHNICAL REPORT
애저 키넥트 DK 뎁스 카메라는 마이크로소프트에
서 개발한 모션 캡처 카메라로 신체의 골격(skeleton)
을 좌우의 위치뿐만 아니라 앞뒤의 깊이(Depth)까지
입체적으로 감지하여 25개 관절의 좌표를 분석할 수
있는 기기이다. 기기부터 신체까지의 거리, 즉 깊이는
적외선을 투광하고 반사되어 돌아오는 시간으로 3D
공간의 위치를 계산한다.
4. 다중감각의 전이를 위한 매개체
4.1. 마이크로소프트 키넥트 뎁스 카메라
그림 3. 마이크로소프트 애저 키넥트 DK 뎁스 카메라
이렇게 분석된 위치 정보는 마이크로소프트에서 제
공하는 소프트웨어 개발 키트 SDK에서 각각 X, Y, Z
좌표의 디지털 데이터로 변환된다. 이 정보 중 필요한
신체 관절의 데이터를 OSC(Open Sound Control)나
MIDI 데이터로 변환하여 각종 기기의 컨트롤에 활용
할 수 있다.
그림 4. 키넥트 v3로 분석 가능한 32개의 관절 정보
이번 연구에서 키넥트 v3는 ‘움직임을 보다’라는 시
감각의 작용을 공간음향으로 연출된 ‘소리를 듣는다’
라는 청감각의 작용으로 전환시키는 역할이다. 이는
기술적 응용 이외에도 미디어아트에서 시도되고 있
는 인터렉티브 미디어아트의 예술적 가치와 응용이
라는 관점에서 의미가 크다. 기관별로 작용하는 감각
을 통합적으로 분석하고 이해하며 이를 전환하는 것
은 인간의 뇌에서 일어나는 일이다. 이것을 2장에서
서술한 ‘다중감각의 전이’로 해석하면 멀티미디어기
기를 활용하여 이를 기술적으로 구현한다는 것 이상
으로 예술적인 가치와 의미를 부여할 수 있다.
4.2. 다중감각의 전이에 대한 키넥트 v2 사용의
의의
TECHNICAL REPORT - 감각의 인터랙션을 응용한 공간음향 연출 방법
57
SSM STAGE SOUND MAGAZINE VOL.08
그림 5와 표 5는 외부 자극으로부터 우리의 뇌와 키
넥트 v3가 어떻게 감각을 전이, 또는 변환하며 표현
하는지를 보여주는 예시이다. 이처럼 키넥트 v3는 우
리의 뇌처럼 감각을 전환할 수 있는 매개체라고 할 수
있으며 이를 활용하여 OSC와 같은 데이터를 만들 수
있다.
그림 5. 다중감각의 미디어 전환 예시
뇌 키넥트
UN 본부가 떠오른다 인터렉티브 이미지를 보여준다
Dynamic이 기억난다 인터렉티브 사운드를 들려준다
팬사인회 악수가 기억난다 아두이노로 동작을 구현한다
광고제품의 맛이 기억난다 구현 불가능
광고제품의 향이 기억난다 구현 불가능
표 5. 다중감각의 전이 및 OSC 전환 비교표
4.3. OSC 전환을 위한 두번째 매개체 –
Ableton LIVE 11
SDK가 제공하는 1차 데이터를 OSC로 변환하기 위
해서는 목적에 맞는 별도의 API(Application
Programming Interface)가 필요하다. 다행히 DAW
중에 MAX/MSP가 빌트인 되어있고 비교적 쉽게 외
부 멀티미디어기기와 연동이 가능한 Ableton의
LIVE 11을 사용하여 키넥트 v3와 연결하였다. LIVE
11을 사용하면 SDK를 입력받아 Max for Live라는
MAX/MSP 애플리케이션의 코딩을 통해 OSC와 MIDI
로 변환할 수 있다.5) 그러나 여기서 문제가 발생하였
다. 키넥트 v3를 PC에 연결하면 카메라에 장착된 마
이크 어레이로 인해 기기 자체가 오디오기기로 인식
되어 오디오 출력을 위한RME Fireface800 오디오
인터페이스와 동시에 쓸 수 없었다. 둘 중 하나만 선
택해야 했다. 오디오인터페이스를 사용하지 않으면
키넥트 v3로 변환한 OSC나 MIDI를 전송할 수가 없
다.
5) Max for Live는 Ableton Live11 suite 이상부터 기본 빌트
인되어 있는 MAX/DSP 애플리케이션
6) Derivative 사에서 개발한 노드 기반 비주얼 프로그램 언
어로 6개의 operator를 조합하여 실시간 대화형 멀티미디어
콘텐츠 개발에 사용
4.4. 중간 매개체 Derivative사의 TouchDesigner
- OSC 전환 과정의 문제점과 해결 방법
3.3장에서 발생한 문제는 결국 MAX for LIVE를 사
용하지 않고 2차 매개체로 Derivative사의 터치디자
이너(Touch Designer)6)를 사용함으로써 해결하였
다. 이것을 키넥트 v3와 LIVE 11 사이의 매개 코딩 프
로그램으로 사용하면 별도의 API 개발이나 코딩 작업
없이 6가지 메인 오퍼레이터(COMP, TOP, CHOP,
SOP, MAT, DAT)를 사용하여 노드(Node) 형식으로
조합하고 파라미터값을 조정함으로써 OSC로 변환할
수 있다. 특히, 터치디자이너는 키넥트를 바로 인식할
수 있고 32개의 관절 정보를 실시간으로 출력해 주는
전용 오퍼레이터( kinect v3)가 있어 이것과 조합하여
사용할 수 있다.
그림 6. 터치디자이너 오퍼레이터 연결도
58
TECHNICAL REPORT
또, 터치디자이너는 기본적으로 Ableton LIVE 11과
OSC를 주고받을 수 있는 TDAbleton팔레트 브라우
저(LIVE 11, LIVE 9 & 10)를 기본 제공하고 있다.
TDAbleton에서 제공하는 12개의 부속 오퍼레이터로
LIVE의 많은 기능을 컨트롤할 수 있다. 그림 7과 같이
간단하게 키넥트 v2와 LIVE 11을 연결하면 OSC로
LIVE 11을 컨트롤하고 대부분의 기능과 파라미터를
조절할 수 있다. LIVE 11이 실행되어 있으면
TDAbleton 팔레트 브라우저의 TDAbletonPackage
를 띄우는 것만으로 아래 그림 7처럼 LIVE 11과 쉽게
연결할 수 있다.
그림 7. 터치디자이너와 LIVE11의 TDA Master 자동 연결
5. 인터렉티브 사운드 발현 및 컨트롤 설계
지금까지의 기술적인 배경과 매개체를 바탕으로 아
래에 설정된 예제 미션이 실질적으로 구현되도록 설
계하고 이를 구체화하는 과정을 기술해 본다. 그 어떤
것도 직접적으로 개입하지 않고 카메라에 포착된 동
작만으로 소리가 발현되도록 구현하는 것이다. 이번
설계는 단순한 동작과 범위 설정에 국한한 것이지만
이를 확장하면 인터렉티브 사운드 연출을 고도화할
수 있고 다양한 분야에 적용할 수 있다.
인터렉티브 사운드 미션
1. 연주자는 가운데 서 있다.
2. 연주자가 오른손을 왼쪽이나 오른쪽으로 뻗으면 소리가 난다.
(가운데에 두면 소리가 나지 않는다)
3. 연주자가 왼손을 올리면 음이 높아지고 내리면 낮아진다.
4. 연주자가 움직이면 소리도 따라 움직인다.
공간음향의 연출과 응용이 목적인 이번 연구에서
위의 미션이 의미하는 것은 첫째, 키넥트의 인터렉션
이 최종 OSC로 출력되는 것을 가장 간결하게 효과적
으로 설명할 수 있다는 것과 둘째, 직관적인 기술 적
용을 쉽게 대체하여 응용할 수 있다는 것이다. 뒤의
5.1에서 구체적으로 기술하겠지만 오브제의 위치에
따라 음원의 위치를 따라 변하게 하는 것은 미션 4번
의 트래킹으로 쉽게 설명할 수 있다. 오브제가 어느
위치에 있느냐에 따라 어떤 소리를 발현할 것인지(연
기자의 어느 위치에서 큐랩의 음원이 자동으로 실행
되는 예시), 어떤 무대기술을 동작시킬 것인지(연기자
가 퇴장하면 자동 암전되는 예시)는 미션 2번과 3번
으로 응용할 수 있다.
5.1. 인터렉티브 사운드 미션 2 설계
이번에는 미션의 2번 과제를 설계해 본다. 오른손의
위치에 따라 소리가 난다는 것은 연주자의 신체 중 그
림 4에서 표시한 32개의 관절 중 특정된 오른손이 미
션으로 지정된 위치에 도달했을 때 음이 발현된다는
것을 의미한다. 가로축(X)을 기준으로 3개의 영역으
로 분할하고 가운데를 제외한 양옆의 위치에 오른손
이 도달했을 때 LIVE 11의 가상악기 음이 울리도록 한
다.
그림 8. 3분할 공간의 위치에 따른 발현 설정
TECHNICAL REPORT - 감각의 인터랙션을 응용한 공간음향 연출 방법
59
SSM STAGE SOUND MAGAZINE VOL.08
그림 8처럼 공간을 세 부분을 나누고 가운데를 제
외한 좌우 공간에 보이지 않는 트리거가 설치되어 있
어서 오른손이 이곳에 닿으면 소리가 난다고 가정할
수 있다. 그러나 이것은 일반적인 관점이고 기술적인
설계로 구체화하면 물리적인 장막을 설치하여 공간
을 구분하지 않더라도, 코딩의 관점으로 따져보면 그
림 8처럼 왼손의 트래킹으로 달라지는 좌푯값의 변화
를 구분하는 것만으로 공간을 분할할 수 있다.
오른손 관절에 심어진 좌푯값의 범위를 설정하는
것으로 간단하게 해결할 수 있다. 즉, 우리의 일반적
인 관점을 어떤 기준점(왼손의 좌표)의 시각으로 보느
냐에 따라 간단하게 정리할 수 있게 된다.
그림 9. 공간 3분할의 수식화
공간의 수식화 결과
Hand_rx< -0.2 A음이 울린다
-0.2 < Hand_rx < 0.2 소리가 울리지 않는다
0.2 < Hand_rx B음이 울린다
표 6. 공간의 수식화와 결과물 표출
TOP 오퍼레이터 중 Kinect를 실행하면 키넥트 v3
가 자동으로 연결되면서 카메라 앞에 있는 신체의 관
절 좌표를 실시간으로 전송해 준다. 여기에서 select
오퍼레이터의Channel Names에 P1/hand_r:tx를 입
력하면 우리가 원하는 오른손의 가로축(X) 좌표만 추
출할 수 있다. 이후 Expression 오퍼레이터로 표6으
로 수식화한 X좌표 값의 범위를 Expr0, Expr1, Expr2
에 입력하여 공간을 분할한다.
Expression
(X축)
3분할 공간에 각각 수식화 값 expr입력
Expr0 : me.inputVal<-0.21
Expr1 : True if (me.inputVal>-0.2 and
me.inputVal<0.2) else
Expr2 : True if (me.inputVal>0.21) else
다음으로 Constant 오퍼레이터를 연결하여 오른손
의 위치가 3개 공간의 어디에 있느냐에 따라 각각 일
정한 정숫값을 표출하도록 설정한다. -1부터 1까지 변
하는 실숫값을 3개의 영역에서 지정된 정숫값 3개로
각각 출력할 수 있다.
예시) -1 ~ -0.21, -0.2 ~ 0.2, 0.21 ~ 1 -> 65, 70, 72
여기까지는 터치디자이너의 TOP 오퍼레이터를 사
용한다. 그런데 이것만으로는 소리가 나지 않는다. 이
것은 오른손의 위치가 3개의 영역 중 어디에 있느냐,
또는 어느 영역에 닿았느냐에 따라 연주할 음을 지정
했다는 뜻이다. 그음을 실제 연주할지 말지는 또 다른
상호작용의 개입이 있어야 한다. 예를 들면 고개를 숙
였을 때, 마치 건반을 누르는 것처럼 음이 연주되도록
해야 한다. 다시 말하면 어떤 음을 선택하는 첫 번째
작용과 그음을 눌러서 소리가 나도록 하는 두 번째 작
용이 각각 있어야 한다는 뜻이다. 그러나 이것은 간단
한 방법이 아니다. 가상악기의 음을 지정하는 것은
TOP 오퍼레이터로 설정할 수 있었지만 TDAblton으
로 연결된 LIVE 11의 가상악기의 음이 울리도록 하는
것은 DAT 오퍼레이터 중 CHOP Execute으로 명령해
야 한다. 그러나 이종 간의 메인 노드는 링크를 연결
하는 방식으로 바로 데이터를 전송할 수 없으므로 파
이썬7)의 코딩을 통해 간접적으로 수행해야 한다. (링
크 연결 자체가 되지 않는다.)
7) 네덜란드에서 1991년 개발한 객체 지향형 동적 타이핑 프
로그래밍 언어
60
TECHNICAL REPORT
음의 발현을 위한 파이썬 코딩
NumChans = {int(op(‘right1’).numChans)
def on ValueChange(channel, sampleIndex, val, prev):
for n in range (1, NumChans):
if op(‘right1’)[0] == 1 and op(‘right’)[4] == 1:
op(‘abletonMIDI1’).SendMIDI (‘note’,
int(op(‘R_notes1’)[0]). 100)
elif op(‘right1’)[0] == 1 and op(‘right’)[5] == 1:
op(‘abletonMIDI1’).SendMIDI(‘note’,int(op
(‘R_notes1’)[1]). 100)
elif op(‘right1’)[0] == 1 and op(‘right’)[6] == 1:
op(‘abletonMIDI1’).SendMIDI (‘note’, int
(op(‘R_notes1’)[2]). 100)
return
CHOP Execute 오퍼레이터로 코딩한 명령을 통해
그림 8과 같이 오른손의 위치에 따라 공간별로 심어
놓은 음을 연주할 수 있게 된다.
5.2. 인터렉티브 사운드 미션 3 설계
그림 10. 왼손의 높이에 따른 음의 피치벤딩 변화 설정
이번에는 미션의 3번 과제를 설계해 본다. 그림 10
과 같이 왼손의 높이인 Y축의 변화로 피치밴딩(Pitch
banding)을 적용해 본다. 왼손을 수평으로 뻗었을 때
의 높이를 0으로 삼고 그보다 높아지면 증가하고 낮
아지면 감소하도록 한다. 이것은 왼손의 Y 좌표를 추
출하여 가상악기의 피치밴드 휠에 이식하면 된다.
그림 11. 음의 피치벤딩 수식화
높낮이의 수식화 결과
0 < Hand_ly 음이 높아진다
Hand_ly = 0 음의 변화가 없다
Hand_ly < 0 음이 낮아진다
표 7. 피치벤딩의 수식화와 결과물 표출
음의 높낮이 변화는 MIDI의 컨트롤 중 피치벤드
(Pitchbend)를 이용하여 변조한다. 이것도 왼손의 Y
좌푯 값에 따라 음의 높낮이가 달라지도록 하기 위하
여 math 오퍼레이터를 사용하여 0부터 1까지 변하는
왼손의 Y좌푯값을 range에서 -1부터 1까지 재설정한
다.
피치벤드 MIDI 데이터 전송을 위한 파이썬 코딩
def onValueChange(channel, sampleIndex, val, prev):
op('abletonMIDI1').SendMIDI ('pitchbend', val)
return
그림 12. 피치벤드 구현의 오퍼레이터 연결 예시
여기까지 설계가 끝났다면 오른손을 왼쪽이나 오른
쪽으로 뻗었을 때 소리가 날 것이고 이때 왼손을 펼쳐
올리거나 내릴 때 음의 피치가 높아지거나 낮아지게
될 것이다.
TECHNICAL REPORT - 감각의 인터랙션을 응용한 공간음향 연출 방법
61
SSM STAGE SOUND MAGAZINE VOL.08
5.3. 인터렉티브 사운드 미션 4 설계
그림 13. 신체의 스켈레톤 헤드 예시
마지막 4번 미션은 그림 13과 같이 25개의 관절 중
머리 좌표로 추출하여 사용한다. 신체의 위치를 머리
좌표로 삼아야 하는 이유는 머리는 몸체에 붙어 있으
면서 신체의 가장 높은 위치와 가장 낮은 위치까지 추
출하기에 적합하며(서 있을 때와 누워 있을 때의 경
우) 팔이나 다리 같은 다른 신체의 변화에 크게 영향
을 받지 않으면서도 독립적인 동작을 구사할 수 있기
때문이다.
그림 14. Math의 출력값에 따른 panning 연동 예시
이것은 별도의 코딩 없이 AbletonMIDI의 부속 오
퍼레이터 중 AbletonTrack의 panning 파라미터에
헤드의 X값을 드래그 & 드롭 방식으로 이식하면 머리
의 움직임을 그대로 추적하여 위치를 표현해 준다. 높
낮이의 변화를 나타내는 Y 값과 깊이를 나타내는 Z값
의 파라미터를 추가하여 (X, Y, Z)의 변화로 3D 공간
의 위치를 표현한다.
이것으로 미션에 대한 기본적인 설계는 끝난 것이
다. 여기까지 완료되었다면 연주자가 오른손을 왼쪽
이나 오른쪽으로 뻗었을 때 소리가 날 것이고, 연주자
가 왼손을 뻗어 올리거나 내리면 음이 높아지거나 낮
아질 것이다. 또, 음이 울리는 동안 연주자가 움직이
면 소리도 그대로 따라 움직이게 된다.
참고로 이번 연구에서 인터렉션의 출력 데이터를
MIDI 데이터로 선택한 이유는 대다수의 장비에서
MIDI 입출력 포트를 지원하며 가변 범위가 정숫값으
로 정량화8)되어 있어 편집 및 활용에 용이하기 때문
이다.
6. 다중감각의 전이와 상호작용의 응용
6.1. 공간음향 연출 응용 - 연기자 움직임에 의한
공간음향 연출 구현
이번에는 공간음향에서 지금까지 연구한 내용이 적
용될 수 있는 응용 사례를 기술한다.
그림 15. 인터렉티브 공간음향 구현 연결도
5장에서 설명한 구성에서 공간음향을 구현할 수 있
는 애플의 로직 프로 X(이하 로직)를 연결한다. 단, PC
에서 두 개의 DAW을 띄울 수 없고 지금까지의 구성
은 윈도 OS의 PC에서만 가능9)하므로 별도의 Mac
OS PC에서 로직으로 최종 공간음향을 구현한다. 로
직은 10.7 버전부터 공간음향을 지원하고 3D 사운드
8) 미디 노트 범위 : 0 ~ 127, 미디 노트 벨로시티 : 0 ~ 127,
미디 콘트롤 번호 : 0 ~ 127, 피치벤드 범위 : 0 ~ 8192
9) 키넥트 v2는 MS 윈도 OS에서만 연결 및 구동이 가능하다.
62
TECHNICAL REPORT
렌더러를 기본 탑재하고 있으며 에어팟프로10) 이상의
모니터링 기기에서 쉽게 입체음향을 체감할 수 있다.
이번 연구의 인터렉티브 공간음향을 별도의 추가 장
비나 서버 없이 구현해 볼 수 있다. 특히, 로직은 수직
각의 변화도 구현할 수 있다. 이것은 일반 스피커로도
수직 각의 변화를 확실히 느낄 수 있을 정도로 PFE의
재현력이 좋으며 UI의 사용이 간편하다. 로직은 오디
오 마스터 출력단에 기본적으로 Dolby Renderer를
띄울 수 있다. 또, 트랙별로 오브제의 움직임을 나타
낼 수 있는 3D Object Panner로 자유롭게 공간음향
을 연출할 수 있다.
그림 16. 로직 프로 X의 3D Object Panner와 Dolby Renderer
이것으로 키넥트를 통해 전달받은 연기자의 X, Y, Z
좌표로 공간음향을 표현한다. 이미 두 오디오인터페
이스 간 MIDI 데이터를 주고받을 수 있도록 연결하였
으므로 연기자의 좌푯값(X, Y, Z)을 3D Object
Panner의 수평 좌표(X, Y)와 수직 좌표(Y)로 연결하
여 연기자의 움직임에 따라 사운드의 공간적 정위가
변하도록 한다
10) 애플이 개발한 블루투스 연결 방식의 무선 이어폰. 이 제
품 이상부터 애플의 공간음향 기능을 사용할 수 있다.
그림 17. 3D 직교 좌표계
그림 18. 로직의 Binaural Panner와 3D Object Panner
단, 여기에서 관점의 전환이 필요하다. 움직이는 오
브제의 소리를 고정된 청자가 추적하는 관점이 아니
라 주어진 공간에서 액티브한 연기자의 소리를 청자
가 듣는 관점이므로 그림 1과 같은 수평, 수직, 거리의
방위각 개념이 아닌, 그림 17과 같은 3차원 공간 좌표
의 개념이 필요하다. 두 개념의 변수도 다르므로 정확
한 위치를 나타내기 위해 구분하여 표현해야 한다. 로
직에서 방위각의 좌표 변수를 그림 18처럼 3차원 공
간 좌표로 변경해야 한다. 로직에서 채널별로
Binaural Panner에서 3D Object Panner로 변경해야
키넥트의 좌표와 정확하게 일치하게 된다. 변수는 각
각 다음과 같이 치환된다.
Binaural Panner 3D Object Panner
Elevation Object Position Elevation
Angle Object Position Left/Right
Diversity Object Position Back/Front
그림 19. 3D Object Panner의 3가지 오토메이션
TECHNICAL REPORT - 감각의 인터랙션을 응용한 공간음향 연출 방법
63
SSM STAGE SOUND MAGAZINE VOL.08
더 높아진다. 연기자 머리의 위치에 따라 높낮이 변화
도 그대로 Elevation Factor로 표현할 수 있으며 관객
은 전면의 스피커로 일치화된 감각적 변화를 체감할
수 있으므로 감흥과 몰입을 높일 수 있다.
이렇게 바꾸면 그림 19처럼 연기자의 움직임에 따
라 소리가 그대로 따라 움직이게 된다. 키넥트 쪽 PC
에서 넘어온 MIDI 데이터를 로직의 3D Object
Panner의 3가지 변수에 이식하는 것은 MIDI Learnig
기능을 사용한다.
그림 20. 오디오 입력 채널에 대한 트래킹 세트 업 예시
이것은 단순히 음원의 패닝을 연기자의 좌표에 연
동시키는 것에 그치지 않고 그림 20과 같이 연기자의
마이크로 입력되는 소스에 대해서도 트랙킹 되어 패
닝이 적용되며 녹음되는 동안 오토메이션도 그대로
그림 19와 같이 생성된다. 이것을 라이브 실황 녹음
음원에 적용할 수 있다. 또, 영상과 매칭된 사운드의
정위감을 향상할 수 있으며 기록된 오토메이션을 포
스트에서 수정할 수도 있다. 실험을 통해 좌우, 앞뒤,
상하의 움직임이 스피커로 출력됨을 확인하였다. 이
것을 뮤지컬의 연기자 움직임에 연동시키면 효과가
6.2. 하드웨어 제어 응용 - 연기자의 위치와
움직임에 의한 AV하드웨어 제어
그림 21. AV하드웨어 제어를 위한 Qlab의 연결도11)
11) 12)우성민, “OSC·AppleScript를 활용한 공연장 AV 시스템
통합 제어에 관한 연구”, 국내석사학위논문 상명대학교 일반
대학원, 2023.서울, 24, 39-55
5장에서 시연한 것처럼 위치별로, 동작 별로 공연의
연출에 의한 하드웨어 작동을 제어할 수 있다. 연기자
의 동작에 맞춰 플레이되어야 하는 큐에 약간의 지연
(현장에서는 이를 마라고 부른다)이라도 생기게 되면
전체적인 흐름과 몰입을 방해할 수 있다. 무용 공연인
경우 무용수의 느낌과 해석에 따라 안무, 시간, 동선
이 매번 달라질 수 있으므로 사전에 합을 맞췄다고 해
도 정확하게 큐를 플레이하기가 어려울 수 있다. 이럴
때 특정 위치와 특정 동작에 QLAB(이하 큐랩)의 큐를
실행하도록 심어 놓을 수 있다. 그림 21처럼 PC 내의
애플리케이션 간은 OSC나 스크립트로 연결하여 컨
트롤할 수 있고 네트워크 스위처로 연결된 외부 기기
는 이더넷으로 컨트롤할 수 있다12)
.
64
TECHNICAL REPORT
앞서 설명한 대로 지금까지는 음악감독이 공연에
맞춰 큐랩을 플레이했지만 이번에는 그림 22과 같이
키넥트로 입력되는 연기자의 위치와 동작만으로 플
레이되도록 해본다.
13) 0이 아닌 1의 값인 이유는 등장하면서부터 음악이 플레이
되도록 하기 위함. 0인 경우 입장하는지 아닌지 알 수가 없다.
연기자가 입 퇴장하면서 음악이 실행되고 종료되는
것은 X 좌푯값으로 간단하게 설정할 수 있다. 일반적
인 미디 패닝은 63을 센터로 잡고 왼쪽 끝을 0으로
시작해서 오른쪽 끝이 127이 되므로 이 값으로 연기
자의 X 좌푯값을 큐랩의 트리거에 입력하면 다른 변
수에 상관 없이 A와 B를 쉽게 구성할 수 있다.
그림 23. 인터렉티브 무대기술 연출 큐 예시
그림 22. 인터렉티브 무대기술 연출 미션
인터렉티브 무대기술 연출 미션
1. 연기자가 입장하면 음악 1번이 플레이 된다(A).
2. 연기자가 B에서 왼팔을 옆으로 뻗으면 음악 2번이 플레이
된다.(B)
3. 연기자가 B에서 오른팔을 올리면 조명이 점점 밝아지고
내리면 어두워진다.(B)
4. 연기자가 퇴장하면 음악 2번이 서서히 줄어든다.(C)
이번 미션에 5.1장과 5.2장에서 구현했던 기술을 적
용할 수 있다. 큐랩에서 위 미션을 큐로 만든다.
연기자 입장 -> 연기자의 머리 X 좌표 113)-> 음악 1 실행
연기자 퇴장 -> 연기자의 머리 X 좌표 127 -> 모든 음악
이번에는 B의 위치를 특정한다. 머리의 좌표가 이 영역
에 있을 때 왼팔과 오른팔에 따라 다음 동작을 하게 된다.
그림 24. B 영역 특정을 위한 좌표 설정 예시
5.1장에서 공간을 분할한 방법대로 범위를 특정한다. 이
영역에 있을 때 일정한 값이 출력되도록 하고 그 값을 미
디 노트에 할당하여 큐랩의 트리거에 입력하여 완성한다.
TECHNICAL REPORT - 감각의 인터랙션을 응용한 공간음향 연출 방법
65
SSM STAGE SOUND MAGAZINE VOL.08
1. 강성훈, 강경욱, 입체음향, 기전연구사 (1997.7)
2. 강성훈(1995), 디지털 오디오와 심리음향, 전자공학회지, 22(5),
518-528.
3. 우성민, “OSC·AppleScript를 활용한 공연장 AV 시스템 통합 제어에
관한 연구”, 국내석사학위논문 상명대학교 일반대학원, 2023.서울
4. 최찬규, 이머시브 라이브 시스템 패닝 알고리즘, (사)무대음향협
회(2022.04), SSM Vol.02, 54-72
5. 양원영.(2018).[용어와 건축] 공감각, 그리고 다중감각의 상 호작
용.건축
6. 윤홍노.(1970). 공감각 은유의 구조성 -현대 한국시를 중심으로.
국어국 문학, 49·50, 183-200.
7. 허재원. “사운드의 공감각과 영상 이미지와의 일치감이 기억에 미
치는 영향.” 국내석사학위논문 명지대학교 대학원, 2018. 서울
8. 조엘 살리나스, 정유선(번역), 거울촉각 공감각, 성안당(2019.1)
양 성 원
부천문화재단 음향감독
(사)무대음향협회 경인지부 기술위원
SSM 제작국 기술부
마리오음악공작소 운영자
참고문헌
B 위치일 때 -> 탑 조명 on(Dim 100%)
B 위치가 아닐 때 -> 탑 조명 off
연기자 B 위치에서 오른팔을 올리고 내릴 때 -> Dim
100 ~ 0%14)
이번에는 B의 위치에서 왼팔을 펼쳤을 때 즉, 왼손이 B
를 벗어나 무대 하수 쪽으로 침범했을 때 음악 2가 플레이
되도록 설정한 미디 노트를 할당한다.
모든 설정이 끝났으면 음악감독이 GO를 누르지 않더라
도 연기자가 무대 하수로 입장하여 연기를 하고 B에서 동
작한 후 무대 상수로 퇴장하는 인터렉티브 무대기술 연출
이 자동으로 실행된다.
7. 고찰 및 결론
예술의 표현으로 전달되는 다중감각은 그것이 일치되
었을 때 기억력이 높아지며, 불일치되었을 때 스트레스
지수가 높아진다.15) 다중감각의 일치화는 관객의 감흥과
몰입을 오래 지속시켜 결과적으로 예술의 목적과 가치를
높이게 된다. 기술을 개발하고 향상하고 적용하는 것은
궁극적으로 본연의 목적과 가치를 높이기 위해 존재하는
것이다.
14) Dim의 가변은 MIDI 신호를 Grand MA3 조명 컨트롤러와 직접
연결하는 방식으로 터치디자이너에서 데이터를 직접 전송(적용
방법은 5.2장 참고)
15) 허재원. “사운드의 공감각과 영상 이미지와의 일치감이 기억에
미치는 영향.” 국내 석사학위논문 명지대학교 대학원, 2018. 서울
마이크로소프트에서 개발한 키넥트는 다원 예술, 미디
어아트, 영상 제작, 게임 제작, 가상현실 연구, 멀티미디어,
의료, 건축 등 다양한 분야에 활용되고 있다. 이번 연구는
다중감각의 전이와 상호작용에 대한 개념 이해, 공간음향
의 효과적인 연출과 무대기술의 응용, 그리고 관객의 감
흥과 몰입을 높이기 위한 방법이 무엇인지에 대한 고찰이
다.
감상은 예술의 아름다움을 느끼고 이해하고 즐기는 일
련의 과정이며, 예술작품과 예술 활동은 관객의 감상을
통해 완성된다.
66
TECHNICAL REPORT
SUBWOOFER ARRAYS (A PRACTICAL GUIDE)
서브우퍼 어레이 I
김 종 식 | 사)무대음향협회 서울지부 / 정보통신기술사 / 엠테크
4. 그래프와
어레이
설계 도구
이 칼럼에서의 그림과 지향 특성(Polar Pattern)은 Electro Voice社에서 배포하는
LAPS 2.2A 프로그램으로 작성되었다. LAPS는 Electro Voice社의 라인 어레이(Line
Array) 스피커의 구성을 지원하는 가벼운 시뮬레이션 설계 프로그램으로 초판 버전의
2.2A는 서브우퍼 모델링 페이지가 포함되어 있다.
LAPS에는 EVADA(Expandable Vertical Array Design Assistant)의 별도 프로그램으
로 확장 가능한 수직 어레이 설계 지원이 가능한 특징이 있다. 이것은 Electro Voice EVA
스피커 어레이 설계의 빠른 계산과 설계를 지원하는 LAPS이다. EVADA에서도 LAPS와
같은 초 저역 모델링 페이지가 있어 설계에 있어서 유용한 솔루션을 제공한다.
5. 우퍼 어레이
유형
프로오디오에서는 서브우퍼 어레이 구성을 다음 3 종류로 구분할 수 있다.
① 브로드 사이드 어레이(Broadside Array) : 다수의 우퍼를 옆으로 일렬로 배열하는
형태의 서브우퍼 배치 방법이다. 1차 방사 라인은 스피커 설치 열에 직각이다. 이것
은 대부분의 서브우퍼 설치에서 볼 수 있는 대표적인 배치 방법으로 스택형(Stack)
또는 플라잉(Flying) 형식 중 하나이다. 현재 브로드 사이드 어레이가 대부분 현장에
서 세팅하는 방법이다.
② 그래디언트 어레이(Gradient Arrays) : 우퍼를 마치 마이크와 같은 지향성 패턴(일
반적으로 카디오이드 또는 하이퍼 카디오이드)이 될 수 있도록 배치하는 방법이다.
이 어레이로 원하는 패턴을 만들기 위해 딜레이, 필터 및 위상 반전을 설정할 수 있
는 여러 구동 채널을 갖는 우퍼가 필요하다. 그래디언트 어레이는 보통 하나의 캐비
닛에 구성된 제품이 있어 그래디언트 어레이로 구동이 용이하지만 다른 우퍼 캐비
닛을 결합하여 딜레이, 필터, 위상 반전 등을 설정하면 그래디언트 어레이 구성이 가
능하다.
③ 엔드파이어 어레이(Endfire Arrays) : 다수의 우퍼 캐비닛을 원하는 방사 방향으로
캐비닛 간에 간격을 두고 일렬로 설치하고, 캐비닛마다 조금씩 지연을 시키면 매우
좁은 지향성 패턴을 만들 수 있다. 엔드파이어 어레이는 샷건 마이크와 같은 동작 원
리를 스피커에 적용한 예이다. 엔드파이어 어레이는 드문 경우지만 장거리, 야외 또
는 대형 센터에서만 사용할 수 있다.
* SSM 7호에서 이어집니다.
TECHNICAL REPORT - 서브우퍼 어레이
67
SSM STAGE SOUND MAGAZINE VOL.08
5.1. 브로드 사이드 어레이(Broadside Array)
브로드 사이드 어레이(Broadside Array)
는 우퍼 캐비닛을 가로로 일렬로 설치 한
것(또는 스피커 캐비닛을 쌓아 올린 것), 음
파 방사는 일열로 설치한 것에 직각이다.
설치 형태는 직선 배열, 곡선 배열, 계단식
배열로 설치하여 브로드 사이드 어레이를
구축할 수 있다.
브로드 사이드 어레이는 설계와 설치가
간단하므로 가장 일반적인 우퍼 구성에 자
주 사용된다. 그러나 넓은 지역에 우수한
저음을 얻기 위해서는 기본 세팅 이외에
몇 가지 조정을 추가하면 보다 명료하고,
밸런스가 우수한 저음을 만들 수 있다. 그
림 9에서 그림 12는 기본 원리를 나타낸다.
그림 9는 다수의 우퍼로 구성한 긴 어레
이의 경우와 보다 적은 양의 짧은 어레이
의 우퍼로 구성한 경우의 패턴을 나타내
고 있다. 다수 우퍼 어레이 구성 시는 좁은
패턴이고, 수가 적은 경우의 어레이는 패
턴이 넓게 퍼진 것을 알 수 있다. 따라서
우퍼에 지향 방향으로 객석을 향하면 효
율적일 것이다.
그림 10의 직선 배열 형태의 어레이는
주파수가 높아질수록 지향성 패턴이 좁아
지고, 좋지 못한 로브(Lobe)가 발생한다.
곡선 배열 형태 어레이 방식의 경우에는
직선 배열 대비 더 일정한 지향 패턴을 얻
을 수 있다. 따라서 소량의 우퍼 구성이 아
닌 다수의 우퍼 캐비닛으로 구성하고 곡
선 배열 형태로 구성하면 주파수 대역 40
~ 60㎐에서 우수한 지향성 패턴을 얻을
수 있다.
그림 9. 긴 어레이와 짧은 어레이 - 2대와 4대의 Xsub 우퍼
(60[㎐], 평면도, 오른쪽 관객석)
그림 10. 직선 어레이와 곡선 모양 어레이
(6개의 Xsub 우퍼, 오른쪽 관객석)
그림 8. 브로드 사이드 어레이(Broadside Array)
68
TECHNICAL REPORT
그림 11과 같이 그래디언트 어레이(Gradient
array) 방식과 계단식 어레이(Staircased
array) 방식은 동일한 지향 패턴을 얻는다.
따라서, 무대 형태나 무대 연출 시에 그래디
언트 구성이 어려운 경우는 계단식 어레이로
구성하여 무대 형태 및 연출에 대한 간섭과
제약 사항을 최소화할 수 있다.
그림 12는 패턴의 변화를 위해 곡선 모양이
아닌 계단 형태의 배열로 나타낸 것으로 계
단식 어레이 쪽이 좋은 결과를 얻는다. 그림
에서 보는 것과 같이 곡선 모양의 경우
Red(60㎐)에서 좁은 패턴이 계단 모양에서
는 넓은 패턴으로 변화된 것을 알 수 있다. 계
단 모양의 배열이 곡선 배열 대비 40 ~ 60㎐
대역에서 우수한 지향성 패턴이 된다.
6. 그라운드 스택
어레이
Groundstacked
Arrays
그라운드 스택 어레이 방식으로 서브우퍼를 설계 및 설치할 경우에는 패턴 폭과 무
대 좌, 우에 어레이를 어떻게 배치할 것인가를 고려해야 한다.
① 패턴 폭(Pattern Width) : 그라운드 스택 수평 어레이는 커버 레인지의 폭이
자주 문제가 된다. 약 3m보다 넓은 초저역의 직선 어레이는 대부분의 장소에서는 지
향성이 매우 강하게 된다. 예를 들어, 그림 9의 그래프에서 4개의 Xsub 우퍼(폭은 약
3.7m)의 커버리지 패턴은 60㎐에서 90도로 매우 좁게 된다. 60㎐보다 높은 주파수
에서는 더욱 좁게 되는 문제가 발생한다. 또한 더욱 문제가 되는 것은 그림 10의 왼쪽
그림 Xsub 우퍼를 6개 배치했을 때의 패턴이다. 스피커 한 개당 약 1.21m로 6개를 배
치할 경우 어레이 구성의 실제 너비는 약 7.3m가 되며, 지향성 패턴은 60도로 60㎐
의 다른 곳에 비해 음압이 매우 낮고, 주파수 의존성이 높은 것을 알 수 있다.
그림 11. 그래디언트 어레이 및 계단식 어레이
(4대의 Xsub 우퍼, 오른쪽 관객석)
그림 12. 곡선 어레이와 계단 곡선 어레이
(4 대의 Xsub 우퍼, 오른쪽 관객석)
TECHNICAL REPORT - 서브우퍼 어레이
69
SSM STAGE SOUND MAGAZINE VOL.08
패턴 폭의 문제 해결 방안은 어레이를 곡선 모양 또는 계단 모양으로 배치하여 빔
포밍(Beamforming)을 이용하면 커버리지 폭을 넓게 하거나 패턴을 보다 부드럽게
할 수 있다(그림 12 참조).
② 무대 좌, 우 배치 시의 어레이 시스템 : 무대 좌, 우에 서브우퍼를 배치할 경우 좌, 우
측 어느 한쪽의 어레이 패턴만을 이해해서는 안 된다. 무대 좌, 우측에 서브우퍼를
설치 할 경우 두 어레이를 동시에 고려해야만 최적의 효과를 볼 수 있다. 한쪽의 지
향성을 완벽하게 조정했다 하더라도 왼쪽 어레이는 왼쪽 관객만을 커버하고 오른쪽
어레이는 오른쪽 관객만을 커버하지 않는다. 양쪽의 스피커를 동시에 가동할 경우
좌, 우측의 서브우퍼는 패턴이 겹치게 되고 불필요한 로브(lobe)가 발생하게 된다.
시스템 설계의 목표는 관객 전체를 커버하면서 동시에 로브(lobe)를 최소화하는 것
이다.
어레이가 약 3m보다 넓은 경우 좁은
패턴을 이용하여 로브를 줄일 수 있다.
왼쪽과 오른쪽의 빔을 무대 뒤로 향하게
하면 중앙의 패턴이 중첩되는 것을 줄이
고, 동시에 전체적인 커버리지를 확장시
킬 수 있다. 그림 13과 같이 상단 그림은
우퍼 어레이를 30도 정도 무대 뒤쪽으
로 직선 형태 배치한 것으로 90㎐에서
0점은 무대 안쪽으로 지향성이 깊게 들
어가게 되고, 커버리지가 개선되는 것을
알 수 있다.
빔 포밍은 우퍼를 무대 뒤쪽으로 배치
했을 때와 거의 같은 효과가 있다. 그림
14는 그림 13의 배열에 빔 포밍을 위해
각각의 우퍼마다 딜레이를 적용했을 때
의 효과를 나타낸 것이다. 그림 13 대비
매우 만족스러운 커버리지 패턴을 구축
할 수 있다.
그림 13. 무대 뒤로 향한 그라운드 스택 우퍼
(한쪽에 3 개의 Xsub, 스테이지의 폭은 15m, 평면도, 오른쪽 관객석)
그림 14. 빔 포밍 무대 뒤로 방사
(각 측면에 3 개의 Xsub, 스테이지의 폭은 15[m], 평면도, 오른쪽 객석)
70
TECHNICAL REPORT
플라잉 서브우퍼 어레이(Flying Subwoofer Array)는 일반적으로 캐비닛의 너비
가 하나의 캐비닛 또는 두 개 정도의 캐비닛 너비로 구성되며, 매우 넓은 수평 커버
리지를 가지고 있다. 또한, 이 어레이는 일반적으로 길고, 수평 커버리지에 비해서
수직 커버리지는 매우 좁은 특징을 가지고 있다. 특히 맨 앞 열의 좌석에서 초저역
이 들리지 않을 수 있는 문제가 발생한다. 세팅 방법은 다음과 같다.
그림 16은 그림 15와 같은 어레이 패턴이지만, 빔 포
밍을 적용하지 않았다. 커버 레인지 각도는 좁고 주파
수 의존성이 보다 강하게 된다. 그림 16의 어레이는
길고 좁은 장소(예를 들어 퍼레이드 행진 루트)의 커
버에는 유효하지만 보통 공연장에서는 그림 15에 표
시된 빔포밍을 이용한 세팅이 적합하다.
그림 16. 12대의 Xsub 우퍼를 중앙으로 정렬 빔 포밍은 사용하지 않음
그림 15는 빔 포밍 적용 시를 상세하게 나타낸 것으
로 튜닝에 주의가 필요하다. 딜레이 값을 보면 동등하
게 적용하지 않았다. 보통 딜레이의 증가 폭은 어레이
의 양 끝단으로 갈수록 점점 커진다. 실제로 빔 포밍
을 설계해 보면, 어레이의 양쪽에서 딜레이를 크게 할
수록 방사 패턴과 커버리지 확대에 있어서 모두 좋은
결과를 얻을 수 있다.
그림 15. 12대의 Xsub 우퍼를 중앙으로 정렬, 빔 포밍을 이용
(평면도, 오른쪽 관객석)
③ 큰 중앙 스택 : 대규모 공연장이나 야외 무대에서는 서브우퍼를 무대 전면에
한 줄로 배치하여 설치하는 경우가 많다. 무대 형태, 무대 연출에 지장이 없는 범
위에서 전면에 설치면 편리하기 때문에 자주 사용하게 된다
전면에 한줄로 배치하여 설치 시에 세팅 방법으로 빔 포밍 딜레이를 사용하면
우수한 한 결과 값을 얻을 수 있다. 그림 15는 12개의 Xsub 우퍼를 일렬로 딜레이
를 최적 값으로 설정했을 때의 지향성을 나타낸다.
7. 플라잉 어레이
Flying Array
TECHNICAL REPORT - 서브우퍼 어레이
② 서브우퍼를 플라잉 어레이 외에도 중앙 무대에 여러 대의 그라운드 스택 우퍼를 추
가한다. 그라운드 스택 우퍼는 앞 열의 영향을 받는 영역까지만 커버할 수 있도록 음
량을 조절해야 한다. 딜레이와 레벨은 앞 10열에서 20열까지 균등하게 커버하도록
조정한다. 이것은 일반적인 방법이지만 균등하게 커버하도록 조정하는 것은 복잡하
고 어려운 설정 작업이다.
③ 일반적으로 플라잉 어레이에서 가장 효과적인 테크닉은 빔 포밍(Beamforming)을
사용하는 것이다.
그림 17부터 그림 19는 LAPS 라인 어레이
모델러의 결과이다. 대표적인 2개의 발코니
를 가진 극장에서 플라잉 서브우퍼 라인 어
레이(8대의 XLC-215 우퍼)의 세팅을 바꾸
었을 때의 성능 차이를 나타내기 때문에 수
평 로빙(Lobing) 문제는 분석하기 어렵지
만, 수직 패턴의 조정에 있어서 패턴 분석을
지원 할 수 있다. 그림 17은 커브, 그래디언
트, 빔 포밍(Beamforming)없이 간단한 플
라잉 어레이를 나타낸다. 분명히 저역의 문
제가 있는 것을 알 수 있다. 그림 17. 빔 포밍 및 그래디언트 방식을 미적용
그림 18은 그림 17과 같은 어레이로 구성
하고, 2대의 XLC-215 우퍼를 추가하여 무
대 또는 무대 전면에 쌓아 올린 방식이다.
프론트 필(Front-fil)용 우퍼는 2.0mSec 지
연시킨다. 곡선의 모양은 딜레이 값에 매우
민감하다. 저음의 성능은 향상되지만, 그 특
성은 좋지 못하게 된다.
그림 18. 빔 포밍 및 그래디언트 방식을 미적용
(2 대의 XLC-215 우퍼를 프론트 필용으로 그라운드 스택)
① 플라잉 어레이는 그림 10, 그림 12와 같이 수평면에서 곡선 형태로 배치하는 것이 아
닌 수직면에서 곡선 형태로 배열한 것이다. 주로 중, 고음 스피커 어레이와 서브 우
퍼 어레이를 앞 뒤로 겹쳐서 구성하거나 서브우퍼를 위쪽에 중, 고음 스피커를 아래
쪽으로 일렬로 배치하면 시각적으로도 매우 우수하게 된다. 그러나 이 세팅은 스피
커를 높게 쌓았을 경우에만 효과가 있다.
71
SSM STAGE SOUND MAGAZINE VOL.08
72
그림 21. 공연장 중앙에 플라잉 한 12대의 Xsub
이러한 모든 세팅 예에서는 전체적으로 앞쪽과 뒤
에서 12 ~ 14㏈정도의 저역쪽에서 레벨 차이가 있어
만족스럽지 못한 결과가 된다. 이 문제를 해결하는 완
벽한 세팅은 사실상 매우 어렵다.
공연장 규모에서는 가능하다면 앞에서 뒤까지의 저
역 SPL을 균일하게 하기 위한 하나의 가장 효과적인
기술은 트림(Trim)을 높게 설정하는 것이다. 먼저 나
온 그림과 같은 세팅은 스택 상단까지의 트림 높이가
10m정도이다. 그림 20는 그림 19와 같은 빔 포밍 어
레이의 결과이지만, 스택 상단까지의 트림 높이를
20m정도 높인 것이다. 앞과 뒤의 레벨 변화는 매우
적게 된다.
그림 20. 빔 포밍을 적용 (트림 높이 20[m])
위의 결과에 간단한 빔 포밍(Beamforming)을 조금
더하면 그림 19와 같이 효과를 얻을 수 있다. 스택 하
단의 2개의 스피커 캐비닛은 4mSec 지연시킨다. 다
른 프로세싱은 적용하지 않는다.
그림 19. 빔 포밍을 적용
(하단의 2개의 스피커 캐비닛은 4.0[mSec]지연)
TECHNICAL REPORT - 서브우퍼 어레이
73
SSM STAGE SOUND MAGAZINE VOL.08
김 종 식
엠테크 대표
(사)무대음향협회 서울지부
정보통신기술사
알립니다.
지면 관계상 ‘서브우퍼 어레이’ 기사는 3회에 걸쳐
연재할 예정입니다.
싣는 순서
1회 (SSM Vol.07)
개요, 음향개념, 게인음영
2회 (SSM Vol.08)
그래프와 어레이 설계 도구, 우퍼 어레이 유형,
그라운드 스택 어레이, 플라잉 어레이
3회 (SSM Vol.09)
경사(그라이디언트) 어레이, 서브우퍼 설정
플라잉 형 중앙 초저역 라인 어레이(Flown Center Subbass Line Arrays) :
연출이나 무대 장치에서 가능하면 중앙의 서브우퍼 플라잉 스택은 좋은 결과를
얻을 수 있다. 로빙(Lobing)은 없으며, 수평 커버리지는 기본적으로 360도이고, 수
직 커버리지는 빔 포밍(Beamforming)을 적절하게 조정할 수 있다.
그림 21은 공연장 중앙에 12개의 Xsub 우퍼를 매달았을 때의 커버리지를 나타낸
것이다. 우퍼는 똑바로 매달아 최적으로 설정된 빔 포밍(Beamforming) 딜레이가
적용된 것이다. 또한 레벨 쉐이딩(level shading)이 적용되었다. 그 결과, 초저역의
커버리지 패턴은 청취 영역에 걸쳐 소리의 밸런스가 일정하게 유지된다.
이 예에서는 딜레이는 2개의 세트에 적용되었다. 즉, 인접한 1조의 우퍼를 구동 채
널을 공유한다. 이것은 각 우퍼 구동부와 앰프 채널을 제공하는 것보다 경제적이다.
반면 각 우퍼로 구동 채널을 이용할 수 있는 것이 좋은 커버리지가 가능하다.
다음 호에 계속. SOUND
STAGE
*위 기술원고 내용은 [Jeff Berryman, 'Subwoofer Arrays (A Practical Guide)',
White Paper, June 7. 2010]을 번역하였습니다.
74
TECHNICAL REPORT
Automatic Backup AV system using AVoverIP Technology
AV over IP 기술을 활용한
무중단 AV System 구성에 관하여
이 석 주 | (주)테크데이타피에스 음향기술연구소 부장 / 대림대학교 방송영상음향학부 겸임교수
요약 정보통신 기술의 발달은 방송 기술과 장비들의 발전을 동반하였다. 전통적인
신호 연결 인터페이스(Interface)들과 전송 규격들은 보다 나은 품질을 요구
하는 시대의 흐름에 맞춰 발전을 거듭해 왔다. 특히 아날로그 시스템의 복잡한 배선
문제와 노이즈 유입을 해결하기 위해 고품질 디지털 오디오/비디오의 실시간 전송
기술에 대한 관심이 모아지게 되면서 Standard IT 기술을 이용한 방송 솔루션이 트
렌드로 자리잡아 가고 있다. AV over IP라고 불리는 솔루션이 제공하는 기술의 특성
을 알고 잘 활용할 경우 보다 다양한 방법으로 시스템을 구축할 수 있어 이전보다 높
아진 경제성, 운영의 편리성 및 효율성, 시스템 안정성을 확보할 수 있다.
1. 서론 Standard IT 네트워크(Network) 통신 기술을 이용한 오디오/비디오 프로토콜은
프로현장에서 뿐만 아니라 일상 생활에서도 널리 쓰이기 시작해 이동 중에도 자유롭
게 모바일 기기로 스트리밍 음악을 듣거나 영상을 볼 수 있게 되었다. 1990년도 후반
부터 본격적으로 시작된 디지털 오디오 프로토콜의 개발과 함께 통신 인프라를 활용
한 프로 수준(Pro-Grade)의 전송 기술은 날이 거듭할수록 발전하여 보다 많은 채널
의 디지털 오디오를 매우 짧은 시간 안에 실시간에 가깝게 전달할 수 있는 수준에 이
르렀고, 이제는 오디오를 넘어 비디오도 실시간에 가깝게 전송 가능한 규격들이 개발
되어 출시되고 있다. 이 모든 디지털 AV 프로토콜들은 OSI-7 계층에 기반한 표준 네
트워크 통신 기술에 기반하여 개발되어 신호의 감지 및 백업, 분배 및 라우팅에 대한
접근이 전통적인 기술들에 비해 비교적 개방적이다. 전송 인프라와 주/예비 신호 전
송 단말기를 이중화하고 신호 감지 기능을 통해 장애가 발생한 신호와 동일한 신호를
다른 경로를 통해 수신하면 최종 단말기에 전송되는 신호가 중단되지 않고 운영이 가
능한 시스템을 구축할 수 있다. 본문에서는 AV over IP 솔루션과 표준 네트워크 통신
기술을 사용하여 프로젝트에 실제 적용된 자동 백업 AV System에 대해서 고찰한다.
TECHNICAL REPORT - AV over IP 기술을 활용한 무중단 AV System 구성에 관하여
75
SSM STAGE SOUND MAGAZINE VOL.07
2. AV Over IP
시스템의 특징
75
SSM STAGE SOUND MAGAZINE VOL.08
2.1 기본 구성
2023년 최근의 한 조사에 의하면 네트워크를 기반으로 하는 AV 장비의 경우 약
552개 브랜드의 5,219개로 매년 증가하는 추세에 있으며 이들 제품들은 매년 증가할
뿐만 아니라, 다양한 카테고리로 적용 범위가 확산되고 있음을 알 수가 있다.
이러한 AV over IP 솔루션은 기본적으로 오디오/비디오 신호의 입력을 받아 IP 신
호로 변환을 해주는 인코더(Encoder)와 IP 통신을 중계해주는 네트워크 스위치, 그
리고 IP로 변환된 데이터들을 다시 오디오/비디오 신호로 변환시켜주는 디코더
(Decoder) 장비로 구성된다.
표 1. 2023년 분야별 Audio Over IP 제품 및 제조사 현황(출처 : RH컨설팅 2023년 조사 자료)
2.2 케이블 비용 및 배관배선 간소화
그림 1. AV over IP의 기본 구성
이들 장비들은 모두 표준 IP 네트워크 통신 환경에서 완벽하게 동작한다. 뿐만 아니
라 장비 연결을 위한 케이블 또한 CAT5e, CAT6 등과 같은 표준 UTP 케이블을 사용
하며 전송 거리 또한 UTP의 통신 한계 거리인 100m까지이다. HDMI 신호를 100m
76
TECHNICAL REPORT
2.3 신호 분배 및 라우팅
네트워크 스위치로 연결된 오디오/비디오 신호들은 디지털 형태로 존재하는 데이
터이므로 분배 및 저장, 라우팅에 있어서 전통적인 집합 장치 기반의 시스템보다 유
연하다. 모든 디지털 음성/영상 데이터들은 유니캐스트(Unicast)로 네트워크 상에서
1:1로 통신하거나 멀티캐스트(Multicast)처럼 1:多로 신호를 전달하는 방법을 사용하
여 네트워크에 연결되어 있는 장비들에게 전달하며 전송 속도는 네트워크 스위쳐의
전송 속도와 동일하다.
그림 2. 기존 방식과 AV over IP 방식 비교
3. 대표적인
AV Over IP
솔루션들
전송하기 위해서는 광케이블로 변환하여 전송하는 방법이 유일하였기에 보다 저렴
한 케이블로 먼 거리를 안정적으로 전송할 수 있다는 장점이 있다. 이외에 전송 채널
과 관련된 장점도 있다. 아날로그 오디오의 경우 64채널 멀티케이블을 이용해 전송
하던 구간을 Audio over IP 기술을 활용하게 되면 단 1개의 CAT5e 케이블로 64채널
이상 100m까지 전송이 가능하다. 또한 비디오 역시 HDMI나 동축케이블로 전송하
던 구간을 CAT5e 수준의 UTP로 전달하므로 시공과 설치가 간편하고 배관배선 비용
이 절감되는 장점이 있다.
AV over IP 솔루션은 비디오 전문 장비 제조사와 오디오 장비 제조사들에 의해 각
각 독립적으로 발전한 과거를 가지고 있다. 표준 통신 기술을 기반으로 하면서도 각
분야에서 원하는 목적이 달랐기에 상호 호완성을 고려치 않고 독자적인 플랫폼을 구
축하는데 여념이 없었다. 하지만 머지않아 이를 관리 및 통제하기 위한 논의가 시작
TECHNICAL REPORT - AV over IP 기술을 활용한 무중단 AV System 구성에 관하여
77
SSM STAGE SOUND MAGAZINE VOL.08
3.1 대표적인 Audio Over IP 프로토콜들
대표적인 Networked Digital Audio 프로토콜은 다음과 같다.
장비 간 물리적 레이터 연결 위주의 오디오 전송 방식은 제외하고 스탠다드 IP 기
술을 활용한 오디오 프로토콜만을 추려보면 다음과 같다.
3.1.1
CobranetTM
1996년 Peak Audio사(Analog
Device에 합병됨)에 의해 개발된 네트
워크 기반의 디지털 오디오 전송 포맷
의 1세대 프로토콜이다. 100Mbps 기
반의 Fast Ethernet 환경에서 동작하
도록 만들어졌다. 단일 CAT5e 케이블
하나로 64채널(32 32 동시에 사용 가능)의 비압축 PCM 오디오(20bit 48kHz)를 송/
수신할 수 있다. 디지털 방송 장비로 이중화 포트를 통해 (Primary / Secondary) 네
트워크에 연결된다. Bundle(번들)이라는 개념의 오디오 채널들의 묶음 형태로 전송
된다. 해당 프로토콜을 사용하기 위해서는 제조사에 라이선스 비용을 지불해야 한다.
그림 3. 코브라넷 오디오 모듈
되었으나 이 역시 각 사의 이해 관계가 복잡하여 실패한 조별과제처럼 마무리되었다.
그럼에도 불구하고 최근에는 서로의 필요에 의해 일부 영역에서 상호 연합의 형태로
협력을 지속하고 있다. 비디오와 오디오라는 다른 분야끼리 협력이 가능한 이유 또한
네트워크 데이터 통신이라는 표준 데이터 통신 규격을 따르는 플랫폼 위에서 동작하
도록 그들의 시스템 및 장비가 제조되었기 때문이다. 오디오와 비디오 등의 각 프로
토콜들은 표준 통신 기술에서 동작하도록 데이터 전송 포맷이나 수신 방법, 데이터
동기화 방법, 주소 체계 등이 IEEE(국제전기전자공학자협회/Institute of Electrical
and Electronics Engineers)의 규칙을 준수하고 있다. 다만 실시간에 가깝도록 전송
및 송출을 목표로 하기 때문에 전송 레이턴시(lateancy)가 매우 짧은 특징을 가지고
있으며, 이 때문에 데이터를 중계해줘야 하는 네트워크 인프라는 특정 기능을 요구
받으므로 그에 대한 대응 능력이 있는 통신 인프라를 갖추어야 한다. 때로는 이러한
특별한 기능 때문에 전체 인프라 구성 비용이 상승하는 요인이 되기도 한다. 따라서
네트워크 기반의 솔루션을 구축하기 위해서는 시작의 첫 단추를 방송 장비 전문가가
아니라 네트워크 통신 전문가와 먼저 함께하는 것이 좋다.
78
TECHNICAL REPORT
3.1.2 DanteTM
2006년 호주 Audinate사에 의해
영리목적으로 개발된 기가비트 네트
워크 오디오 프로토콜이다. 현재는 야
마하(Yamaha)에 인수되어 야마하사
의 디지털믹서에 광범위하게 사용 될
뿐만 아니라 이 글을 쓰고 있는 2023
년 현재 전세계에서 가장 많은 사용자와 제조사를 보유하고 있다. 코브라넷에 비해
매우 짧은 지연시간으로 인해 거의 실시간에 가깝게 송수신 한다고 볼 수 있다. 코브
라넷과 마찬가지로 주/예비 포트를 통해 네트워크에 연결되는 방식이나 코브라넷과
달리 각 포트에 독립적인 MAC 주소를 가지고 있다는 차이점이 있다.
3.1.3
AVB (Audio Video Bridge)
2011년 IEEE(Institute of Electrical
and Electronics Engineers)가 개발한
오디오+비디오 전송 프로토콜로 비영
리 단체에 의해 개발되어 무료로 사용
가능한 프로토콜이다. STREAM(스트
림)이라는 개념으로 채널들을 전송한
다. 최대 64x64 스트림으로 운영 가능
하며 1 Stream에 최대 32채널을 운영할 수 있다. AVB는 오디오 뿐만 아니라 비디오
를 서로 다른 경로와 샘플레이트로(Sample Rate)로 전송 가능하다는 장점이 있다.
AVB는 데이터 동기를 위한 네트워크 클럭방식이 여타의 다른 오디오 프로토콜들과
다른 방식으로 구현하기 때문에 AVB를 지원하는 스위치 허브를 사용해야만 한다. 비
디오 제조사들과 오디오 제조사들의 기대를 한 몸에 받았으나 펌웨어 호완성 문제,
상호 의견 충돌로 인해 시장에서 안착하는데 시간이 오래 걸렸으며, 최근에는 AVB
진영 내 Milan(밀란)이라는 또 다른 프로 오디오 그룹 연합에서 적극적으로 사용 중
이다.
3.1.4
Q-LANTM
2009년 QSC사에 의해 개발된
512x512 CH을 사용할 수 있는 실시간
비압축 전송 기가비트 네트워크 오디
오 프로토콜이다. 현재는 QSC사의
Qsys 장비에서만 사용 가능하다. 다
그림 6. Q-LAN을 통한 시스템 통합
그림 4. 단테 오디오 모듈
그림 5. AVB 오디오 모듈
TECHNICAL REPORT - AV over IP 기술을 활용한 무중단 AV System 구성에 관하여
79
SSM STAGE SOUND MAGAZINE VOL.08
대표적인 Networked Digital Video 프로토콜은 다음과 같다. 이 역시 2.1항에서 확
인한 프로토콜과 같은 방식으로 표준 네트워크 통신 환경에서 동작하는 기술들이다.
다만 각 프로토콜들이 담고 있는 비디오 데이터의 압축 여부와 데이터를 최소화하기
위한 압축 알고리즘은 상이하다. 비디오의 경우 오디오보다 비교도 안될 정도로 데이
터 양이 많기 때문에 충분한 네트워크 전송 대역폭을 확보하는 것이 관건이다. 여러
가지 네트워크 기반의 비디오 프로토콜 중 가장 시장에서 활발히 생산되는 솔루션 위
주로 알아보면 다음과 같다.
3.2 대표적인 Video Over IP 프로토콜들
른 여타의 프로토콜과 차이점은 2개의 이중화된 포트를 사용자가 용도별로 바꾸어
쓸 수 있다는 점이다. 예를 들어서 A 포트로 연결된 네트워크에서는 오디오와 장비
제어를 위한 통신을 할 수 있도록 하고, B 포트에서는 트래픽이 많은 비디오 네트워
크를 구성하여 쓴다든지 하는 유연성이 제공된다. 최근에는 제조사에 의해 IT 친화적
인 모습으로 생태계를 확장하고 있는데, 단순히 오디오 프로토콜로만 머물러 있는 것
이 아니라 여러 가지 이 기종의 프로토콜들을 생태계 내에 끌어들여 호완성을 높이는
형태로 비즈니스를 확장하고 있다. 영상 전송을 위한 카메라 뿐만 아니라 비디오 브
릿지 장비도 등장하여 Q-LAN 네트워크에서 같이 동작할 수 있다. 어찌보면 AVB가
원하던 것을 Q-LAN에서 하고 있다는 착각이 들 정도이다.
3.1.5
AES67
2013년에 AES(Audio Engineering
Society)에 의해 규격화된 기가비트
네트워크 오디오 프로토콜이다.
RAVENNA, Livewire, Q-LAN and
Dante 같은 IP-based audio
networking 프로토콜을 포괄적으로
수용하고 경우에 따라서 Layer2 프로
토콜인 AVB도 수용 가능하다. AES67
이 가지는 장점이 바로 이 부분이다.
Q-LAN에서 전송한 오디오가 AES67 호완 모드로 설정되었을 경우 Dante를 사용
하는 장비에서도 수신이 가능하고 그 반대도 가능하게 된다. 또한 기가비트 오디오
프로토콜로 발표된 여타 다른 프로토콜과의 상호 호완성에도 높으므로 가장 많은 제
품들이 AES67이라는 중립 지대에서 상호 연동이 가능하다.
그림 7. AES67 오디오 호환 범위
80
TECHNICAL REPORT
3.2.1 AMX. SVSI
대한민국 삼성전자가 대주주로 있는
Harman Group 산하 브랜드인 AMX
의 네트워크 기반 AV 전송 솔루션이
다. 1Gbps 대역폭에서 4K UHD 해상
도까지 전송하도록 되어있다. 제품 라
인업에 따라 전송 레이턴시를 최소화한 LAN 기반 솔루션부터, WAN 환경에서도
H.264 스트리밍이 가능한 제품군까지 다양한 라인업을 가지고 있다.
3.2.2 SDVoE (Software Defined Video Over Ethernet)
SDVoE는 LAN 네트워크
환경에서 최적화된 10G bps
기반의 AV 전송 프로토콜이
다. SDVoE Aliance(연합) 형
태로 시작이 되었는데 창립
멤버는 AptoVision, Aquan-
tia, Christie Digital, NET-
GEAR, Sony 및 ZeeVee이
고 현재 많은 제조사들이
이에 참여하고 있다.
AMX.SVSI는 1G 망에서 비디오 데이터를 최소한으로 압축을 해 네트워크 인프라
구성 비용을 절약하는 방식을 선택하였고 SDVoE는 0 레이턴시를 목표로 고속의 네
트워크 환경에서 데이터 전송 속도의 이점을 활용하여 레이턴시를 줄이는 전략을 선
택하였다. 이 때문에 네트워크 인프라 구성 비용이 1G 망에 비하여 상대적으로 높다.
이름에서 알 수 있듯이 OSI-7레이어의 최상단 어플리케이션 레이어까지 구성되는
API(Application Programming Interface) 공개를 통해 SDVoE 연합에 참여하여 제
품을 생산하고 판매를 할 수 있다.
3.2.3 NDITM (Network Device Interface)
NDI는 LAN 기반의 표준 이더넷 네
트워크를 통해 고품질의 비디오, 오디
오 및 제어 신호를 실시간 및 최소한의
대기 시간으로 분배할 수있는 네트워
크 프로토콜이다. NDI는 네트워크 환
경에 맞춰 효율을 중시한 전송 버전인
그림 9. SDVoE 구성 개념도
그림 10. NDI 구성 개념도
그림 8. AMX. SVSI 솔루션 단말기
TECHNICAL REPORT - AV over IP 기술을 활용한 무중단 AV System 구성에 관하여
81
SSM STAGE SOUND MAGAZINE VOL.08
NDI/HX와 퀄리티 위주의 NDI 버전으로 구분된다. 이 말은 기존에 구축되어 있는 네
트워크 환경을 고려하여 사용자가 약간의 레이턴시를 감안하더라도 효율을 선택할
것인지, 전송 속도나 화질을 우선할 것인지에 대한 선택이 가능하다는 말이다. 현재
카메라에서 바로 NDI를 지원하는 제품들이 많이 출시되고 있는데 이 경우 단일
CAT5e 이상의 케이블을 사용하여 UTP 케이블의 최대 전송 거리인 100m까지 손쉽
게 전송이 가능하다. 사실 Video Over IP 솔루션 적용 시 모두에게 해당하는 내용이
지만 NDI의 경우에는 특히 영상 기기 제조사들이 좀 더 적극적으로 자사의 제품들에
NDI가 지원되도록 네트워크 포트를 탑재하는 경우가 늘어나고 있다. 이 기술을 제품
에 적용하기 위해 개발사에 기술 사용료를 지급해야 하는 유료 버전의 기술이다.
AV over IP의 전송 핵심 인프라는 네트워크 장비로 구성된 백본(Backbone)이다.
프로토콜의 규격에 따라 요구하는 네트워크 환경이 조금씩 상이하나 대부분의 AV
over IP 솔루션들은 표준 네트워크 통신 프로토콜을 사용한다. 따라서 일반적인 스위
치 허브(Switch Hub)나 라우터(Router) 등의 네트워크 통신 장비를 사용하여 구성
이 가능하다. 이중화된 네트워크 구성 방법은 물리적인 망 이중화 방법과 논리적인
망 이중화 방법이 있다.
4.전송 및 운영
인프라
이중화 방법
물리적으로 네트워크를 이중화하는 방법은 가장 확실하고 쉬운 방법이다. 통신을
하는 단말기가 연결되는 네트워크를 물리적으로 분리하여 Primary-네트워크와
Secondary-네트워크로 운영할 경우 각 네트워크 중계를 위한 네트워크 스위치의 수
량이 2배로 늘어나게 된다. 비용의 증가를 가져오는 부분이지만 네트워크 스위치의
물리적인 장애 발생 시 대응이 가능하다는 장점이 있다. 이 구성의 대표적인 장점과
단점을 정리하면 다음과 같다.
4.1 물리적 이중화 방법
장 점
스위치 허브 환경 설정 작업 불필요
물리적인 장애(고장) 시에도 네트워크 기능 유지
전체 스위치 포트를 활용 가능하므로 다수의 장비 연결결
단 점 하드웨어 비용 증가가
표 2. 물리적 이중화 구성의 장단점
그림 11. 물리적 이중화 네트워크 구성
5. Audio Over IP
이중화 방법 디지털 오디오 데이터를 네트워크 인프라에서 이중화하는 방법은 간단하다. 프로
수준(Pro-grade)의 Network Audio 장비들은 대부분 이중화된 네트워크 환경에서
동작할 수 있도록 Primary와 Secondary 포트를 제공한다. 따라서 각 포트를 분리된
5.1 이중화 포트를 지원하는 장비 사용
82
TECHNICAL REPORT
논리적인 이중화를 하는 대표적인 방법은 VLAN(Virtual Local Area Network)이
라고 하는 구성이다. 이는 스위치 허브라는 하드웨어 수량은 물리적인 이중화의 절반
으로 할 수 있는 장점이 있다. 스위치 허브 내부에서 논리적으로 구분을 하여 통신을
하는 방법으로 물리적으로 같은 네트워크 스위치에 연결이 되어 있지만 Primary-
VALN1과 Secondary-VALN2로 분리가 되면 VLAN1과 VLAN2에 연결된 단말기들은
서로 통신을 할 수가 없다. 이 경우 한쪽 네트워크에서 과도한 오디오/비디오 트래픽
이 발생하여 장애가 발생하더라도 스위치 허브는 각 포트에 물리적으로 연결되어 있
는 각각의 VLAN 주소를 보고 트래픽 전달 여부를 판단하기 때문에 서로 지장을 주지
않는다. VLAN을 효율적으로 활용하는 또다른 방법으로 Audio 장비와 Video 장비들
을 서로 분리하여 각 분야의 프로토콜이 요구하는 네트워크 환경 설정을 통해 상호
간섭 없이 안정적으로 통신이 가능하도록 구성할 수 있다.
4.2 논리적 이중화 방법
장 점
스위치 허브 하드웨어 비용 절약
V1과 V2의 트래픽 간섭이 없음
V1과 V2간 환경 설정을 다르게 적용 가능
네트워크 구성 시 효율적으로 하드웨어 활용
단 점
스위치 허브 하드웨어 장애 시 모든 네트워크에 장애 발생
스위치 허브 환경 설 정작업 필요
스위치 포트를 나눠서 사용하므로 다수의 장비 연결에 한계
업링크를 통한 대규모 네트워크 구성 시 사용자의 주의 필요
표 3. 논리적 이중화 구성의 장단점
그림 12. 논리적 이중화 네트워크 구성 예
TECHNICAL REPORT - AV over IP 기술을 활용한 무중단 AV System 구성에 관하여
83
SSM STAGE SOUND MAGAZINE VOL.08
그림 13. 디지털 네트워크 오디오 장비의 이중화 포트
네트워크에 연결하여 구성을 하면 된다. 하지만 모든 네트워크 오디오 프로토콜들
의 백업 채널들이 꼭 분리된 네트워크에서만 동작하도록 만들어진 것은 아니다.
1996년도에 발표된 CobranetTM의 경우 이중화된 네트워크에 연결하기 위한 개별
포트를 지원함에도 불구하고 Primary와 Secondary 네트워크를 연결하여 하나의
네트워크로 만들어서 사용해도 문제가 없다. 하지만 Audinate사의 DanteTM와 같
은 일부 프로토콜들은 각 포트별로 독립적인 MAC(Media Access Control) Address
를 가지고 있으면서도 주/예비 네트워크 오디오 싱크(Sync)를 내부의 Primary
Master에서 가져오는 방식으로 동작하도록 만들어져 있어 같은 네트워크망에
Primary와 Secondary에 오디오의 동기화 데이터가 동시에 존재할 경우 장애가 발
생하는 경우도 있다.
5.2 이중화 포트가 없는 장비를 사용할 경우 이중화 방법
5.2.1.1 시그널 서밍(Summing)을 통합 방법
물리적인 이중화 포트가 지원되지 않는 오디오 장비의 경우 이중화된 신호를 서밍
(Summing)하여 해결할 수 있다. 이 경우 각 신호 경로의 도달 시간 차이를 고려하여
서밍하기 전에 시간차 보정을 해야만 콤필터링(Comb filtering)과 같은 왜곡을 피할
수 있다.
5.2.1.2 더킹(Ducking)을 이용한 방법
서밍을 통한 신호의 합성은 두 신호 간 우선 순위 없이 합성을 하는 방법인 반면에
다이나믹 프로세서(Dynamic Processor) 중 하나인 더커(Ducker)를 이용할 경우 두
신호 간 우선 순위를 지정하여 절체가 가능하다. 더커는 1개의 입력 신호를 출력하고
있다가 우선 순위가 높은 신호가 입력되면 기존 신호는 중지하고 우선 순위가 높은
그림 14. 콤필터링을 피하기 위한 서밍 프로세싱 방법
그림 15. DSP의 프로그램 화면
84
6. Video over IP
이중화 방법 아쉽게도 현재까지 Video Over IP의 이중화를 지원하는 제품은 거의 찾아보기 드
물다. 심지어 AVB(Audio Video Bridge)를 프로토콜로 사용하는 장비들은 백업을 위
한 Secondary를 생략하고 나오는 제조사들이 많다. 일부 영상제품들의 경우에는 동
일한 이더넷 데이터를 분리된 네트워크 망을 통해 송신하는 구조의 제품보다 각 네트
워크에 다른 프로토콜로 송출하는 듀얼 스트리밍 구조의 제품 형태로 생산이 되어 판
매되고 있다. 하지만 이 경우 동일한 데이터와 프로토콜을 사용해서 이중화를 구성해
야 하는 환경에는 적용하기 힘들다. 동일한 소스에 대해서 이종 프로토콜을 사용한다
는 말은 각 프로토콜이 가지는 고유의 전송 지연 시간(Latency)의 차이가 문제가 되
지 않는다는 환경을 의미하기 때문이다. 각 네트워크에서 독립된 지연 시간을 가지는
이종 프로토콜간의 지연 시간을 맞추기 위해서는 기술적으로 고려해야 할 부분이 많
아지므로 동일한 규격의 전송 프로토콜을 사용하는 단말기를 물리적으로 이중화하
는 구성이 가장 현실적인 방법이라 할 수 있다.
6.1 단말기 이중화
그림 16. Video over IP의 이중화 구성
단말기를 이중화하는 경우 얻게 되는 부가적인 장점도 있다. 비디오용 프로토콜
의 경우 임베디드(embedded)된 2 채널의 PCM 오디오 또는 DanteTM나 AES67 같
은 디지털 오디오 프로토콜을 함께 싱크를 맞춰 전송한다. Video 네트워크에서 디
지털 오디오 신호를 전송하는 이 기능을 이용하여 별도의 채널로 활용할 경우
Audio 부분에서는 또 하나의 전송 루트를 확보할 수도 있다. 다만 앞서 언급한 프
로 오디오 수준의 프로토콜과 함께 동기(Sync)를 하기 위해서는 네트워크 환경 설
정이 문제가 없는지 확인이 필요하다.
TECHNICAL REPORT
신호를 내보내는 기능이다. 이를 이용하여 두 신호가 동시에 입력되더라도 1개를
선택적으로 사용 가능하다.
TECHNICAL REPORT - AV over IP 기술을 활용한 무중단 AV System 구성에 관하여
85
SSM STAGE SOUND MAGAZINE VOL.08
Video over IP 솔루션에서 단말기를 물리적으로 이중화하고 수신측 디스플레이 장
비에서 신호의 우선 순위를 두고 선택적으로 신호를 수용할 경우 무중단 운영을 위한
이중화 솔루션 구축이 가능하다. 프로 오디오 분야에서는 Primary/Secondary의 이
중화된 네트워크 형태로 신호의 우선 순위가 지정되어 있지만 프로 비디오 분야에서
이러한 형태의 제품이 대중적이지 않다. 아직까지는 “1)단말기의 이중화”에서 언급한
물리적인 구성이 현실적인 대안이 된다.
하지만 물리적으로 이중화되어 2개의 신호가 전달될 때 최종으로 AV 신호를 디스
플레이 하는 장치(TV, 프로젝터, LED 전광판, 모니터 등)가 입력된 신호를 우선 순위
에 의해 Auto Switching을 하는 기능은 대부분 없다. 따라서 운영자가 장애를 인지
한 시점에서 수동으로 신호 변경을 해줘야 한다. 이러한 불편을 해소하기 위해서는
자동으로 입력 신호의 상태를 인지하고 백업 신호로 경로를 바꾸는 기능이 필요하다.
6.2 자동 절체 방법
6.2.1 장애를 인지하는 방법
IP를 통해 전달되는 비디오 신호를 인지하는 방법은 크게 두 가지 방법으로 가능하
다. 첫 번쨰는 네트워크로부터 신호의 단절을 확인하는 것이다. 네트워크 스위치는
끊임없이 목적지를 향한 데이터를 전송한다. 해당 전송의 문제가 발생하였다는 것은
네트워크 장애를 제외하고 단말기 통신에 문제가 생겼다는 의미이다. 따라서 통신 상
태를 실시간으로 확인하여 장애를 인지하는 방법이다. 대표적인 네트워크 상태 모니
터링 프로토콜에는 SNMP(Simple Network Management Protocol),
그림 17. 네트워크 단말기의 접속 상태를 확인하는 GUI
86
TECHNICAL REPORT
그림 19. 제어 단자를 이용한 직접 제어 프로세스
6.2.2 장애 인지 후 입력 신호 변환하는 방법
시스템이 Video Over IP 단말기나 통신의 장애를 인지한 이후 말단 디스플레이 장
비에 문제 없는 단말기의 신호가 전달되도록 해야 한다. 전체 시스템을 모니터링하고
관리하는 컨트롤 매니지먼트 시스템(Control Management System)은 장애 이벤트
발생 즉시 네트워크를 통하여 디스플레이 장치에 입력 신호 단자를 바꾸어서 수신하
도록 명령어(Command Massage)를 전송한다.
두번째는 비디오 단말기(인코더/디코더)의 상태 확인 프로토콜을 이용하는 방법이
다. 보급형 장비를 제외하고 프로 방송 기기 수준에서 제작되는 장비들은 대부분
3rd-Party 컨트롤러가 장비 모니터링 및 제어를 할 수 있도록 API(Application
Programming Interface)를 제공한다. 이 프로토콜 중 장비의 접속 상태나 동작 상태
와 같은 정보를 실시간으로 확인하여 장애 여부를 확인하는 방법이다.
그림 18. API를 이용한 장비 상태 확인 예시
ICMP(Internet Control Message Protocol) 등이 있다. SNMP는 호출 및 응답 시스
템을 사용해 스위치, 프린터 등 여러 디바이스 유형의 상태를 확인하는 애플리케이션
레이어 프로토콜이다. SNMP를 사용하면 시스템 상태와 구성을 모니터링할 수 있다.
그리고 라우터, 서버 등의 네트워크 디바이스는 ICMP를 사용하여 IP 작동 정보를 전송
하고 디바이스 오류 발생 시 오류 메시지를 생성하게 된다.
TECHNICAL REPORT - AV over IP 기술을 활용한 무중단 AV System 구성에 관하여
87
SSM STAGE SOUND MAGAZINE VOL.08
이와 같이 네트워크 통신 기술을 기반으로 한 AV over IP 솔루션에서 이중화된
시스템 구성을 하기 위해서는 우선 네트워크 중계 인프라를 이중화해야 한다. 네트
워크 송/수신 기능이 있는 프로 오디오 장비들은 기본적으로 이중화된 통신 포트를
지원하므로 큰 문제 없이 구축이 가능하지만 비디오 시스템의 경우 입력 장치인 인
코더와 출력 장치인 디코더를 물리적으로 이중화 구성을 해야만 가능한 현실이다.
더해서 현재 출시되어 사용되고 있는 비디오 디스플레이 장치들은 오디오 장비들
과 같은 입력 신호 우선 순위 절체 기능이 없어 별도의 시스템 매니지먼트 장비가
우선 순위에 의한 신호 선택을 대신해야 한다. 시스템 매니지먼트 장비는 방송 단
말기나 통신 환경에 장애를 인지하는 즉시 최종 목적지의 장비가 다른 경로에서 오
는 신호로 전환하여 화면을 송출하도록 제어하여 화면 중단 시간을 최소화하도록
한다. 이를 활용할 경우 사람이 수동으로 절체하던 기존의 방식에서 벗어나 시스템
이 자동으로 시그널 절체 및 복구 기능을 담당하게 되므로 비전문가로 이루어진 운
영자 집단의 입장에서는 운영 중 방송 사고를 미연에 방지하고 자동화된 운영이 가
능한 편리한 시스템이 된다. 또한 전문가 집단이 운영하는 시설의 경우에는 시설
전체에 오디오나 비디오의 전송 상태를 모니터링 할 뿐만 아니라 단말기의 상태를
실시간으로 확인이 가능하므로 장애 포인트를 사전에 점검이 가능하다. 또한 라이
브 환경에서의 방송 사고가 짧은 시간 내에 자동처리되므로 대응 시간을 벌 수 있
다는 장점이 있다.
7. 고찰 및 결론
SOUND
STAGE
이 석 주
㈜ Techdata 음향기술연구소 부장
대림대학교 방송영상음향학과 겸임교수
ICT 폴리텍대학교 강사
테크데이타 음향아카데미 수석 강사
한국수력원자력 주식회사 인재개발원 외래강사
전 Sovico 음향기술연구소 소장
전 Sovico 음향아카데미 총괄 수석
전 AACK 기술부 과장
그림 20. IP Decoder에 내장된 IR, RS232 제어 단자
IP 형태로 송출된 제어 명령어는 디스플레이 장치가 지원하는 형식에 맞게 IR(Infra-
Red)또는 RS232 신호로 변환되어 직접 전달하게 된다. 이 과정에서 해당 메시지의
변환 및 전달을 담당하는 것이 바로 AV over IP 수신 장비인 디코더(Decoder)이다.
해당 명령어는 Video 와 Audio stream이 전송되는 네트워크 포트(Port)와는 구분된
포트로 송/수신이 이루어 제조사들에 의해 권장되고 있다.
참고 문헌 및 사이트
1. 진강훈역, CCNA 라우팅&스위칭, (성안당(2017).
2. https:/avnu.org/
3. https:/sdvoe.org/technology/
4. https:/www.smpte.org/
5. https:/www.cobranet.info/
6. https:/www.audinate.com/
7. https:/www.amx.com/en/product_families/encoding-decoding
8. https:/www.hdmi.org
1. 스피커의 임피던스
스피커 시스템은 아주 복잡한 전기 기계적인 소
자(electromechanical device)이며, 그 동작을 정
량화하는 것은 간단하지 않다. 실제 스피커 임피던
스는 저항 성분 이외에 유도성과 용량성 성분을 가
지고 있다.
신호가 처음에 스피커에 가해지면 콘이 진동하
기 전에 시간 지연이 생긴다. 이것은 콘이 무게를
가지고 있기 때문이다. 그리고 콘이 움직이기 시작
하면 콘은 운동의 변화에 저항하게 된다. 따라서
앰프는 콘을 움직이기 위해서 더 많은 전류를 공급
해야 한다. 앰프가 스피커를 진동시키면, 스피커에
서는 역기전력 신호를 발생시켜 앰프의 전류 흐름
을 방해하게 된다.
스피커는 질량과 스프링으로 구성된 시스템으로
서 어떤 주파수에서는 질량 효과가 크고(유도성
부하), 어떤 주파수에서는 스프링 효과가 크다(용
량성 부하). 그리고 어떤 주파수에서는 두 효과가
상쇄되어 저항성 부하가 되기도 한다. 이와 같이
스피커의 임피던스는 순수 저항이 아니고, 리액티
브성 저항이다. 따라서 스피커의 임피던스 특성은
주파수에 따라서 저항성이 되기도 하고, 유도성 또
는 용량성이 되기도 한다. 유도성과 용량성 성분이
같으면 순수 저항성이 된다. 표 1에는 스피커와 전
기계의 대응 파라미터를 나타낸다. 그림 1에는 스
피커의 등가 회로를 나타낸다.
90
임피던스란 IV
음향 수학 - 임피던스 Part. IV
SOUND STUDY
글 | 강성훈
편집 | 최아름
1. 임피던스란, 복소수
2. 저항과 임피던스, 유도성 회로
3. 용량성 리액턴스, 임피던스
4. 스피커의 임피던스,
앰프의 출력 임피던스,
스피커 레벨과 라인 레벨 임피던스
5. 기기의 입출력 임피던스 구하기
6. 임피던스 매칭
7. 임피던스 브리징
91
SSM STAGE SOUND MAGAZINE VOL.08
그림 1. 스피커의 등가 회로
이와 같이 스피커는 저항, 인덕터, 커패시터 특성을 다 가지고 있으므로 임피던스는 그림 2와 같다. 기계 저항은
저항, 진동판의 질량은 인덕터, 에지와 댐퍼의 컴플라이언스(compliance)는 커패시터에 대응된다.
일반적으로 스피커 임피던스의 주파수 특성은 그림 3과 같이 공진 주파수(resonance frequency, f0)에서 피크
가 생긴다. 진동판을 손으로 가볍게 두드릴 때 나는 ‘퐁퐁’ 하고 울리는 소리의 주파수가 이것이다. 이 공진 주파
수는 스피커가 재생할 수 있는 저음의 한계이다. 공진 주파수에서 임피던스가 상승하는 것은 보이스 코일에 낮은
주파수의 신호 전류가 흐르면, 공진 현상에 의해 진동판이 크게 움직이기 때문이다. 그리고 코일 주변에는 강력한
자계가 있으므로 코일이 움직이면 역기전력이 신호 전류를 방해하는 방향으로 발생하므로 임피던스가 상승한다.
그림 3. 스피커 유닛의 임피던스 주파수 특성 예
스피커 전기계
F 힘 V 전압
V 속도 I 전류
M 질량 L 인덕턴스
Cm 컴프라이언스 C 컨패시턴스
Rm 기계 저항 R 전기 저항
표 1. 스피커와 전기계의 대응 파라미터
그림 2. 전기 임피던스와 스피커 임피던스
스피커의 임피던스가 8Ω이고 앰프의 댐핑 팩터가 100이면, 앰프의 출력 임피던스는 0.08Ω이 된
다. 또, 앰프의 출력 임피던스는 주파수에 따라서 다르므로 그림 5와 같이 댐핑 팩터의 주파수 특성으
로 표기한다. 앰프의 출력 임피던스는 주파수가 높아지면 커지므로 댐핑 팩터는 작아진다.
92
SOUND STUDY
f0 이상에서 임피던스는 점점 낮아지고, 그림 4와 같이 공진 주파수 이상에서 최초로 임피던스가
극소가 될 때의 값을 공칭 임피던스(nominal impedance or rating impedance)라고 정의한다. 그리
고 주파수가 증가하면 보이스 코일의 인덕턴스(XL=2fL)도 증가되므로 임피던스가 상승하게 된다.
그림 3의 임피던스 특성은 유닛의 특성이며, 인클로저와 네트워크 필터의 특성이 포함되면 더 복잡
한 형태가 된다.
이와 같이 임피던스는 주파수에 따라서 값이 변하므로 하나의 수치로 나타낼 수 없지만, 공칭 임피
던스는 스피커 시스템과 앰프의 매칭을 위해서 제조자에 의해서 결정되는 입력 임피던스 값이다. 공
칭 임피던스는 앰프에서 본 가장 손실이 작은 전력을 끄집어내기 위한 값이며, 대부분의 스피커 공칭
임피던스는 4, 8, 16Ω이다.
앰프의 출력 전압이 10V이고 스피커 임피던스가 8Ω이면, 파워는 12.5W(=102/8)가 된다. 이것은
스피커 임피던스를 8Ω으로 앰프의 파워를 계산하였지만, 실제로 스피커의 임피던스는 주파수에 따
라서 변한다. 고역에서는 임피던스가 커지므로 파워가 떨어지고 음압 레벨도 저하될 것이다. 그런데
도 불구하고 스피커에서 발생되는 음압 레벨은 어떻게 평탄한 주파수 특성이 얻어지는가?
앰프는 정전압(constant voltage) 회로이므로 출력 전압은 그림 4와 같이 모든 주파수에서 부하
저항 값에 따라서 달라지지 않고 일정하다. 따라서 음압 레벨 주파수 특성도 평탄하게 나타난다.
스피커의 임피던스, 앰프의 출력 임피던스, 스피커의 레벨과 라인 레벨 임피던스
그림 4. 앰프의 정전압 출력, 음압 레벨, 임피던스와의 관계
앰프의 출력 임피던스는 보통 명시되지 않지만, 댐핑 팩터(damping factor) 값으로 알 수 있다. 댐
핑 팩터는 다음 식과 같이 스피커 임피던스(ZL)를 앰프의 출력 임피던스(ZO)로 나눈 값이다.
2. 앰프의 출력 임피던스
음향 수학 - 임피던스 Part. IV
93
SSM STAGE SOUND MAGAZINE VOL.08
대부분의 앰프 사양에서는 댐핑 팩터의 주파수 특성 대신에 그림 6과 같이 저음의 댐핑 팩터나 또는 저음과 고
음에서의 댐핑 팩터만 표기한 경우가 많다. 그림 6의 예에서 250Hz 이하에서는 출력 임피던스는 0.02Ω (=8/
400)이고, 주파수가 높아지면 임피던스가 상승하여 250Hz에서 10kHz까지는 0.16Ω(=8/50)이다.
그림 7에는 여러 종류의 앰프의 사양에서 댐핑 팩터를 표기한 예이다. 대부분의 앰프에서 저역의 DF만 표기한
경우가 많고, 이것은 저음(10~400Hz)의 댐핑 팩터가 음질에 영향을 많이 주기 때문이다.
그림 5. 댐핑 팩터의 주파수 특성의 일례
그림 6. 앰프의 댐핑 팩터 표기 그림 7. 앰프 제조사별 댐핑 팩터의 표기
또, 스피커 케이블의 저항 값은 앰프의 출력 임피던스에 더해져서 댐핑 팩터가 작아지는 원인이 되고, 음질에
많은 영향을 준다. 예를 들어 앰프의 출력 임피던스가 0.1Ω이고, 스피커 임피던스가 8Ω이면 댐핑 팩터는 80(=8/
0.1)이다. 그런데 케이블의 저항 값이 0.3Ω이면 댐핑 팩터는 20{=8/(0.1+0.3)}으로 작아진다. 따라서 스피커 케
이블은 저항 값이 낮은 것을 사용하고, 길이도 짧게 배선해야 한다.
3. 스피커 레벨의 임피던스와 라인 레벨의 임피던스
스피커는 라인 레벨 기기보다 낮은 임피던스로 설계하는 이유는 무엇일까? 이것은 전류가 주요 원인이다. 임피
던스가 클수록 전류가 적게 흐르고, 임피던스가 작을수록 전류가 많이 흐른다. 음향 기기에서 사용하는 부품들은
작은 전류에서 동작한다. 전류가 많이 흐르면 민감한 전자 제품이 파손될 수 있다. 믹서, 이퀄라이저, 리코더 등의
음향 기기는 임피던스를 높게 해서 작은 전류로 동작하도록 하여 회로의 안전성을 좋게 하고, 비용도 절감하는
것이다.
반면에 스피커는 음향 기기의 출력 신호를 음으로 변환하기 위해 앞뒤로 진동해야 한다. 모터(보이스 코일과 자
기 구조로 구성)는 음파로 변환하기 위해 상당한 전기 에너지를 가진 레벨의 신호가 필요하다. 상대적으로 견고
그림 8. 앰프와 스피커를 실드 선으로 연결하면 저역 통과 필터가 형성된다.
그림 9. 신호 레벨과 임피던스에 따라서 사용하는 케이블 종류
94
SOUND STUDY
스피커의 임피던스, 앰프의 출력 임피던스, 스피커의 레벨과 라인 레벨 임피던스
하게 만들어진 스피커는 더 많은 전류가 필요하므로 임피던스를 낮게 만든 것이다. 스피커 레
벨은 라인 레벨보다 전류가 많이 흐르므로 스피커 케이블은 라인 레벨(또는 마이크 레벨) 케이
블보다 상대적으로 굵다.
라인 레벨 기기 간의 신호 전송은 신호 레벨이 낮고 임피던스가 크므로 외부 잡음이 유도되
기 쉽다. 따라서 기기 간을 실드 선으로 연결하여 외부 잡음의 유도를 최소화해야 한다. 실드
선은 케이블에 외부의 유도 잡음을 방지하기 위하여 내부의 전선을 원통형 정전 실드로 둘러
싸고 있다. 유도를 방지하기 위해서는 송신 측과 수신 측 사이에 실드 선을 사용하여 유도된 잡
음을 어스 라인으로 흐르도록 한다. 이와 같이 라인 레벨 기기 간의 연결은 실드 선을 사용해
유도된 잡음을 제거하는 것이다.
그러나 앰프와 스피커를 연결하는 스피커 케이블은 실드 선을 사용하지 않는다. 이것은 앰프
출력 신호는 고 레벨(high level, 수십V 단위)이고, 케이블에 잡음이 유도되어도 증폭되지 않고
신호에 영향을 주지 않기 때문이다. 스피커 케이블에도 잡음이 유도되지만, 앰프의 출력 임피
던스가 낮으므로(0.1Ω 이하) 잡음이 거의 유도되지 않는다. 만약 스피커 선 대신에 실드 선을
사용하면, 그림 8(b) (c)와 같이 저항과 콘덴서 회로로 구성된 저역 통과 필터가 형성되므로 고
역이 감쇠되어 음질이 열화된다. 또, 실드 선이 길어지면 정전 용량(C)이 커지므로 차단 주파수
도 낮아지고, 고역 감쇠가 많아진다.
그림 9에는 시스템 구성에서 신호 레벨에 따라서 사용하는 케이블 종류를 나타낸다. 마이크
레벨(mic level, mV 단위)과 라인 레벨(line level, 1V 전후) 기기는 잡음이 음향 기기로 유입되
지 않도록 실드 선을 사용한다.
이상을 정리하면, 신호 레벨이 낮고 임피던스가 큰 기기(마이크, 믹서, 음향 효과기 등)들을
연결할 때에는 실드 선을 사용하여 외부 유도 잡음을 차단한다. 그리고 레벨이 높고 임피던스
가 작은 기기(앰프)를 연결할 때에는 스피커 케이블을 사용한다.
음향 수학 - 임피던스 Part. IV
96
SOUND STUDY
태권 엑스엘알 (XLR)
SOUND
STAGE
양성원의
카드뉴스 #4
글, 구성 | 양성원 부천문화재단
96 양성원의 카드뉴스 - 컴프레서 감지기
97
SSM STAGE SOUND MAGAZINE VOL.08
98 양성원의 카드뉴스 - 컴프레서 감지기
99
SSM STAGE SOUND MAGAZINE VOL.08
100
SOUND STUDY
참고문헌
음향기술총론, 강성훈 박사 저, 사운드미디어
음향시스템의 기초, 강성훈 박사 저, 사운드미디어
오디오기술, 강성훈 박사 저, 사운드미디어
무대음향 I, I, II, 이돈응 저, 무대예술전문인 자격검정위원회
양 성 원
부천문화재단 음향감독
(사)무대음향협회 경인지부 기술위원
SSM 제작국 기술부
마리오음악공작소 운영자
양성원의 카드뉴스 - 컴프레서 감지기