최근 재즈신 등에서 DPA4099를 콘트라베이스의 픽업 대용으로 사용하는 경향이 종종 보이고 있는데, 이것에 대한 장단점을 좀 써볼까한다.
DPA4099는 그 톤자체로 마이크 이기 때문에 매우 사실적인 소리를 내어줄 수 있다.
단 주의할 점이 있는데,
첫번째는, 마이크 이기 때문에, 주변 악기 소리가 그대로 전부 수음될 가능성이 높다. 문제는 재즈 연주자들이 사용하는 악기들이 클래식 연주자들의 악기와는 달리 대부분 소리가 크지 않은 경향이 있는데, 비용적인 문제이기도 하겠지만. 이런경우 주변에 드럼이라도 있으면 드럼소리가 그대로 DPA4099 로 들어오는소리가 자체의 콘트라베이스의 볼륨보다 커버리면, 이것이 상당한 문제가 되버린다. 악기자체의 볼륨이 큰 악기일경우에만 효과가 좋다고 볼 수 있다. 주변에 스테이지 모니터 스피커가 있어도 큰 문제가 될 수 있다.
두번째는, 48V 팬텀파워를 필요로하고 프리앰프의 성능에따라 매우 큰 차이가 난다는 사실이다. 연주자는 당연히 팬텀파워를 공급해줄 프리앰프를 같이 셋트로 들고 다녀야 한다는거다.
필자는 최근 여러건의 라이브 레코딩에서 이러한 DPA4099 로 벌어지는 최악의 상황을 여러번 경험을 직접했다.
키쓰자렛 트리오의 콘서트에서 게리피콕의 경우 GK 앰프와 리얼리스트 픽업의 조화로 괜찮은 재즈 베이스의 톤을 들려주고 있고, 그 덕에 더욱 깔끔한 트리오의 사운드를 완성할 수 있었다고 생각한다.
보컬 , 악기 녹음시, MR 이나, 헤드폰으로 들리는 다른 악기 소리가 마이크로 새어 들어가지 않도록 차폐가 되도록 제작된 헤드폰(보통 closed 헤드폰)
레퍼런스 헤드폰
음악을 재생할때 최대한 평탄한 주파수로 재생하고, 원래의 소리를 최대한 왜곡 없이 원음으로 들려주도록 제작된 헤드폰(보통 open 헤드폰)
모니터링 헤드폰 경우 차폐율이 중요하고, 작은 헤드폰 출력에도 큰 소리를 내어주는 능력이 중요하기 때문에, 헤드폰 임피던스를 작게 만드는편이다. 반면에 레퍼런스 헤드폰의 경우, 최대한 원음 재생을 하는것에 포인트가 맞춰져 있기때문에, 다소 헤드폰의 임피던스가 높을 수 있고, 따라서 고 임피던스 헤드폰 구동을 해줄 수 있는 헤드폰 앰프가 필요할 수 있다.
모니터링 헤드폰의 경우에는 헤드폰에서 들리는 소리가 마이크로 들어가면 안되기 떄문에 Closed 로 만들지만 Closed 의 경우 내부에서 공간이 생성되고, 이에 따라 소리의 특정 주파수 대역에 변화나 왜곡이 생성 되기 때문에, 레퍼런스 헤드폰의 경우에는 Closed 로 제작하지 않고 Open 형 헤드폰으로 주로 만들어진다.
믹싱/마스터링용 헤드폰?
때로, “모니터링” 이라는 말 때문에, 스튜디오 모니터 스피커와 혼동되어, 믹싱이나 마스터링을 할때 사용하는 헤드폰을 모니터링 헤드폰이라고 말하는 경우가 종종 있는데 , 이것은 모니터링 헤드폰의 사용 목적과는 사실 크게 다르다고 볼 수 있다. 실제로 음원의 믹싱/ 마스터링을 위해서는 “레퍼런스 헤드폰” 을 사용하는것이 더 유리하다. (원음에 가깝기 때문)
모니터링 헤드폰은 사실 공연장 등에서 사용하는 “스테이지 모니터링 스피커”에서 말하는 “모니터링’ 의 목적에 더욱 가깝다.
얼마전 밴드 녹음이 있었는데, 평소처럼 소니 헤드폰 7510으로 모니터링을 연주자들에게 주었습니다.
digigrid m
문제는 베이스 연주자의 모니터링 불평이었습니다. 드럼이나 피아노 연주자는 크게 불평이 없었는데, 베이스 연주자가 유독 베이스 소리가 안들린다며 불평했고, 저는 모니터링 콘솔에서 베이스 연주자 CUE 버스 쪽으로 베이스 페이더를 높혀주었지만, 베이스 연주자는 계속 아쉬워 했습니다.
녹음 세션이 끝난후 곰곰히 뭐가 문제일까 음악을 틀고 스스로 그 CUE 헤드폰으로 들어보기도하고, 저는 잘들리기만 하는것….음..
근데 세상은 제가 아닌사람도 많고 , 스팩트럼이 항상 넓은게 세상입니다. 연주자가 헤드폰 모니터링에 익숙하지 않을수도 있고, 사람마다 청력은 다 다르니까요.
그래서 아마, 혹시 헤드폰 모니터링에 익숙하지 않은게 아닐까 하는 생각이 들더군요. 예상외로 많은 사람들이 클로즈드 헤드폰 소리에 익숙하지 않습니다.
게다가 저의 모니터링 큐 버스는 전부 모노 버스가 아닌 스테레오 버스입니다. 예전의 아날로그 콘솔들은 Aux send 버스가 전부 모노 였지만, 요즘 의 DSP 엔진들은 스테레오 버스 로 만들어져 있습니다.
또, 녹음실에서는 헤드폰으로 듣는소리가 마이크로 들어가면 안되기 때문에, 녹음시 모니터링용도로 클로즈드 헤드폰(밀폐형 헤드폰) 또는 IEM(인이어 모니터) 를 사용하게 됩니다. 이러한 소리는 센터 이미지가 형성되지 않기 때문에 (좌우의 소리가 섞이는 메카니즘이 없습니다.) 소리의 밸런스나 킥, 보컬, 베이스 음의 크기에 대한 정보를 알기가 어렵습니다. 소리의 밸런스를 알기 위해서는 센터 이미지가 결정적인 역할을 하기 때문입니다.
그래서 시중에 보면 헤드폰 앰프중에 강제로 센터 이미지를 만들어내서 헤드폰 아웃 출력을 해주는 기기도 있습니다.
spl phonitor2
SPL 의 포니터 같은 헤드폰 앰프를 보면 Crossfeed 라는 기능이 있어서 좌우의 소리를 강제로 크로스피드해서 클로즈드 헤드폰으로도 센터 이미지를 들을수 있도록 해주는 기능이 있습니다. 워낙 헤드폰 앰프 치고는 가격이 비싸기 때문에, 대체 이게 무슨 소용인가 싶었는데, 왠지 이제 이런것을 쓰는 이유를 알것 같습니다.
그래서 생각난 플러그인이 바로 NX 플러그인입니다.
waves emotion st
Waves NX 를 해당 CUE 버스에 걸어주고, 헤드폰 EQ 를 Sony-7506 에 맞췄습니다. (제가 쓰는 헤드폰은 7510 이지만 플러그인안에 프리셋이 아직 없습니다.) Waves 의 Soundgrid 시스탬을 사용하고 있기때문에, 실시간으로 플러그인을 걸수 있습니다.
그러고서 , 다시 해당 CUE 버스의 헤드폰으로 음악을 들어보니, 한결 베이스 음이 잘들리고, 소리의 센터 이미지들이 잘들리게 되었습니다. 밸런스도 알수있었습니다. 플러그인을 Bypass 해보면서 체크해보는데 확실히 NX 가 걸린쪽이 연주하기 편하고 모니터링이 쉬웠습니다.
앞으로 모니터링에 대해서 힘듬을 토로하는 연주자의 모니터 버스에는 NX 를 걸고 들려줘야겠습니다.
이미 해외에서는 인이어 모니터의 이러한 문제점들 때문에, Klang 같은 회사에서 이를 적용한 퍼스널 모니터링 믹서 제품도 나와있습니다. 워낙 가격이 비싸서 얼마나 활용될지는 모르겠습니다만..
라이브 현장에서는 모노버스(스테이지 모니터 스피커) -> 스테레오 버스(IEM, 퍼스널 모니터 믹서) 로 점차 바뀌면서 이런것으로 또 새로운 영역이 개척되고 있는것 같습니다.
저도 앞으로 좀더 사용해보고 , 적용시켜볼 생각입니다.
추가내용) DSP 점유율이 아쉬울때는, 차라리 스테레오 버스의 L R 패닝을 각기 조절할 수 있는 점을 이용해서, 아래 그림처럼 해당 모니터 버스의 스테레오 이미지를 좁혀서 사용하는 방법도 있습니다.
Waves 는 최근 플러그인 버전을 V9에서 V10 으로 버전업 하면서, V9 는 legacy version 이 되었습니다.
Waves 플러그인의 설치는 waves central 에서 설치할수 있는데, 여기서 Waves central V10 버전에서는 V10 라이센스를 가진 플러그인만 online 에 나타납니다.
그러나 저는 제가 가진 모든 waves 플러그인이 v10 으로 업데이트 되어 있진 않습니다. 업데이트 플랜이 끝나거나, 업데이트 플랜을 다시 신청하지 않은 플러그인은 여전히 V9 입니다. 내가 가진 waves 플러그인 버전 현황은 waves 홈페이지 my account 의 my product 에서 확인해 볼 수 있습니다.
그래서 waves central 최신버전(v10) 에서 플러그인 을 설치 하려고 online 에서 보면 v9 플러그인들은 나타나지 않습니다. v9 플러그인을 설치 하려면 waves central leagacy installer 를 사용하라고 합니다.
여기서 legacy version installer click here 에서 here 를 클릭하면 waves central legacy installer 를 다운 받을 수 있습니다. 이것을 다운받아서 압축을 풀면 다음과 같은 폴더와 파일 내용이 나타납니다.
waves cetnral legacy 를 설치하려고 하면 이미 waves central v10 이 설치되어 있기때문에 설치할수 없습니다.
그런데 찾아보면, 폴더중에 installer 라는 폴더에 waves v9 플러그인 의 설치 본들이 있습니다.
그러면 이 폴더를 waves central v10 에서, install->select offline installer 에서 선택하면 v9 플러그인들을 설치할 수 있도록 목록이 나타납니다.
이 플러그인들은 V9 legacy 버전들이고 여기서 내가 라이센스를 가지고 있는것들 중에 필요한것을들 선택하여 설치 가능합니다. 또한 이렇게 설치해도 , v10 플러그인 v9 플러그인 동시에 다 사용가능합니다.
얼마전에 waves 에서 prs supermodels 라는 기타 앰프 시뮬레이션 플러그인을 출시했습니다. 이 플러그인의 장점은 매우 리얼한 스피커 시뮬레이션이 되어 있다는 점인데요 , 마치 실제 파워앰프와 스피커의 움직임에 따른 임피던스의 변화에 따른 톤의 변화를 리얼하게 (리액티브 로드 박스라고 하나요?) 시뮬레이션하고 있어서 굉장히 소리가 좋습니다. 눈감고 들으면 실제 앰프라고 생각할 수 밖에 없는 톤이 나온다고 생각됩니다. 개인적으로는…
그런데 vst 플러그인들의 치명적인 단점이 있죠, 레이턴시입니다. cpu 로 돌리거나 일반적인 daw 상에서 걸어서 쓰면, 필연적으로 ASIO 레이턴시의 영역을 벗어날수가 없고, 아무리 레이턴시가 짧은 오디오 인터페이스/ cpu 시스탬이라고 하더라도 4ms 이하의 레이턴시를 만들기가 참 힘듭니다.
그러면 아무리 좋은 기타 앰프 플러그인이라도 쓰기가 쉽지는 않습니다.
근데 waves 에서는 자사의 플러그인을 soundgrid 라는 네트워크 체계로 프로세싱 할수 있는 방법이 있는데요 soundgrid 는 이더넷 케이블(랜선) 을 이용해서 컴퓨터와 연결하거나 각각의 오디오인터페이스를 네트워트로 모죠리 연결해서 하나의 오디오 인터페이스 처럼 사용하게 하는 기술입니다. 일단은?…
이 방법으로 오디오 인터페이스를 거의 무한 확장하여 96khz 포맷으로 최대 64인 64 아웃 까지 사용할 수 있습니다 . 48khz 일경우는 아마 128인/아웃 으로 알고 있습니다.
근데 여기에 추가로 DSP server 를 달게 되면 waves 사의 플러그인들을 cpu 로 프로세싱 하는게 아니고 이 DSP server 로 프로세싱하게 되어 “제로 레이턴시” 로 사용가능합니다. 아래 그림과 같습니다.
Soundgrid DSP 의 기본 레이턴시인 0.8ms + DSP plugin 자체 레이턴시 0.1ms 이므로 총 0.9ms . 이런 레이턴시를 near zero latency 라고 하죠..아마 캠퍼나 힐릭스 보다 더 낮은 레이턴시 일겁니다.
이렇게 사용하면, 1ms 정도 되는 레이턴시는 앰프 에서 한 34cm 떨어진 (소리의 속도로 볼때) 거리에서 사용하는 정도 의 레이턴시 밖에 안되므로, 실사용자는 실제 앰프를 연주하는것과 다를바가 없습니다. 녹음할때 이렇게 prs supermodel 을 걸어놓고 그냥 쓰면 됩니다. 실제 앰프 연주하는것과 다를바가 없습니다. 실제로 녹음되는 톤은 생톤이고 플러그인을 걸어놓은채로 쓰게 됩니다.
게다가 앞서 말씀드렸듯이, 앰프 모델링의 품질 뿐만 아니라, 리액티브 로드(스피커의 움직임에 따른 임피던스 로드 변화) 관련된 부분까지 시뮬레이션이 되어 있어서 매우 리얼한 스피커 반응을 들으실 수 있습니다..개인적인 생각으로는 캠퍼 보다 더 진보한 방식이라고 생각됩니다.
영국 PA 콘솔 메이커 DIGICO과 이스라엘의 플러그인 개발자 WAVES가 협력하여 태어난 “DIGIGRID” 이 브랜드는 WAVES SoundGrid 프로토콜을 지원하는 이더넷 연결 시스템을 다루고있어 지금까지 플러그인 서버 내장형 오디오 I / O와 그들과의 병용을위한 플러그인 쉘 StudioRack 등을 출시 해왔다 . 이번에는 DIGIGRID 제품을 재빨리 도입 한 사운드 크리에이터 오시마 su-kei와 DIGIGRID 제품 전문가 인 댄 뻬이지 씨의 Skype 대담을 감행. 생산 체제와 제품 구조, 브랜드의 미래 등에 대해 짙은 토크를 펼쳐 주었다.
대담 2 명
오시마 su-kei
최신 장비로 높은 감도와 사운드 크리에이터.
최근에는 오쿠 하나코 96 고양이, 꽃 가래 시미즈 미치코 등의 작곡을 담당
댄 뻬이지
PA 업계 최고의 디지털 탁 제조 업체, DIGICO 제품 전문.
DIGIGRID에 대해서도 개발 방향 등을 결정하는 입장이다
오시마 애용 I / O!
DigiGrid DLS 오픈 프라이스 : 시장 예상 가격 360,000 엔 전후
INTEL Core i5 기반의 서버를 갖춘 2U 기계. 확장 I / O 장치 등을 연결할 수 SoundGrid 단자 (네트워크 단자) × 2 외에 DigiLink 단자 × 2를 장착하기 위해 AVID 오디오 I / O를 연결하는 것도 가능하다
DigiGrid IOS 오픈 프라이스 : 시장 예상 가격 370,185 엔 전후
INTEL Core i3 서버를 탑재 한 2U 기계. SoundGrid 단자 × 4 외에도 마이크 / 라인 인 × 8과 라인 아웃 × 8이 장착되어 단독으로 노래와 악기를 녹음 할 수있다.
최대 입출력 수는 아날로그 + 디지털 10 인 / 10 아웃
오시마 시스템 연결
▲ 오시마 su-kei가 자신의 스튜디오에서 실천하고 연결 방법. DLS는 Windows 기계와 IOS가 이더넷 매달려있어 메인 네트워크 스위치 역할. IOS는 두 대의 Mac이 이더넷 연결 돼 총 3 대의 컴퓨터간에 음성을 양방향 전송할 수있다. 아날로그 신호 캡처는 IOS의 마이크 / 라인 인이나 AVID 오디오 I / O 아날로그 인에서 실시 형태
“자신의 정책에 좋은 것을 만들자” 라는 영국 독자적 기질
오시마 su-kei (이하 오시마) 영국에는 예로부터 NEVE 나 SSL과 같은 우수한 업체가 있습니다.
어떤 풍토에서 이러한 업체가 태어난 것일까? 댄 뻬이지 (이하 뻬이지) 영국에서는 대량 생산이 아니라 기술자가 정책을 가지고 뛰어난 제품을 만들어 낼 존중되어 왔다고 생각합니다. 그것은 모든 것을 만들기에 공통적으로 비틀스해도 처음부터 큰 시장을 겨냥한 것이 아니라, 우선은 좋은 물건을 만들려고했던 것.
DIGICO도 그랬다 “영국 기질”을 가진 기술자가 많이 있거든요. 오시마 나는 “DIGIGRID 브랜드가 이더넷 연결 오디오 I / O를내는!”라고 들었을 때 굉장히 관심을 가지고있었습니다.
그래서 우선 DigiGrid DLS (이하 DLS)을 도입하고 정도 없애고 DigiGrid IOS (이하 IOS)도 사용하기 시작 했거든요. 뻬이지 좋은! 환경에 변화가 있었습니까? 오시마 여러가지 있었어요.
나는 평소 Windows 용 STEINBERG Cubase를 사용하고 있습니다 만, 엔지니어 분들이 왔을 때를 위해 AVID Pro Tools 들어간 Mac도 준비하고 있어요. 그 OS 차이의 컴퓨터를 네트워크로 묶어지게 된 것은 크다.
예를 들어, 기존에는 1 대의 컴퓨터 당 1 개의 오디오 I / O를 연결할 필요가 있었기 때문에 I / O에 연결되어있는 마이크를 다른 I / O에서 사용할 때는 “연결 재조합”돛대에서 했다. 하지만 DLS와 IOS가 있으면 입력 신호를 SoundGrid Studio 소프트웨어에서 모든 컴퓨터에 패치 있기 때문에 그럴 필요가 없어졌다 구요. 뻬이지 DLS 및 IOS는 INTEL CPU를 기반으로 한 플러그인 구동 용 서버가 탑재되어 있는데, 그 느낌은 어떻습니까? 오시마 모니터 소리에 WAVES 플러그인을 걸 때 지연을 느끼지 않기 때문에 매우 도움이되고 있습니다. 또한 DAW에서 플러그인을 사용해도 로컬 CPU에 부하가 걸리지 않기 때문에 그만큼 소프트 신디를 땅땅 시작된다.
Studio Rack도 편리하네요. 최대 8 개의 플러그인을 한곳에 있기 때문에 1 개의 인서트 슬롯 8 개까지 밖에 꽂을 수없는 Cubase에서 가장 유용하게 사용하고 있습니다. 나는 즉시 인서트가 가득되기 때문에 (웃음). 뻬이지 사용자의 육성을들을 수있어서 기쁩니다. 조속히, 제품 개발 팀에서 공유하네요.
아날로그와 디지털 모두 통한
DIGICO의 “교수 엔지니어”
오시마 DIGIGRID 제품 개발은 DIGICO과 WAVES 직원이 협력 해 가고있는 거죠. 뻬이지 그렇네요. 다만, 현재는 전용 사무실을 마련하지 않고 각사에서 개발에 임하고 있으며, DIGICO 하드웨어 제품 WAVES는 소프트웨어 제품을 담당하고 있습니다. 오시마 DIGICO으로는 어떤 생산 체제가 깔려 있나? 뻬이지 DIGICO는 자사의 PA 탁자와 병행하여 DIGIGRID 하드웨어 개발을하고 있습니다. 현재 7 명의 기술자가 참여하고 있습니다 만, 키 담당자는 기술 책임자 존 스테이 디아즈.
그는 원래 SOUNDTRACS 녹음 용 아날로그 탁자를 디자인하고, DIGICO에서는 D5와 D1 같은 초기의 디지털 탁자, 그리고 현행 품의 SD 시리즈를 다루어 왔습니다. 아날로그 및 디지털 통하고 있기 때문에, 사내에서는 “교수”과 같은 존재입니다. 오시마 WAVES 측의 체제에 대해서도 가르쳐주세요. 뻬이지 본사는 이스라엘이지만, 기술자는 우크라이나와 인도에있는 것입니다. 버그 수정 등에 노력이 필요하다 때문에 DIGICO 측보다 큰 팀 이랍니다. 오시마 양사의 제휴는 어떻게? 뻬이지 나는 WAVES 측의 제품 매니저와 매주 Skype로 회의를 실시하고 있으며, 개발의 방향과 문제점을 논의하고 있습니다. 개발의 실제적인면에 관해서는 양사간에 매일 같이 E-Mail을주고 있습니다 만, 특히 중요한 점은 회의에서 해결합니다.
또한 양자 간에서는 매주 테스트 용 하드웨어와 소프트웨어가 교환되어 있어요. 이렇게하면 서로의 동향을 알 수 있으니까.
오디오 I / O 내장 FPGA에서
네트워크 패킷을 생성
오시마 제품에 대해 자세히 알려주세요.
우선 DLS와 IOS에 관해서입니다 만, 스펙을 볼 때 오디오 I / O이면서 컴퓨터 같다고 느꼈습니다. 뻬이지 확실히 컴퓨터에 통하는 곳은 있군요. IOS를 예로 들면, 아날로그 인에서 A / D까지는 일반적인 오디오 I / O와 비슷하지만 나중에이 다릅니다. A / D 후의 신호는 일반적으로 USB 또는 FireWire 패킷 형식으로 변환되어 있지요. 그러나 IOS는 FPGA 칩을 통과하여 네트워크 패킷으로 변환하고 있구요. FPGA는 회로 기판의 이치 구성 요소로 사용되고 있으며, 담당하려는 기능에 따라 크기와 유형을 선택합니다.
이 오디오 프로세싱에 사용하고있는 업체는 드물고, DIGICO과 CALREC 등 세계에 몇 회사 밖에없는 거죠. 오시마 DLS는 DigiLink 단자가 장착되어 있고, AVID 오디오 I / O SoundGrid 네트워크에 통합 할 수 있지요. 뻬이지 영국과 미국 차트에 들어있는 음악은 대부분이 Pro Tools | HD 또는 HDX 시스템으로 제작되고 있습니다. 그런 가운데, WAVES 플러그인 AAX DSP를 지원하지 않기 때문에, 우리는 그들을 Pro Tools에 도입하기위한 솔루션을 생각 싶었습니다.
최근 DLS + IOX (확장 I / O)의 결합을 추구하는 스튜디오가 많고, 얼마 전에도 독일 음악 프로듀서에게 납품한지 얼마거든요.
큐 박스 나 소형 I / O를 개발중인
미래의 Core i7 서버도 시야에
오시마 IOS 및 DLS의 DSP 성능은 현재 네트워크에 처음 연결 한 컴퓨터에서만 사용할 수 없습니다. 여러 컴퓨터에 배포 할 수 있으면 최고라고 생각 합니다만 앞으로 그 가능성은 있나요? 뻬이지 계획에는 포함되어 있지만 실현을 위해서는 DSP 성능의 관리 방법을 고민해야합니다. 구체적으로는 파워 배분 비율이나 한 컴퓨터가 종료 한 후 나머지 컴퓨터에 어떻게 재분배 할 것인가하는 것입니다.
올해의 계획으로는 네트워크에서 사용할 수있는 DSP의 수를 현재의 1 개에서 여러 늘린다는 업데이트가 있습니다. 즉 각 컴퓨터에 전용 DSP를 갖게되는 것이군요. 오시마 IOS는 INTEL Core i3, DLS는 Core i5가 구비되어 있지만, 더 고출력 Core i7 탑재 모델의 출시 예정은? 뻬이지 있습니다. WAVES이 PA의 플러그인 서버로 Core i7 기반 SoundGrid Extreme Server를 만들고 있기 때문에 기술적으로 어렵지는 않습니다. 과제는 비용 네요. 오시마 소형 기계 릴리스 등은 어떻습니까? 뻬이지 소형 플러그인 서버 등을 검토하고 있습니다 만, 현재 개발중인 것으로 2 인 / 2 아웃 ~ 4 인 / 4 아웃의 소형 I / O 상자를들 수 있습니다. 작은 제품이라는 카테고리로 말하면, 큐 박스도 개발하고있는 곳 이군요. 오시마 이더넷 연결 제품이 많아지면 시스템이 더 똑똑하게 될 것입니다.
개인적으로 SoundGrid 단자가 디지털 입출력의 표준이되면 좋다고 생각 합니다만, 예를 들면 SoundGrid 단자를 가진 신디 등이 출시 될 가능성이있는 것입니까? 오디오와 MIDI가 LAN 케이블 1 개로 전송할 수있게되기 때문에 매우 이상적이라고 생각합니다. 뻬이지 그것은 재미있는 생각 이군요! SoundGrid 프로토콜은 오픈이므로 타사에 협력을 바라 보는 것으로 신디도 제공 할 수 있을지도 모릅니다. 오시마 DIGIGRID 시스템에 큰 가능성을 느끼고 있습니다. 꼭 앞으로의 포부를 들려주세요. 뻬이지 SoundGrid 외에도 오디오 네트워크가 존재하지만 종종 다루어 기술이 필요합니다. 그 점 DIGIGRID 제품은 사용자가 자신의 의지를 반영하기 쉽다고 생각합니다. 향후 사용자 피드백을 바탕으로 스피커와 마이크, 악기 등 수 있고 재미 있네요. “네트워크에서 여러 장비가 이어지는 세계”…… 그것이 우리가 그리는 꿈입니다.
about DIGICO
▲ DIGICO 기술 책임자 존 스테이 디아즈.
DIGICO의 전신 인 SOUNDTRACS에서 레코딩 용 아날로그 탁자 등을 디자인하고 DIGICO는 자사 최초의 디지털 탁 D5와 현재 SD 시리즈 전 제품을 제작 해왔다. DIGIGRID에도 하드 제품의 개발을 총괄
▲ 혁신적인 제품을 제작 한 기술자에게 주어지는 “Gottelier Award”시상식의 모습.
스테이 디아즈가 수상한 것은 2012 년이다
▲ IOS의 제작 장면. 사진 앞에 보이는 것은 후면 패널에 8 개 뚫린 구멍은 후 마이크 / 라인 인 단자가 장착된다. 인쇄 회로 기판에는 DIGICO의 PA 광주 양도의 FPGA 칩이 하나의 구성 요소로 사용되고 있으며, 음성 네트워크 패킷 화 등을 실시한다. 냉각 팬 등을 사용, 마치 컴퓨터의 내용을보고있는 것
about WAVES
▲ 기술자들이 모이는 WAVES 우크라이나 오피스
▲ WAVES 사내에있는 “SoundGrid Room”의 모습. DIGIGRID 소프트웨어 개발도 여기에서 이루어지고 있으며, 작고 보이지 어렵지만 사진 오른쪽의 컴퓨터 디스플레이에 SoundGrid Studio가 비쳐있는
▲ DIGIGRID의 기술 지원.
SoundGrid Studio를 비추는 디스플레이 옆에는 DIGICO SD11가 설치되어있다
Mackie VLZ 802 소형 믹서를 활용하면, 녹음하는 부스 내부의 More me Cue 모니터링 시스탬을 구축하기 쉽습니다.
일단 소형 믹서를 사용하게 되면, 녹음시에 모니터링 소스를 믹서의 stereo LINE 입력으로 받아서, 볼륨을 조절해서 믹서의 헤드폰아웃을 통해 모니터링을 할 수 있습니다. 해당 소형 믹서를 헤드폰 앰프 대용으로 쓰게 되는것입니다.
근데 헤드폰 앰프와 믹서의 차이점은 믹서는 여러가지 소스를 각기 조절하면서 그것을 모니터링 할수 있다는 장점이 있기 떄문에, 녹음시에 모니터링 소스를 1개통의 mix 만 보내는것에서, 좀더 진보해서, 1개통의 mix 와, 1개통의 해당 모니터를 사용하는 연주자(보컬) 의 자신의 모니터링 소스 의 2개로 나눠 보내주는 것입니다.
다시말해서 내 자신의 소리 “me ” 와 다른 소리(또는 MR) “CUE” 의 2개 통으로 믹서로 넣어 주면, 믹서에서 fader 나 knob 으로 그 소리의 크기를 직접 조절해서 모니터링 할수 있는 방법입니다.
예를들면 보컬을 녹음할때에, 보컬의 녹음되는 소리를 1번 채널로 넣어주고, 나머지 악기소리 또는 MR 을 2번 채널로 보컬이 사용하는 믹서(헤드폰앰프) 로 넣어주면, 녹음하는 보컬이 스스로 , 1번 채널의 소리를 높힘으로써, 자신의 소리를 더 크게 듣거나, 2번 채널을 줄임으로써 MR 을 줄이거나 하는 것을 녹음하며 모니터링하는 연주자 본인이 셀프로 할 수 있게 됩니다.
보컬 녹음 으로 예시를 들겠습니다.
사용하는 녹음 콘솔의 보컬 녹음 채널의 다이렉트 아웃을 CUE 헤드폰 앰프로 사용할 802 VLZ 의 모노채널의 LINE input(ex 1채널 또는 2 채널) 으로 연결합니다.
(아래쪽의 1line 1 부분이 제가 사용하는 콘솔의 해당채널의 direct out routing 입니다. 이 콘솔의 line1 을 아날로그 케이블로 802 vlz 의 2번 체널 line input 으로 연결합니다.)
사용하는 녹음 콘솔의 보컬로 보내주는 스테레오 aux send mix 를 802 VLZ 의 스테레오 채널 에 입력합니다. (ex 5/6 또는 7/8 채널) 이때의 aux send mix 는 해당 보컬만 빠진 믹스를 보내줘도 됩니다. 이것을 방송쪽에서는 믹스-마이너스 라고 한다고 하네요.
이렇게 하면 보컬이 녹음할때의 direct out 으로 802 vlz 의 모노 채널에 입력이 들어가고, 나머지 모니터링을 담당하는 부분인 aux send out 은 스테레오 채널로 들어오기 때문에, 802 vlz 의 헤드폰 아웃을 통해서 모니터링을 하는 보컬 연주자에게 자신의 목소리와 나머지 소리를 802vlz 를 통해서 조절할수 있게 됩니다.
(aux send out 이 스테레오, 그리고 해당 레코딩 콘솔이 다중 direct out 을 지원한다는 가정하에 쓴글입니다. 왜냐면 direct out 을 통해서 녹음기(DAW) 로도 보내야 하기 때문입니다. 디지털 콘솔의 상황이면 대부분 될것이라 생각됩니다.)
(해당 디지털 콘솔의 다중 direct out 이 가능한 상황)
다만..만약 사용하는 콘솔이 다중 direct out 을 지원하지 않는다면 aux send mix 를 2개통으로 만들어서 보내면 됩니다.aux 1 으로는 보컬의 소리만 보내고 aux 2 로는 나머지 믹스를 보내서 , 802 vlz 에서 aux1 과 aux2 를 각기 다른 채널로 받아서 사용하면 됩니다.)
또한 굳이 802VLZ 를 쓰지 않아도 무방합니다…
모노 채널과, 스테레오 채널을 지원하는 작은 소형 믹서면 충분합니다.굳이 802 VLZ 를 예시로 든것은 제가 쓰기 때문입니다.-_-; ㅋ
다만 802 VLZ 를 사용하게 되면 또다른 기능을 사용할 수 있게 되는데요, 그것은 802VLZ 의 채널 에 ALT3-4 라는 기능이 있기 때문입니다.
ALT3-4버튼 을 누르게 되면, 해당 채널의 소리가 MAIN out 이나 헤드폰 아웃으로 나가지 않고 ALT OUT 으로 나가게 됩니다.
ALT34 에 대해서는 다음 동영상을 참고 하시면 좋을것 같습니다.
1번 채널에는 보컬의 마이크를 연결하고, ALT34 버튼을 누릅니다. 그러면 보컬의 소리는 ALT34 아웃을 통해서 나가게 됩니다. (Mackie 의 Preamp 를 사용하게 되겠네요)
이 ALT 34 를 녹음 콘솔의 VOCAL 채널 입력으로 받습니다. 하지만 이미 프리앰프를 거친 소리 이므로 LINE input 으로 받으면됩니다.
녹음 콘솔의 vocal 채널의 direct 아웃은 다시 802VLZ 의 2번 채널의 line input 으로 연결합니다. 이 채널은 alt34 버튼이 안눌려있습니다.
802VLZ 의 control room 매트릭스는 alt34 는 누르지말고 main 만 눌러서 main 아웃 만 듣도록합니다. 컨트롤룸 아웃이 헤드폰 아웃과 같은 소리가 나는곳입니다.만약 컨트롤룸 아웃에 alt34 버튼도 눌려있어서 컨트롤룸에서 alt34 소리가 들리게 되면, 아마 피드백이 날것으로 예상됩니다..)
녹음 콘솔의 vocal 을 위한 aux send mix 아웃은 다시 803VLZ 의 스테레오 5/6 채널의 line input 으로 연결합니다. 이채널도 alt34 버튼은 안눌려 있습니다.
이렇게 사용하면, 802VLZ 의 1번 채널 프리앰프를 통해서 보컬을 녹음하고, 녹음되는 소리는 2번 과 5/6 번을 통해서 me 와 cue 를 볼륨을 조절하면서 모니터링 할 수 있게 됩니다.
조금더 응용해보면 사실 2번과 5/6 번을 통해서 me 와 cue 를 모니터링 하지 않고 , 1번과 5/6 번만 사용하고 컨트롤룸 매트릭스에서 alt34 , main 둘다 셀렉트 해서 사용해도됩니다.
구성하기에 따라서 다양한 응용이 되기 때문에, 꼭 무엇이 정답이라 할수는 없습니다. 사실은 요즘같은 시대에는 모니터 cue 믹서가 디지털화 되어 나오는 제품이 많이 있기 때문에 굳이 80zVLZ 와 4채널 짜리 굵은 멀티케이블을 이용해서 이걸 구성해야 하나? 하는 생각도 할 수도 있습니다.
이런것은 응용일뿐이지, 최선책은 아닙니다.
우선은 쉽게, Me 와 Cue 를 조절할수 있게 녹음 채널의 direct out 과 aux send mix 를 조그만 소형믹서에 보내서 헤드폰으로 모니터링 할 수 있도록 해보는것 부터 시도해보면 좋을것 같습니다.
K-meter 는 마스터링 엔지니어로 유명한 bob katz 가 설계하고 만들어낸 일종의 마스터링용도의 미터입니다.
소리 신호는 소리의 원래 파형의 최대치를 볼수있는 PEAK 미터와 소리의 실제 느껴지는 크기에 가까운 RMS , ITU-R 등으로 meter 의 방식이 나눠지게 되는데 이 K-system 은 RMS (또는 ITU-R) 를 통해서 소리의 크기를 눈에 보이는 meter 로 표기해주는 것입니다
K-system 에는 몇가지의 기준이 있는데 K-20의 경우 PEAK 와 RMS 의 사이에 20dB 의 헤드룸을 주는방식이고 , K-14의 경우에는 14dB , K-12 의 경우에는 12dB 의 헤드룸을 주는방식입니다. 다이내믹 레인지가 커야하는 극장 시스탬용 사운드나 음원의 경우는 K-20, 팝음악 이나 방송용 음악의 경우는 K-12 , 그리고 팝, 클래식 음악같은경우는 보통 K-14 를 사용해서 기준을 맞춰서 소리를 가공하면 됩니다.
결국 다시말해서 이 미터 시스탬을 이용하면 귀로 들리는 “청감상 소리의 크기”를 어느 정도 알수 있고, -20, -14 등의 기준점이 표시되어 있어서 (VU 미터의 0vu 처럼) 기준에 맞출수 있도록 지시해주고 있습니다.
구글에서 아래와 같이 “free k-meter vst” 를 검색하면 아래 사이트가 나옵니다.