DAW 들이 레이턴시가 있는 이유는 우리가 사용하는 윈도우나 맥 OS 가 리얼타임 OS 가 아니고 멀티테스킹 스케쥴링 OS 이기 때문입니다.
만약에서 들어오고 /나가는 신호를 그떄 그떄 리얼타임으로 실시간 처리가 가능하다면, DAW 도 레이턴시가 획기적으로 줄어들것입니다. 그리고 그런 기술을들을 쓰는게 바로 디지털 콘솔들이죠…DSP에 사용하는 소프트웨어 가 바로 RTOS 거나 또는 그 비슷한 거라는이야기입니다..
(rtos : 리얼타임 OS)
근데 RTX 라는 rtos 가 있습니다.
영상을 보시면, CPU 의 코어하나를 따로 띠어내서 윈도우 명령어들과 호환이 되는 RTOS 를 따로 하나 동시에 시스탬에서 돌아가게 합니다.
프로툴은 따로 DSP 시스탬이 있으니까…넘기고
스타인버그의 누엔도나,애플의 로직이 이런 비슷한 시스탬을 채용해서 추가금 업그레이드가 가능해지면 참 좋겠다는 생각이 드네요…
다만 설치가 쉽지는 않을것인데,, 쉽게 사용할수 있도록 기술적인 개선이 있어야 겠죠.. CPU 가 다중 코어로 발전하고 있고….앞으로 더 기술이 발전하고 비용이 낮아지면 근 미래에는 DSP 시스탬 말고 이런 CPU 기준의 제로 레이턴시 기술들이 아마 등장하리라 생각됩니다..
얼마전에 waves 에서 prs supermodels 라는 기타 앰프 시뮬레이션 플러그인을 출시했습니다. 이 플러그인의 장점은 매우 리얼한 스피커 시뮬레이션이 되어 있다는 점인데요 , 마치 실제 파워앰프와 스피커의 움직임에 따른 임피던스의 변화에 따른 톤의 변화를 리얼하게 (리액티브 로드 박스라고 하나요?) 시뮬레이션하고 있어서 굉장히 소리가 좋습니다. 눈감고 들으면 실제 앰프라고 생각할 수 밖에 없는 톤이 나온다고 생각됩니다. 개인적으로는…
그런데 vst 플러그인들의 치명적인 단점이 있죠, 레이턴시입니다. cpu 로 돌리거나 일반적인 daw 상에서 걸어서 쓰면, 필연적으로 ASIO 레이턴시의 영역을 벗어날수가 없고, 아무리 레이턴시가 짧은 오디오 인터페이스/ cpu 시스탬이라고 하더라도 4ms 이하의 레이턴시를 만들기가 참 힘듭니다.
그러면 아무리 좋은 기타 앰프 플러그인이라도 쓰기가 쉽지는 않습니다.
근데 waves 에서는 자사의 플러그인을 soundgrid 라는 네트워크 체계로 프로세싱 할수 있는 방법이 있는데요 soundgrid 는 이더넷 케이블(랜선) 을 이용해서 컴퓨터와 연결하거나 각각의 오디오인터페이스를 네트워트로 모죠리 연결해서 하나의 오디오 인터페이스 처럼 사용하게 하는 기술입니다. 일단은?…
이 방법으로 오디오 인터페이스를 거의 무한 확장하여 96khz 포맷으로 최대 64인 64 아웃 까지 사용할 수 있습니다 . 48khz 일경우는 아마 128인/아웃 으로 알고 있습니다.
근데 여기에 추가로 DSP server 를 달게 되면 waves 사의 플러그인들을 cpu 로 프로세싱 하는게 아니고 이 DSP server 로 프로세싱하게 되어 “제로 레이턴시” 로 사용가능합니다. 아래 그림과 같습니다.
Soundgrid DSP 의 기본 레이턴시인 0.8ms + DSP plugin 자체 레이턴시 0.1ms 이므로 총 0.9ms . 이런 레이턴시를 near zero latency 라고 하죠..아마 캠퍼나 힐릭스 보다 더 낮은 레이턴시 일겁니다.
이렇게 사용하면, 1ms 정도 되는 레이턴시는 앰프 에서 한 34cm 떨어진 (소리의 속도로 볼때) 거리에서 사용하는 정도 의 레이턴시 밖에 안되므로, 실사용자는 실제 앰프를 연주하는것과 다를바가 없습니다. 녹음할때 이렇게 prs supermodel 을 걸어놓고 그냥 쓰면 됩니다. 실제 앰프 연주하는것과 다를바가 없습니다. 실제로 녹음되는 톤은 생톤이고 플러그인을 걸어놓은채로 쓰게 됩니다.
게다가 앞서 말씀드렸듯이, 앰프 모델링의 품질 뿐만 아니라, 리액티브 로드(스피커의 움직임에 따른 임피던스 로드 변화) 관련된 부분까지 시뮬레이션이 되어 있어서 매우 리얼한 스피커 반응을 들으실 수 있습니다..개인적인 생각으로는 캠퍼 보다 더 진보한 방식이라고 생각됩니다.
영국 PA 콘솔 메이커 DIGICO과 이스라엘의 플러그인 개발자 WAVES가 협력하여 태어난 “DIGIGRID” 이 브랜드는 WAVES SoundGrid 프로토콜을 지원하는 이더넷 연결 시스템을 다루고있어 지금까지 플러그인 서버 내장형 오디오 I / O와 그들과의 병용을위한 플러그인 쉘 StudioRack 등을 출시 해왔다 . 이번에는 DIGIGRID 제품을 재빨리 도입 한 사운드 크리에이터 오시마 su-kei와 DIGIGRID 제품 전문가 인 댄 뻬이지 씨의 Skype 대담을 감행. 생산 체제와 제품 구조, 브랜드의 미래 등에 대해 짙은 토크를 펼쳐 주었다.
대담 2 명
오시마 su-kei
최신 장비로 높은 감도와 사운드 크리에이터.
최근에는 오쿠 하나코 96 고양이, 꽃 가래 시미즈 미치코 등의 작곡을 담당
댄 뻬이지
PA 업계 최고의 디지털 탁 제조 업체, DIGICO 제품 전문.
DIGIGRID에 대해서도 개발 방향 등을 결정하는 입장이다
오시마 애용 I / O!
DigiGrid DLS 오픈 프라이스 : 시장 예상 가격 360,000 엔 전후
INTEL Core i5 기반의 서버를 갖춘 2U 기계. 확장 I / O 장치 등을 연결할 수 SoundGrid 단자 (네트워크 단자) × 2 외에 DigiLink 단자 × 2를 장착하기 위해 AVID 오디오 I / O를 연결하는 것도 가능하다
DigiGrid IOS 오픈 프라이스 : 시장 예상 가격 370,185 엔 전후
INTEL Core i3 서버를 탑재 한 2U 기계. SoundGrid 단자 × 4 외에도 마이크 / 라인 인 × 8과 라인 아웃 × 8이 장착되어 단독으로 노래와 악기를 녹음 할 수있다.
최대 입출력 수는 아날로그 + 디지털 10 인 / 10 아웃
오시마 시스템 연결
▲ 오시마 su-kei가 자신의 스튜디오에서 실천하고 연결 방법. DLS는 Windows 기계와 IOS가 이더넷 매달려있어 메인 네트워크 스위치 역할. IOS는 두 대의 Mac이 이더넷 연결 돼 총 3 대의 컴퓨터간에 음성을 양방향 전송할 수있다. 아날로그 신호 캡처는 IOS의 마이크 / 라인 인이나 AVID 오디오 I / O 아날로그 인에서 실시 형태
“자신의 정책에 좋은 것을 만들자” 라는 영국 독자적 기질
오시마 su-kei (이하 오시마) 영국에는 예로부터 NEVE 나 SSL과 같은 우수한 업체가 있습니다.
어떤 풍토에서 이러한 업체가 태어난 것일까? 댄 뻬이지 (이하 뻬이지) 영국에서는 대량 생산이 아니라 기술자가 정책을 가지고 뛰어난 제품을 만들어 낼 존중되어 왔다고 생각합니다. 그것은 모든 것을 만들기에 공통적으로 비틀스해도 처음부터 큰 시장을 겨냥한 것이 아니라, 우선은 좋은 물건을 만들려고했던 것.
DIGICO도 그랬다 “영국 기질”을 가진 기술자가 많이 있거든요. 오시마 나는 “DIGIGRID 브랜드가 이더넷 연결 오디오 I / O를내는!”라고 들었을 때 굉장히 관심을 가지고있었습니다.
그래서 우선 DigiGrid DLS (이하 DLS)을 도입하고 정도 없애고 DigiGrid IOS (이하 IOS)도 사용하기 시작 했거든요. 뻬이지 좋은! 환경에 변화가 있었습니까? 오시마 여러가지 있었어요.
나는 평소 Windows 용 STEINBERG Cubase를 사용하고 있습니다 만, 엔지니어 분들이 왔을 때를 위해 AVID Pro Tools 들어간 Mac도 준비하고 있어요. 그 OS 차이의 컴퓨터를 네트워크로 묶어지게 된 것은 크다.
예를 들어, 기존에는 1 대의 컴퓨터 당 1 개의 오디오 I / O를 연결할 필요가 있었기 때문에 I / O에 연결되어있는 마이크를 다른 I / O에서 사용할 때는 “연결 재조합”돛대에서 했다. 하지만 DLS와 IOS가 있으면 입력 신호를 SoundGrid Studio 소프트웨어에서 모든 컴퓨터에 패치 있기 때문에 그럴 필요가 없어졌다 구요. 뻬이지 DLS 및 IOS는 INTEL CPU를 기반으로 한 플러그인 구동 용 서버가 탑재되어 있는데, 그 느낌은 어떻습니까? 오시마 모니터 소리에 WAVES 플러그인을 걸 때 지연을 느끼지 않기 때문에 매우 도움이되고 있습니다. 또한 DAW에서 플러그인을 사용해도 로컬 CPU에 부하가 걸리지 않기 때문에 그만큼 소프트 신디를 땅땅 시작된다.
Studio Rack도 편리하네요. 최대 8 개의 플러그인을 한곳에 있기 때문에 1 개의 인서트 슬롯 8 개까지 밖에 꽂을 수없는 Cubase에서 가장 유용하게 사용하고 있습니다. 나는 즉시 인서트가 가득되기 때문에 (웃음). 뻬이지 사용자의 육성을들을 수있어서 기쁩니다. 조속히, 제품 개발 팀에서 공유하네요.
아날로그와 디지털 모두 통한
DIGICO의 “교수 엔지니어”
오시마 DIGIGRID 제품 개발은 DIGICO과 WAVES 직원이 협력 해 가고있는 거죠. 뻬이지 그렇네요. 다만, 현재는 전용 사무실을 마련하지 않고 각사에서 개발에 임하고 있으며, DIGICO 하드웨어 제품 WAVES는 소프트웨어 제품을 담당하고 있습니다. 오시마 DIGICO으로는 어떤 생산 체제가 깔려 있나? 뻬이지 DIGICO는 자사의 PA 탁자와 병행하여 DIGIGRID 하드웨어 개발을하고 있습니다. 현재 7 명의 기술자가 참여하고 있습니다 만, 키 담당자는 기술 책임자 존 스테이 디아즈.
그는 원래 SOUNDTRACS 녹음 용 아날로그 탁자를 디자인하고, DIGICO에서는 D5와 D1 같은 초기의 디지털 탁자, 그리고 현행 품의 SD 시리즈를 다루어 왔습니다. 아날로그 및 디지털 통하고 있기 때문에, 사내에서는 “교수”과 같은 존재입니다. 오시마 WAVES 측의 체제에 대해서도 가르쳐주세요. 뻬이지 본사는 이스라엘이지만, 기술자는 우크라이나와 인도에있는 것입니다. 버그 수정 등에 노력이 필요하다 때문에 DIGICO 측보다 큰 팀 이랍니다. 오시마 양사의 제휴는 어떻게? 뻬이지 나는 WAVES 측의 제품 매니저와 매주 Skype로 회의를 실시하고 있으며, 개발의 방향과 문제점을 논의하고 있습니다. 개발의 실제적인면에 관해서는 양사간에 매일 같이 E-Mail을주고 있습니다 만, 특히 중요한 점은 회의에서 해결합니다.
또한 양자 간에서는 매주 테스트 용 하드웨어와 소프트웨어가 교환되어 있어요. 이렇게하면 서로의 동향을 알 수 있으니까.
오디오 I / O 내장 FPGA에서
네트워크 패킷을 생성
오시마 제품에 대해 자세히 알려주세요.
우선 DLS와 IOS에 관해서입니다 만, 스펙을 볼 때 오디오 I / O이면서 컴퓨터 같다고 느꼈습니다. 뻬이지 확실히 컴퓨터에 통하는 곳은 있군요. IOS를 예로 들면, 아날로그 인에서 A / D까지는 일반적인 오디오 I / O와 비슷하지만 나중에이 다릅니다. A / D 후의 신호는 일반적으로 USB 또는 FireWire 패킷 형식으로 변환되어 있지요. 그러나 IOS는 FPGA 칩을 통과하여 네트워크 패킷으로 변환하고 있구요. FPGA는 회로 기판의 이치 구성 요소로 사용되고 있으며, 담당하려는 기능에 따라 크기와 유형을 선택합니다.
이 오디오 프로세싱에 사용하고있는 업체는 드물고, DIGICO과 CALREC 등 세계에 몇 회사 밖에없는 거죠. 오시마 DLS는 DigiLink 단자가 장착되어 있고, AVID 오디오 I / O SoundGrid 네트워크에 통합 할 수 있지요. 뻬이지 영국과 미국 차트에 들어있는 음악은 대부분이 Pro Tools | HD 또는 HDX 시스템으로 제작되고 있습니다. 그런 가운데, WAVES 플러그인 AAX DSP를 지원하지 않기 때문에, 우리는 그들을 Pro Tools에 도입하기위한 솔루션을 생각 싶었습니다.
최근 DLS + IOX (확장 I / O)의 결합을 추구하는 스튜디오가 많고, 얼마 전에도 독일 음악 프로듀서에게 납품한지 얼마거든요.
큐 박스 나 소형 I / O를 개발중인
미래의 Core i7 서버도 시야에
오시마 IOS 및 DLS의 DSP 성능은 현재 네트워크에 처음 연결 한 컴퓨터에서만 사용할 수 없습니다. 여러 컴퓨터에 배포 할 수 있으면 최고라고 생각 합니다만 앞으로 그 가능성은 있나요? 뻬이지 계획에는 포함되어 있지만 실현을 위해서는 DSP 성능의 관리 방법을 고민해야합니다. 구체적으로는 파워 배분 비율이나 한 컴퓨터가 종료 한 후 나머지 컴퓨터에 어떻게 재분배 할 것인가하는 것입니다.
올해의 계획으로는 네트워크에서 사용할 수있는 DSP의 수를 현재의 1 개에서 여러 늘린다는 업데이트가 있습니다. 즉 각 컴퓨터에 전용 DSP를 갖게되는 것이군요. 오시마 IOS는 INTEL Core i3, DLS는 Core i5가 구비되어 있지만, 더 고출력 Core i7 탑재 모델의 출시 예정은? 뻬이지 있습니다. WAVES이 PA의 플러그인 서버로 Core i7 기반 SoundGrid Extreme Server를 만들고 있기 때문에 기술적으로 어렵지는 않습니다. 과제는 비용 네요. 오시마 소형 기계 릴리스 등은 어떻습니까? 뻬이지 소형 플러그인 서버 등을 검토하고 있습니다 만, 현재 개발중인 것으로 2 인 / 2 아웃 ~ 4 인 / 4 아웃의 소형 I / O 상자를들 수 있습니다. 작은 제품이라는 카테고리로 말하면, 큐 박스도 개발하고있는 곳 이군요. 오시마 이더넷 연결 제품이 많아지면 시스템이 더 똑똑하게 될 것입니다.
개인적으로 SoundGrid 단자가 디지털 입출력의 표준이되면 좋다고 생각 합니다만, 예를 들면 SoundGrid 단자를 가진 신디 등이 출시 될 가능성이있는 것입니까? 오디오와 MIDI가 LAN 케이블 1 개로 전송할 수있게되기 때문에 매우 이상적이라고 생각합니다. 뻬이지 그것은 재미있는 생각 이군요! SoundGrid 프로토콜은 오픈이므로 타사에 협력을 바라 보는 것으로 신디도 제공 할 수 있을지도 모릅니다. 오시마 DIGIGRID 시스템에 큰 가능성을 느끼고 있습니다. 꼭 앞으로의 포부를 들려주세요. 뻬이지 SoundGrid 외에도 오디오 네트워크가 존재하지만 종종 다루어 기술이 필요합니다. 그 점 DIGIGRID 제품은 사용자가 자신의 의지를 반영하기 쉽다고 생각합니다. 향후 사용자 피드백을 바탕으로 스피커와 마이크, 악기 등 수 있고 재미 있네요. “네트워크에서 여러 장비가 이어지는 세계”…… 그것이 우리가 그리는 꿈입니다.
about DIGICO
▲ DIGICO 기술 책임자 존 스테이 디아즈.
DIGICO의 전신 인 SOUNDTRACS에서 레코딩 용 아날로그 탁자 등을 디자인하고 DIGICO는 자사 최초의 디지털 탁 D5와 현재 SD 시리즈 전 제품을 제작 해왔다. DIGIGRID에도 하드 제품의 개발을 총괄
▲ 혁신적인 제품을 제작 한 기술자에게 주어지는 “Gottelier Award”시상식의 모습.
스테이 디아즈가 수상한 것은 2012 년이다
▲ IOS의 제작 장면. 사진 앞에 보이는 것은 후면 패널에 8 개 뚫린 구멍은 후 마이크 / 라인 인 단자가 장착된다. 인쇄 회로 기판에는 DIGICO의 PA 광주 양도의 FPGA 칩이 하나의 구성 요소로 사용되고 있으며, 음성 네트워크 패킷 화 등을 실시한다. 냉각 팬 등을 사용, 마치 컴퓨터의 내용을보고있는 것
about WAVES
▲ 기술자들이 모이는 WAVES 우크라이나 오피스
▲ WAVES 사내에있는 “SoundGrid Room”의 모습. DIGIGRID 소프트웨어 개발도 여기에서 이루어지고 있으며, 작고 보이지 어렵지만 사진 오른쪽의 컴퓨터 디스플레이에 SoundGrid Studio가 비쳐있는
▲ DIGIGRID의 기술 지원.
SoundGrid Studio를 비추는 디스플레이 옆에는 DIGICO SD11가 설치되어있다
Mackie VLZ 802 소형 믹서를 활용하면, 녹음하는 부스 내부의 More me Cue 모니터링 시스탬을 구축하기 쉽습니다.
일단 소형 믹서를 사용하게 되면, 녹음시에 모니터링 소스를 믹서의 stereo LINE 입력으로 받아서, 볼륨을 조절해서 믹서의 헤드폰아웃을 통해 모니터링을 할 수 있습니다. 해당 소형 믹서를 헤드폰 앰프 대용으로 쓰게 되는것입니다.
근데 헤드폰 앰프와 믹서의 차이점은 믹서는 여러가지 소스를 각기 조절하면서 그것을 모니터링 할수 있다는 장점이 있기 떄문에, 녹음시에 모니터링 소스를 1개통의 mix 만 보내는것에서, 좀더 진보해서, 1개통의 mix 와, 1개통의 해당 모니터를 사용하는 연주자(보컬) 의 자신의 모니터링 소스 의 2개로 나눠 보내주는 것입니다.
다시말해서 내 자신의 소리 “me ” 와 다른 소리(또는 MR) “CUE” 의 2개 통으로 믹서로 넣어 주면, 믹서에서 fader 나 knob 으로 그 소리의 크기를 직접 조절해서 모니터링 할수 있는 방법입니다.
예를들면 보컬을 녹음할때에, 보컬의 녹음되는 소리를 1번 채널로 넣어주고, 나머지 악기소리 또는 MR 을 2번 채널로 보컬이 사용하는 믹서(헤드폰앰프) 로 넣어주면, 녹음하는 보컬이 스스로 , 1번 채널의 소리를 높힘으로써, 자신의 소리를 더 크게 듣거나, 2번 채널을 줄임으로써 MR 을 줄이거나 하는 것을 녹음하며 모니터링하는 연주자 본인이 셀프로 할 수 있게 됩니다.
보컬 녹음 으로 예시를 들겠습니다.
사용하는 녹음 콘솔의 보컬 녹음 채널의 다이렉트 아웃을 CUE 헤드폰 앰프로 사용할 802 VLZ 의 모노채널의 LINE input(ex 1채널 또는 2 채널) 으로 연결합니다.
(아래쪽의 1line 1 부분이 제가 사용하는 콘솔의 해당채널의 direct out routing 입니다. 이 콘솔의 line1 을 아날로그 케이블로 802 vlz 의 2번 체널 line input 으로 연결합니다.)
사용하는 녹음 콘솔의 보컬로 보내주는 스테레오 aux send mix 를 802 VLZ 의 스테레오 채널 에 입력합니다. (ex 5/6 또는 7/8 채널) 이때의 aux send mix 는 해당 보컬만 빠진 믹스를 보내줘도 됩니다. 이것을 방송쪽에서는 믹스-마이너스 라고 한다고 하네요.
이렇게 하면 보컬이 녹음할때의 direct out 으로 802 vlz 의 모노 채널에 입력이 들어가고, 나머지 모니터링을 담당하는 부분인 aux send out 은 스테레오 채널로 들어오기 때문에, 802 vlz 의 헤드폰 아웃을 통해서 모니터링을 하는 보컬 연주자에게 자신의 목소리와 나머지 소리를 802vlz 를 통해서 조절할수 있게 됩니다.
(aux send out 이 스테레오, 그리고 해당 레코딩 콘솔이 다중 direct out 을 지원한다는 가정하에 쓴글입니다. 왜냐면 direct out 을 통해서 녹음기(DAW) 로도 보내야 하기 때문입니다. 디지털 콘솔의 상황이면 대부분 될것이라 생각됩니다.)
(해당 디지털 콘솔의 다중 direct out 이 가능한 상황)
다만..만약 사용하는 콘솔이 다중 direct out 을 지원하지 않는다면 aux send mix 를 2개통으로 만들어서 보내면 됩니다.aux 1 으로는 보컬의 소리만 보내고 aux 2 로는 나머지 믹스를 보내서 , 802 vlz 에서 aux1 과 aux2 를 각기 다른 채널로 받아서 사용하면 됩니다.)
또한 굳이 802VLZ 를 쓰지 않아도 무방합니다…
모노 채널과, 스테레오 채널을 지원하는 작은 소형 믹서면 충분합니다.굳이 802 VLZ 를 예시로 든것은 제가 쓰기 때문입니다.-_-; ㅋ
다만 802 VLZ 를 사용하게 되면 또다른 기능을 사용할 수 있게 되는데요, 그것은 802VLZ 의 채널 에 ALT3-4 라는 기능이 있기 때문입니다.
ALT3-4버튼 을 누르게 되면, 해당 채널의 소리가 MAIN out 이나 헤드폰 아웃으로 나가지 않고 ALT OUT 으로 나가게 됩니다.
ALT34 에 대해서는 다음 동영상을 참고 하시면 좋을것 같습니다.
1번 채널에는 보컬의 마이크를 연결하고, ALT34 버튼을 누릅니다. 그러면 보컬의 소리는 ALT34 아웃을 통해서 나가게 됩니다. (Mackie 의 Preamp 를 사용하게 되겠네요)
이 ALT 34 를 녹음 콘솔의 VOCAL 채널 입력으로 받습니다. 하지만 이미 프리앰프를 거친 소리 이므로 LINE input 으로 받으면됩니다.
녹음 콘솔의 vocal 채널의 direct 아웃은 다시 802VLZ 의 2번 채널의 line input 으로 연결합니다. 이 채널은 alt34 버튼이 안눌려있습니다.
802VLZ 의 control room 매트릭스는 alt34 는 누르지말고 main 만 눌러서 main 아웃 만 듣도록합니다. 컨트롤룸 아웃이 헤드폰 아웃과 같은 소리가 나는곳입니다.만약 컨트롤룸 아웃에 alt34 버튼도 눌려있어서 컨트롤룸에서 alt34 소리가 들리게 되면, 아마 피드백이 날것으로 예상됩니다..)
녹음 콘솔의 vocal 을 위한 aux send mix 아웃은 다시 803VLZ 의 스테레오 5/6 채널의 line input 으로 연결합니다. 이채널도 alt34 버튼은 안눌려 있습니다.
이렇게 사용하면, 802VLZ 의 1번 채널 프리앰프를 통해서 보컬을 녹음하고, 녹음되는 소리는 2번 과 5/6 번을 통해서 me 와 cue 를 볼륨을 조절하면서 모니터링 할 수 있게 됩니다.
조금더 응용해보면 사실 2번과 5/6 번을 통해서 me 와 cue 를 모니터링 하지 않고 , 1번과 5/6 번만 사용하고 컨트롤룸 매트릭스에서 alt34 , main 둘다 셀렉트 해서 사용해도됩니다.
구성하기에 따라서 다양한 응용이 되기 때문에, 꼭 무엇이 정답이라 할수는 없습니다. 사실은 요즘같은 시대에는 모니터 cue 믹서가 디지털화 되어 나오는 제품이 많이 있기 때문에 굳이 80zVLZ 와 4채널 짜리 굵은 멀티케이블을 이용해서 이걸 구성해야 하나? 하는 생각도 할 수도 있습니다.
이런것은 응용일뿐이지, 최선책은 아닙니다.
우선은 쉽게, Me 와 Cue 를 조절할수 있게 녹음 채널의 direct out 과 aux send mix 를 조그만 소형믹서에 보내서 헤드폰으로 모니터링 할 수 있도록 해보는것 부터 시도해보면 좋을것 같습니다.
1. 애플의 맥의 오디오 드라이버인 코어 오디오 드라이버는 맥의 메인보드의 클럭을 끌어와 사용하는 방식임 (무조건 동기식 전송방식)
– 이게 여러가지 다른 오디오 인터페이스를 어그리게이트 (동시에 하나로 붙여서 사용) 할수 있는 이유임.클럭이 메인보드의 클럭으로 통일되어 있으니까.asio4all 처럼.
2.그래서 맥의 새로운 os 이후에 클럭을 따로 가지고 가는 dsp mixer 가 있는 오디오 인터페이스들에 대한 지원을 끊어 버렸음 – 오로지 코어오디오 드라이버만 사용하는 제품들만사용가능하고 자체 클럭과 자체 드라이버를 사용하는 오디오인터페이스는 동작 안함 (RME , 포커스라이트등등이 비동기식 전송 방식 오인페들)
3. 특히 썬더볼트를 사용하는 특정 애플 전용 오인페들은 코어오디오 드라이버 종속적으로 만들다보니, 오인페 내장 클럭이 없고, 이게 바로 그 오인페들이 윈도우용 드라이버를 만들어도 보드를 타는등 제대로 동작을 안하는 이유일 가능성이 높음.
4. 이렇게 메인보드 클럭을 쓰는 오디오 인터페이스를 동기식 전송 방식이라고 하는데 , 이것은 usb 나 썬더볼트 케이블에 따라 클럭 전송이 완벽하지 못할수있어서 전기 상태나, 케이블 상태에 따라 음질 영향을 엄청 받을수있음.
K-meter 는 마스터링 엔지니어로 유명한 bob katz 가 설계하고 만들어낸 일종의 마스터링용도의 미터입니다.
소리 신호는 소리의 원래 파형의 최대치를 볼수있는 PEAK 미터와 소리의 실제 느껴지는 크기에 가까운 RMS , ITU-R 등으로 meter 의 방식이 나눠지게 되는데 이 K-system 은 RMS (또는 ITU-R) 를 통해서 소리의 크기를 눈에 보이는 meter 로 표기해주는 것입니다
K-system 에는 몇가지의 기준이 있는데 K-20의 경우 PEAK 와 RMS 의 사이에 20dB 의 헤드룸을 주는방식이고 , K-14의 경우에는 14dB , K-12 의 경우에는 12dB 의 헤드룸을 주는방식입니다. 다이내믹 레인지가 커야하는 극장 시스탬용 사운드나 음원의 경우는 K-20, 팝음악 이나 방송용 음악의 경우는 K-12 , 그리고 팝, 클래식 음악같은경우는 보통 K-14 를 사용해서 기준을 맞춰서 소리를 가공하면 됩니다.
결국 다시말해서 이 미터 시스탬을 이용하면 귀로 들리는 “청감상 소리의 크기”를 어느 정도 알수 있고, -20, -14 등의 기준점이 표시되어 있어서 (VU 미터의 0vu 처럼) 기준에 맞출수 있도록 지시해주고 있습니다.
구글에서 아래와 같이 “free k-meter vst” 를 검색하면 아래 사이트가 나옵니다.
usb 2.0 만 되도 충분한 녹음 성능을 낼수있는 버스 스피드는 된다라고 본다.
왜냐면 usb 2.0 만 되도 최대 100MB/s 최소 20-30MB/s 정도의 속도는 나오기 떄문이다.
근데 문제는 USB 로 만들어진 저장 장치 USB 메모리등은 내부 저장 칩의 성능으로 인하여 USB 버스의 스피드가 나오진 않는다.(사실 이부분은 HDD 도 마찮가지.그래서 다수의 멀티트랙 동시 녹음을 해야하는 스튜디오면 반드시 SSD 를 쓰는것이 좋다…아니면 예전 랩터 같은 빠른 HDD)
보통
녹음/재생 성능은 순차(seq) 읽기/쓰기 성능을 보면 안된다.
녹음/재생 성능은 조각(512k) 읽기/쓰기 성능과 관련이 있다.
하지만 물건을 팔떄 대부분 속도 표기는 순차 읽기/쓰기 성능을 표기한다…
그것을 믿고 녹음에 사용하면 안된다.
왜냐면 어느 DSP 엔진이던 buffer 단위로 사운드를 처리하게 되고 그 Buffer 가 메모리에서 프로세스가 진행된후 그 buffer 단위로 저장장치에 읽기/쓰기 를 하기 떄문이다.
그 buffer 의 크기는 매우 작고 그것이 바로 “조각” 읽기/쓰기 성능과 관련이 있게 되는이유이다.
보통 ssd 는 이 조각(512k) 읽기/쓰기 능력이 좋다.
하지만 대부분의 usb 메모리들은 512k 읽기/쓰기 능력이 매우 많이 떨어진다. (내부에 사용되는 메모리 칩의 방식의 차이로 인하여)
HDD 들도 이 조각 읽기/쓰기 능력이 매우 떨어진다.