장비의 밸런스 출력의 방식에 따른 장단점

이 글에서 이야기하는 밸런스 출력은, 마이크오디오 인터페이스컨버터프리앰프 등의 라인 레벨 출력 장비를 말하고 있습니다.

밸런스 출력의 구현 방식에는 대표적으로 3가지가 있습니다.

일단 장비의 내부 신호 회로는 언밸런스로 처리되게 됩니다. 내부 회로에서 밸런스 신호로 신호 처리를 하게 되면, 쓸데없는 일을 2번씩 하게 되는 것이므로, 보통 그렇게 하지 않습니다. 그렇기 때문에 내부에서 언밸런스로 여러가지 신호 처리(프리앰프이퀄라이저컴프레서 등등)를 한 다음, 출력 회로에서 밸런스로 전환하는 방식으로 출력하게 됩니다.

마이크의 경우에는, 주로 트랜스포머 아웃이나, DC coupled 아웃이 많이 사용되며, 오디오 인터페이스는 DC coupled 아웃과, 액티브 버퍼 아웃 방식을 주로 사용합니다.

트랜스포머 아웃

트랜스포머 밸런스 출력, 이것은 트랜스포머를 이용해서 패시브 방식으로 신호의 +와 -를 출력해 내는 방식입니다.

트랜스포머 출력과 액티브 버퍼 출력은 밸런스 신호의 원리에 위해 아래와 같이 DC bias 가 자동으로 제거 되게 됩니다.

전력이 필요하지 않은 패시브 방식이고, 트랜스포머의 품질에 따라 고역대 대역폭 및 THD의 정도가 달라지게 됩니다.

액티브 버퍼 아웃

Op-amp, 또는 FET(전계효과 트랜지스터)를 이용하여 소리를 복사 하여 + – 의 밸런스 출력을 구사하는 방법입니다.

트랜스포머 출력과 액티브 버퍼 출력은 밸런스 신호의 원리에 위해 아래와 같이 DC bias 가 자동으로 제거 되게 됩니다.

저역이 사라지는 일은 없습니다. 다만 액티브 버퍼의 회로의 구성과 품질에 따라 성능이 달라지게 됩니다. 대신 회로 구성이 복잡해지고, 그 회로 품질에 따라 CMRR 이나 고역대 특성, 노이즈 플로어 등이 차이가 나게 됩니다. 출력부의 노이즈 플로어가 회로가 복잡하기 때문에 다소 높습니다. 회로가 부실한경우 CMRR 특성에 의해서 고역대가 답답해질 수 있습니다.

출력 임피던스는 낮은 편입니다.

보통 보면 다이내믹 레인지가 낮은데 소리가 좋은 하이엔드 오디오 인터페이스들의 출력 방식이 바로 이러한 케이스에 속합니다.
따라서, 다이내믹 레인지만 가지고 오디오 인터페이스의 성능을 평가 하는 것은 옳지 않습니다.
마이크에서는 따로 파워 서플라이가 있는 경우 종종 액티브 버퍼 아웃이 구현되기도 합니다.1)

DC coupled 아웃

이것은 언밸런스 신호에 들어있는 DC bias만 제거하여 여전히 언밸런스인 상태로 출력하는 방식입니다. 다만 +쪽에 신호가 있다 해도, -쪽의 임피던스가 맞지 않으면 제대로 동작하지 않기 때문에2), 신호가 없는 쪽에는 똑같은 임피던스를 매칭하게 됩니다.

다만 DC 성분을 제거하기 위한 캐패시터가, 완벽한 직류만 제거하기보다는 “직류에 가까운” 성분을 제거하는, 즉 로우컷 필터로 작동하기 때문에, 저역대의 손실이 발생하게 됩니다. 마이크에서 이러한 DC coupled 아웃을 구성하는 경우에는, 마이크의 출력 전압 자체가 작기 때문에, 캐패시터에 의해 적용되는 로우컷 필터의 기울기가 느슨하기 때문에, 다소 많은 저음이 사라질 수도 있습니다.

오디오 인터페이스의 경우는 라인레벨 아웃 출력이기 때문에, 마이크 의 출력에 비해서 신호 전압의 크기가 높습니다. 따라서 캐패시터 용량이 좀 더 최적화 되어서, 필터의 기울기도 많이 가파르게 구성되기 때문에, 마이크의 DC coupled 아웃 방식에 비해 저역이 없어지는 일은 마이크에 적용한 DC coupled 아웃보다 덜 합니다.

비슷하게 마이크 프리앰프에도 이러한 DC coupled output 을 사용하는 경우도 있는데, 오디오 인터페이스와 똑같이 라인 레벨인 경우 이므로 동일합니다.

회로가 매우 간단해서 출력부의 노이즈 플로어가 낮기 때문에 출력 다이내믹 레인지가 아주 높아집니다.
또한, 간단한 회로 덕분에 일반적인 다른 밸런스 출력 방식에 비해서 하이 대역이 시원하게 뚫려 있습니다.
저렴한 오디오 인터페이스인데 다이내믹 레인지만 엄청 높은 제품의 경우 바로 이러한 케이스들에 속하는 경우가 많습니다.

밸런스 임피던스 매칭 탓에 출력 임피던스가 다소 높아집니다.

DC coupled output을 구분하는 꼼수

라인아웃 출력에 헤드폰을 연결해보면, 액티브 버퍼 아웃이나 트랜스포머 아웃의 경우는 L 과 R 양쪽에서 소리가 납니다. + 와 – 에 둘다 신호가 있기 때문 입니다.

근데 DC coupled 아웃의 경우는 헤드폰을 연결해보면, 한쪽에서만 소리가 납니다. 왜냐면 한쪽은 임피던스만 매칭해 놓고 실질적인 신호는 없는 출력이기 때문입니다.

그러나 이러한 성질을 이용하여 아날로그 신디사이저에 CV out 을 출력하여 사용 가능한 장점도 있습니다.

생산 원가

DC coupled 아웃은 생산 원가가 저렴합니다. 전기도 들 먹습니다. 그래서 전력 소모가 적어야 하는 제품은 거의 DC coupled 아웃풋입니다. 버스 파워 오디오 인터페이스의 경우 거의 대부분 DC coupled out으로 구성됩니다.

액티브 버퍼 아웃 방식은 당연히 전력 소모가 들어가고, 전원부가 커집니다. 그래서 버스 파워 오디오 인터페이스는 이 방식으로 만들기 힘듭니다. 마이크도 따로 파워서플라이를 사용하는 마이크가 아니라면 이러한 액티브 버퍼 아웃 방식을 사용하기는 힘듭니다.

트랜스포머 아웃 방식은 트랜스포머의 퀄리티에 영향을 받습니다. 또한 트랜스포머 자체가 굉장히 비싼 부품 입니다. 마이크에는 트랜스포머 아웃을 사용해도 오디오 인터페이스에는 보통 사용하지 않습니다.

1) 대부분의 마이크는 트랜스포머 아웃 아니면 DC coupled out 임

2) 신호가 있는 쪽에서 없는 쪽으로 흘러 들어간다던지

Tube 마이크 vs FET 마이크

전통적인 마이크에서 사용되던 회로 구성 방식은 Tube 마이크였습니다. 하지만 Tube 마이크는, 마이크의 내구성이나, 진공관의 유지 관리 문제, 또 마이크에 따로 파워 서플라이를 사용해야 하는 문제 때문에, 사용 상의 불편함이 존재 했습니다.1)

따라서 팬텀 파워의 방식으로 마이크에 전원을 공급해주는 방식을 사용하면서, 회로를 저전력을 사용하는 FET 로 교체하기 시작하면서, 진공관 마이크의 회로 작동 방식을 비슷하게 유지 하면서, 진공관 마이크의 운용 상의 단점들을 제거할 수 있었습니다.

Tube 마이크

진공관 마이크의 경우에는 캡슐에서 받아들인 소리 신호의 증폭을 위해 따로 진공관을 사용하고, 진공관에 DC bias 를 높은 전압으로 걸어서 증폭한 후, 출력 트랜스포머를 통해 다시 마이크 레벨로 신호를 전압을 낮춰 출력합니다.

트랜스포머의 권선비, 즉 입력 측 전압: 출력 측 전압의 비율이 높을 수록 트랜스포머의 역기전력에 의해 생성되는 THD 는 적어지고, 고역대의 대역폭이 늘어나며, 출력 임피던스는 낮아지는 특성이 있습니다.

FET 마이크

진공관 마이크의 거추장 스러운 파워 서플라이와 전원선이 일부 사용 현장2)에서는 매우 불편했기 때문에, 팬텀 파워를 사용하는 마이크의 필요성에 의해 진공관 회로는 FET 회로로 대체되기 시작했습니다.

FET 마이크의 경우에는 마이크의 내부의 증폭회로를 진공관과 유사한 동작이 가능한 FET를 사용하여 구성하는 방식입니다. 다만 FET 의 경우 진공관처럼 높은 DC bias를 걸어 사용할 수 없으므로 트랜스포머로 출력 전압을 낮추기 보다는, 출력신호를 밸런스로 전환하는 정도로 사용하게 됩니다.3)4)

따라서, Tube 마이크에 비해 트랜스포머의 역기전력에 의해 생성되는 THD 의 영향을 많이 받으며, 고역대의 대역폭이 다소 답답할 수 있습니다.

결론

FET 는 진공관 소자와 유사한 방식으로 동작하는 회로일 뿐5)이며, 좀 더 깊이 들어가면 음색뿐만 아니라 이러한 많은 차이가 존재 합니다.

1) 개인 사용자는 불편함이 없을지 몰라도, 방송국이나, 상업적 환경, 또는 로케이션 녹음 등에서는 전원 연결이나, 유지 관리 등의 불편함이 존재한다.

2) 방송국이나 라이브 현장, 외부 현장

3)팬텀 파워는 48V 라는 전압 자체는 매우 높지만, 전체적인 전력으로는 2mA 미만의 전류를 사용하므로, 0.1W 미만의 전력입니다.

4)FET 증폭 회로의 경우에는 출력 임피던스가 원래 높지 않습니다.

5)DC bias 를 걸어 전압 증폭

NEVE 유니즌 프리앰프가 과연 니브 소리가 날까?

NEVE 1073 은 오디오 엔지니어링 역사 상 가장 유니크하고 가장 유명한 프리앰프 중 하나 입니다.

이 프리앰프의 가장 큰 특징들은 다음과 같습니다.

6개의 양극성 트랜지스터(BJT)로 이루어진 증폭회로는 0~80dB의 마이크 신호 증폭 및 -20dB~20dB의 라인 트림/증폭을 할 수 있다는 점입니다. 1)

매우 높은 Max input level을 가지고 있습니다. 26dBu의 높은 Max input level 로 인하여 +4dBu 위로 22dB의 아주 높은 헤드룸을 가지고 있습니다.

입력과 출력에 트랜스포머를 사용하여 밸런스 입력/밸런스 출력을 구성합니다.

6개의 트랜지스터 회로가 소모하는 전력량은 최근의 프리앰프 보다는 매우 높은 편이며, 22dB의 높은 헤드룸으로 인하여, 게인을 충분히 사용하면 아주 갚은 저역과 청량한 고역 모두 담겨있는 넓은 대역폭을 구사할 수 있으며, 입출력 트랜스포머에 의해 첨가되는 THD 는 소리에 약간의 착색을 추가한다고 이야기 하기도 합니다. 물론 THD 는 당연히 반가운 손님은 아닙니다.

이러한 오리지널 NEVE 1073 프리앰프의 소리를 과연 UA 아폴로의 Unison 프리앰프로 똑같이 재현할 수 있을까요?

전 그렇게 생각하지 않습니다.

UA 아폴로에 기본적으로 장착되어 있는 프리앰프는 Max input level 이 6dBu 의 프리앰프이며, 이러한 낮은 Max input level 은 실제 니브의 26dBu Max input level의 높은 헤드룸의 대역폭을 똑같이 재현하기가 매우 힘듭니다. 특히 니브의 0~80dB 게인 레인지를 모두 담기에 6dBu 의 낮은 Max input은, 실제 니브의 60~80dB 의 게인영역을 우리가 사용해볼 기회 자체를 제공하지 못합니다. 아 -20dB PAD 를 눌러서 해볼 수는 있겠습니다만….

특히 UA의 유니즌 프리앰프 기술은 원래의 플러그인 버전에서 레이턴시를 제공하는 몇몇 기능2)을 제거함으로써 제로 레이턴시를 가능하게 만들어서, 입력된 소리에 해당 플러그인을 프린팅하는 기능에 불과 합니다.3)

아 물론 입출력 트랜스포머에 의해 추가되는 THD 는 잘 재현한 것 같습니다만, THD 는 항상 반가운 손님이 아니라는 점입니다.

저는 유니즌 프리앰프에서 원래의 오리지널 하드웨어 프리앰프의 느낌을 한번도 받은적이 없습니다.

우리는 이제 유니즌 프리앰프에 대한 환상을 깨야 할지도 모르겠습니다.

1) BJT 트랜지스터는 1개 당 보통 10-15dB 의 증폭이 가능합니다.

2) 오버샘플링, 리니어나 미니엄 페이즈를 제공하는 필터 알고리즘 등

3) Steinberg 플러그인들의 Live 기능이나, 다른 회사 플러그인들의 Low latency 모드와 대동소이한 기능

“모두의 홈레코딩” 책 출간

책 구매 링크
https://smartstore.naver.com/riversidejazz/products/6314048729

리버사이드 재즈 스튜디오의 전문 홈레코딩 노하우를 전부 담았습니다.
레코딩이라는 다소 어려운 분야를 홐레코딩이라는 주제에 맞춰서 쉽게 설명한 책입니다.
A4 사이즈의 큰 책에 글씨 크기도 크고, 전부 컬러 인쇄로 되어있습니다.

모두의 홈레코딩

서문

시대가 변함에 따라 녹음실에서만 가능했던 녹음들이 우리는 이제 집에서도 충분히 가능하게 되었습니다. 필자는 오랜 연주와 녹음 경력을 살려 녹음실을 다년 간 운영했으며, 대학 등에서 레코딩에 대해 가르쳐왔습니다. 여러분은 이 책을 통해서 다양한 소리의 홈레코딩에 대해서 거의 대부분을 알 수 있습니다.

녹음에 대한 내용은 깊이 들어가면 사실 어려울 수 있는데, 이 책에서는 적정한 난이도를 위해 모든 과정을 쉽게 서술했습니다. 마치 아무것도 모르는 주변 연주인 친구들에게 설명하는 기분으로 이 책을 썼습니다.

이 책에서는 DAW 로 큐베이스를 사용하고, 오디오 인터페이스로는 Steinberg 사의 UR12를 이용하여 홈레코딩 하는 것에 대해서 적었지만, 사실 아무 DAW나 아무 오디오 인터페이스를 사용해도 기본적인 내용은 모두 똑같습니다. 여러분의 응용력을 발휘하면 어떤 DAW 나 어떤 오디오 인터페이스를 사용해도 모두 기본은 같습니다. 다만, 건반악기의 경우 스테레오 녹음을 위해 Line input이 2개 이상 필요하기 때문에, UR22C를 이용하여 설명하였고, 드럼의 경우는 UR816C와 같은 8인풋 이상의 오디오 인터페이스를 사용할 것을 권장합니다.

책의 초반에는 여러분이 준비해야 할 것들, 그리고 설정해야 할 것들에 대한 내용을 적었고, 책의 중반부에는 녹음에 대한 기본적인 사항과 소리의 크기에 대한 내용에 대해서 적었습니다. 그리고 그 다음 부분에는 각 악기별 녹음 방법에 대해 적었습니다. 이 부분이 아마도 가장 중요한 부분이 아닐까 생각됩니다.
마지막으로 음향 이론에 대해서 중요한 것을 추려서 넣어보았습니다. 최근 관심이 많아지는 돌비 애트모스에 대한 내용과, 뮤지션으로써 궁금해 할 오디오 프로덕션(스튜디오 비즈니스)에 대한 이야기도 넣어봤습니다.

이 책이 여러분에게 도움이 꼭 되길 바라며, 마지막으로 드릴 말씀은 항상 존버 하세오. 앞으로 거만한데 실력없고, 서비스 엉망이며, 바가지 요금 받는 큰 녹음실들이 빨리 다 사라지길 바라며…(우리 녹음실 빼고)

작가 소개

정승환은 리버사이드 재즈 스튜디오의 대표입니다. 중앙대학교 기계공학부(컴퓨터음악 동아리 MuSE 활동)를 졸업하고, 상명대학교 뉴미디어 음악학과에 진학하여 석사학위를 받았으며, 20년 넘는 베이스 연주자로서의 생활과, 녹음 엔지니어로서의 생활을 통해 수많은 녹음과 어커스틱 악기에 대한 노하우를 쌓았습니다.

한국방송예술진흥원에서 방송음향과와 실용음악과 전임교수를 역임했고, 여러분이 한번도 들어보지 못했을 수도 있는 극소수의 대학에 출강했으며, 현재는 세계사이버 대학에서 겸임교수로 홈레코딩과 앙상블 수업을 지도 중에 있습니다.

홈레코딩 위키 – https://wiki.homerecz.com 와 홈레코딩 썰풀기 – http://www.homerecz.com 사이트를 운영 중입니다.

리버사이드 재즈 스튜디오 – http://rsjazz.modoo.at
이메일 – admin@homerecz.com

그의 인생은 존버의 연속이었고, 지금도 그는 존버 중입니다. 언젠가 빛을 볼 날을 위해서.

항상 존버하세요.



지은이 정승환 / 펴낸이 정승환 / 삽화 정승환
교정 정승환 / 디자인 정승환 / 마켓팅 정승환

펴낸곳 리버사이드 재즈 / http://rsjazz.modoo.at
E-mail : admin@homerecz.com

출판등록 제25100-2022-000008호 정승환
ISBN 979-11-977905-0-8

목차

기타 앰프 녹음에 대하여, 리액티브 로드 + 캐비넷 시뮬레이터류.

최근 시장에 기타 앰프의 헤드의 크랭크 업 느낌까지 전부 사용가능하면서, 그것을 조용하게 녹음만 할수 있는 시스템 

즉 리액티브 로드 박스 스타일의 제품들이 몇가지 출시 되고 있습니다.

기타앰프 소리를 녹음하는 방식은 몇가지가 있습니다.

1. 기타 앰프 마이킹

기타앰프의 녹음에 대해서는 원래대로라면 기타앰프에 마이크를 대어 녹음하는것이 가장 보편적인 방식입니다.

9fe482c8b2f5aa840026e5c4929be477_1614926678_8799.png

아무래도 가장 우리가 알고 있는 보편적이고 가장 원초적인 방법이라고 생각됩니다.

2. 앰프 시뮬레이터를 이용하는 방법

이것말고 기타를 녹음하는 방식으로는 앰프 시뮬레이터(또는 앰프시뮬레이터 플러그인)를 사용하는 방법이 있습니다.

최근의 멀티 이팩터 들은 앰프시뮬레이터의 내장으로 기타를 바로 다이렉트로 앰프 시뮬레이터에 연결하여 녹음할 수 있습니다.

9fe482c8b2f5aa840026e5c4929be477_1614926865_2233.png

야마하 THR100HD direct out demo

아무래도 가장 간편한 방법이긴합니다.

하지만 사실 앰프 마이킹의 오리지널 사운드에 근접할뿐이지 그것을 결코 뛰어넘지는 못하는것도 사실입니다.

단, 장점이 있습니다. 

여러가지 악기를 동시에 연주하눈 라이브 상황이나, 밴드 라이브 녹음이 진행되는 상황등에서는 , 드럼등의 큰 소리를 내는 악기의 사운드가 기타앰프 에 마이킹한 마이크로 같이 소리가 들어온다던지 하는것으로 여러모로 힘든 상황들이 발생하기 떄문입니다.

9fe482c8b2f5aa840026e5c4929be477_1614927040_968.png

이것은 매우 일반적이며, 사실 생동감을 주는 요소이기도 하지만, 만약 기타리스트가 녹음을 마친후에 나중에 기타의 수정을 요구할경우 , 아예 처음부터 다시 전부 기타만 새로 녹음하지 않는한, 구간구간의 수정은 힘듭니다. 또한 사실 다른 마이크로도 들어와있는 기타소리들이 있기 때문에 수정이 아예 불가능한 그런 상황도 발생합니다. (이런것들은 그래서 프도듀서의 계획하에 반주 기타만 먼저 같이 밴드로 녹음후 솔로만 후시 녹음하는등의 태크닉이 필요합니다. 이것도 녹음실의 상황이라면 가능하겠지만, 밴드 라이브 레코딩 경우에는 이것도 힘들겠죠)

3. 리액티브 로드 박스+캐비넷 시뮬레이터 류

이 방법은 기타 앰프의 사용을 아예 안하는 2번째의 방법과는 달리, 기타 앰프를 사용합니다. 단. 반만 사용합니다. 앰프의 헤드 부분만을 사용하고 스피커는 사용을 안하게 됩니다. 

스피커 캐비넷은 리액티브 로드박스라는 녀석이 대체를 하게 되고, 거기에 캐비넷 시뮬레이터를 IR 등의 방식으로 거쳐서 스피커 캐비넷의 느낌을 흉내내게 됩니다.

중간에 왜 로드 박스라는게 들어가나, 왜 파워 앰프 출력을 바로 캐비넷 시뮬레이터로 연결하면 안될까?

파워앰프가 실제적인 소리를 내주기 위해선 스피커가 연결되었을시의 사운드를 재현해야합니다.

사람들은 바로 파워앰프의 출력을 녹음하거나 거기에 캐비넷 시뮬레이터를 연결해봤더니 앰프헤드에 실제의 스피커가 연결되었을때 나오는 사운드와 그냥 나오는 사운드가 많이 다르다는것을 알게 되었습니다. 그래서 스피커를 대체하는 다른 부하(LOAD) 가 필요하다는것을 알게 되었습니다.

처음에는 더미로드 박스라는걸 썼었습니다.

이 더미 로드라는것은 캐비넷의 설계 임피던스 인 8옴 16옴 이런것을 반영하여 그 부하 임피던스만 연결해서 사용하는것이었습니다.근데 소리가 너무 안좋았습니다. 실제 파워앰프의 반응과는 너무도 다른 소리를 내어주었습니다.

그 이유는, 원래 기타 앰프의 스피커 출력 신호가, 스피커로 들어가면서 스피커가 진동하며 만들어내는, LOAD 임피던스는 스피커의 움직임에 의해서 실시간으로 변화 합니다. LOAD  임피던스는 스피커에 8옴 연결 16옴 연결등 적혀져있는 값으로 생각될수 있지만, 사실 실제 물리적인 현상은 그렇지 않습니다. 스피커의 자석과 코일이 이격될수록 그 로드 임피던스는 변동하며, 스피커의 물성에 따라서도 그 물리적인 탄성때문에 로드 임피던스는 시시각각 변화 합니다.

그래서 리액티브 로드 박스라는것이 등장합니다.

리액티브 로드 박스라는것은 신호에 따라 시시각각 변화하는 로드 임피던스를 최대한 스피커처럼 변화하도록 만들어놓은 일종의 넌리니어 부하(load) 발생기 입니다. 그래서 기타 앰프 헤드가 실제적으로 스피커가 연결되어 있다고 착각하고 리얼한 소리를 내어주게 됩니다. 

여튼 그래서 리액티브 로드박스까지 오는 신호는 모드 순수한 아날로그 이고 그 이후에 스피커의 주파수 특성및 위상특성, 잔향 특성 만 시뮬레이션하여 녹음을 하게 됩니다.

단순히 앰프 시뮬레이터를 쓰는경우는 기타 이후의 모든 시그널이 앰프 시뮬레이터이지만, 이 경우는 기타 이후, 앰프 헤드까지는 오리지널 기타 신호를 모두 유지하고, 기타 앰프 헤드의 특성까지 모두 유지한체 그 이후의 신호만 시뮬레이션 하게 됩니다.

따라서 어느정도 순수한 아날로그 기타신호를 유지한체로 2번의 장점인 사운드 아이솔레이션(다른 악기소리와 섞이지 않음) 장점까지 얻어갈 수 있는것입니다.

몇가지 제품들이 시장에 나와있는데

메사부기 캡클론 IR

투노츠 엔지니어링 캡터 x

UA ox

4. 장단점이 뚜렷히 보입니다.

일단 앰프시뮬레이터나, 리액티브 로드박스+캐비넷 시뮬레이터의 경우의 장점은

완벽한 사운드 아이솔레이션이 가능하다는 점입니다. 절대로 앰프 마이킹한 마이크로, 드럼소리 나 베이스 소리등의 다른 잡소리가 들어올 염려가 없다는 점입니다. 그동안 왜인지 모르게 나만 무대에 올라가면 평소에 밉던 드러머가 더 화나서 더 시끄럽게 드럼치는듯한 느낌을 받아온 기타리스트라면 이제 고통 해방인지도 모르겠습니다.

하지만 단점도 뚜렷히 보입니다. 캐비넷 시뮬레이터가 그렇게 까지 실제 앰프 캐비넷 소리의 그 컴플렉스하고 넌리니어한 느낌을 재현하진 못하는것 같습니다. 여러 유튜브 영상에서도 뚜렷히 그차이는 느껴집니다. 

만약 녹음을 충분히 따로 받을수 있는 공간이 있다면, 앰프 마이킹이 최고의 방법이 될것같습니다. 하지만 대부분 홈레코딩 상황에서는 앰프를 충분히 크랭크업 시킨 볼륨으로 녹음할수 있는 공간은 없긴 하지만 말입니다. 

이 글을 보는 당신도 그런 공간은 없잖아요? 있으면 말구요

DSP FX 가 없는 오디오 인터페이스에서 리버브 모니터링

보통 저가형 오디오 인터페이스들은 다이렉트 모니터링을 버튼식이나 노브식으로, 아날로그의 방식으로 해주게 됩니다.

이런 오디오인터페이스들의 경우에는 다이렉트 모니터링을 DSP 로 하지 않고 그냥 순수한 아날로그 루팅으로 하다보니, DSP 칩이 아예 없어서, DSP FX 도 당연히 없습니다. DSP 칩이 있는 경우는 DSP mixer 로 다이렉트 모니터링 뿐만 아니라 추가로 리버브 같은 DSP FX 가 있어서 녹음하면서 모니터링시 리버브 효과도 줄 수 있는 경우가 있습니다.

솔직히 노래를 녹음하거나 할떄 모니터링 되는 자기 소리에 리버브가 촉촉히 묻어있으면 더욱 감성을 터치 하여 노래가 더 잘되는 부분도 무시하지 못합니다.

그래서 녹음시에 이렉트 모니터링을 포기하고 그냥 소프트웨어 모니터링을 통해서 레이턴시가 있더라도, 리버브를 플러그인으로 걸고 모니터링을 하기도 합니다. 하지만 이 경우 제로레이턴시로 모니터링이 안된다는 단점이 크게 있습니다.

하지만 아날로그식 다이렉트 모니터링(버튼식,노브식) 이라 DSP FX 가 없는 경우에 이것을 전혀 못하는 것은 아닙니다.

큐베이스를 예시로 설명해보겠습니다.

우선 아래와 같이 오디오트랙을 하나 만듭니다.

이렇게 만든 트랙은 보컬 녹음을 하기 위해서 UR12 오디오 인터페이스(버튼식, DSP FX 없음) 의 1번 인풋을 입력으로 설정합니다.

그 다음 FX send 채널을 만듭니다.


해당 Fx 트랙에는 리버브 vst 이팩터를 걸어줍니다.
녹음할 인풋트랙의 아웃풋은 No bus 로 설정합니다.

다이렉트 모니터링을 사용할것이기 때문에 보통은 녹음할 트랙의 input monitor 버튼을 켜지 않고 다이렉트 모니터링 버튼을 눌러서 자신의 목소리를 녹음하게 되는데요,

여기서는 일부러 해당 트랙의 출력을 No BUS 로 설정하고 Input monitor 버튼을 눌러서 사용합니다.

이렇게 설정하면, 인풋 모니터링 버튼이 켜져도 소리가 아웃풋으로 안나가고(No BUS) , Send FX 로 지정한 리버브의 잔향만 작동하는 상태가 됩니다.

다시말해서 녹음하는 소리의 원래 소리는 오디오 인터페이스의 다이렉트 모니터링 기능을 이용해서 제로레이턴시로 모니터링하고, 리버브 이팩터만 내부에서 SEND FX 를 이용해서 걸어서 잔향만 소리가 나오도록 하게 됩니다.

이렇게 사용하면, DSP FX 가 없는 오디오 인터페이스로도 얼마든지 리버브가 걸린소리로 모니터링하면서 녹음이 가능합니다.

포커스라이트사의 제품들중에는 DSP Mixer 는 있지만, DSP FX 는 없는 경우가 있고 (클라렛, 레드넷 등) 또한 RME 제품중에서도 Total mix FX 가 아닌 일반 Total mix 의 경우에는 리버브가 DSP Mixer 에서 빠져있기도 합니다. 이런 오디오 인터페이스들에서도 이것을 응용하면, CUE 모니터 등에도 이렇게 설정하여 사용할 수 있습니다.

DAW 를 통해 모니터링 하지 말아라.

큐베이스나 로직 등의 DAW 를 통한 보컬이나, 어커스틱 악기 녹음시, 지금 연주하거나 노래 하는 것을 헤드폰으로 듣기 위한 모니터링 방법에는 여러가지가 있지만, 크게 다음의 두가지가 있다.

  • 네이티브 모니터링(소프트웨어 모니터링)
    네이티브 모니터링은, DAW 를 통해서 소리를 듣는 방법을 말한다. 큐베이스나 로직 등의 DAW 에서 오디오 트랙을 만들고, 그 해당 오디오 트랙의 input monitor 버튼을 눌러서 , DAW 를 통해 소리를 듣는 방법이다.(ASIO direct monitor 나 AI 기능이 켜져 있지 않을때)

    이렇게 하면 소리는 오디오 인터페이스의 입력으로 들어와서, 컴퓨터의 CPU 를 한번 거친후 DAW 의 믹서를 거친다음에 오디오 인터페이스의 아웃으로 소리가 나가기 떄문에 이러한 과정을 Native processing 이라고 하고, 네이티브 모니터링, 또는 소프트웨어 모니터링 이라고 한다. DAW 에서 걸어놓은 플러그인을 통한 소리가 들리기 때문에, 이큐나 컴프레서 등의 이팩팅한 소리를 들을 수 있다.
Cubase input monitor button
Punch Recording in Logic Pro X - dummies
  • 다이렉트 모니터링(하드웨어 모니터링)
    다이렉트 모니터링은 , 오디오 인터페이스의 입력으로 들어온 컴퓨터로 들여보내지 않고 바로 오디오 인터페이스의 아웃으로 “직접” 내보내주는것을 말한다. 따라서 DAW 에서 인풋 모니터 버튼과 상관 없이 오디오 인터페이스를 조작해서 소리를 내보내거나 또는, 이러한 과정을 해주기 위한 DSP mixer 가 있는경우 해당 DSP mixer 를 통해서 “직접” 모니터링 하게 된다. (ASIO direct monitor 나 AI 기능이 켜져 있을때는, 이 인풋 모니터 버튼으로 DSP mixer 의 다이렉트 모니터링을 제어하게 된다.)

    이렇게 하면 소리는 오디오 인터페이스의 입력으로 들어와서 컴퓨터를 거치치 않고 바로 아웃으로 바로 나가기 때문에 이러한 과정을 Direct Monitoring 이라고 한다. 보통 오디오인터페이스의 DSP mixer 를 통하거나, 또는 다이렉트 모니터링 Knob, Button 등을 사용한다. 이때는 컴퓨터를 거치지 않으므로 DAW 에서 걸은 플러그인 소리는 빠진채로 모니터링 된다.

그렇다면, 네이티브 모니터링을 하지 말아야 하는 이유는 무엇인가, 네이티브 모니터링할때 보컬 트랙에 걸어놓은 컴프레서나 이큐 등이 걸린채로 모니터링되므로, 그런 모니터링을 하면 좋겠다고 다들 생각하지만, 네이티브 모니터링에는 큰 단점이 있다. 그것은 바로 레이턴시 인데,

오디오 인터페이스 성능이 아주 좋아서 10ms 정도로 레이턴시를 줄였다고 가정해보자.

탬포 120BPM 의 곡에서 1분에 120개의 4분음표가 있음을 의미 한다. 따라서, 1개의 4분음표는 0.5초 의 길이를 가지고 있고, 8분음표의 경우는 0.25초. 16분 음표의 경우는 0.125 초의 길이이다. 여기서 레이턴시 10ms 를 생각해보자. ms 는 1/1000초의 단위로, 10ms 는 0.010초의 길이이다.

즉 16분음표 0.125 초/ 10ms 0.01 초

10ms 는 대략 16분음표의 1/10의 길이이다.

따라서 10ms 의 레이턴시가 있는 네이티브 모니터링시, 16분음표연주의 정확성에서 이미 10%의 오차를 가지고 가는것이다. 또한 8분음표에서는 5%에 해당한다.

이것은 랩과 같이 리듬을 중시하는 보컬 뿐만 아니라 , 일반적인 보컬에도 녹음시에 큰 지장을 초래 할 수 있다. 악기 연주에는 치명적이다.

결국 이러한 레이턴시가 아무리 짧게 해서 10ms 라 할지라도, 결국 실제 녹음시에는 큰 방해요소가 된다.

주변에 흔히 , 기타나 베이스를 오디오 인터페이스에 연결하고, 기타앰프나 베이스 앰프시뮬레이터를 플러그인으로 걸어서 사용하는 경우를 볼 수 있는데, 이것을 오랫동안 인지하지 못한 채로 계속 한다면, 이것이 몸에 익숙해져서, 당신의 박자 감각은 총체적으로 무너질 수 있다. 프로 보컬이나, 프로 연주자로써의 인생을 포기해야할 수도 있다.

따라서 녹음시 모니터링은 네이티브 모니터링보단 다이렉트 모니터링(하드웨어 모니터링) 을 사용해야한다

오디오 콘솔 페이더의 개발자.

Tom dowd

Bill Putnam의 다른 믹싱 데스크.

페이더가 개발되기 이전의 오디오 믹싱 콘솔들은 위 사진처럼 커다란 노브 형태의 볼륨 조절 장치를 가지고 있었다.

EDN - Physicist and recording engineer Tom Dowd is born, October ...
\

하지만 Tom dowd 라는 한 레코딩 엔지니어는 자신이 피아노를 연주하는것처럼 모든 악기의 밸런스를 컨트롤 하고 싶었고, 그 아이디어를 통해서 Fader 를 개발한다.

Tom Dowd, Humble Music Genius Behind The Scenes – Christian's ...


그의 아이디어는 매우 통했고, 그 이후로 대부분의 오디오 믹싱 콘솔은 피아노 건반과도 같은 Fader 를 사용하여 볼륨을 조절하게 되었다.

그의 레코딩중 Giant step. John coltrane

기타 리앰프/Reamping

기타 리앰프 테크닉은, DI 나 , 오디오 인터페이스의 Hi-Z 입력을 통해서 녹음한 기타의 생톤 소리를 , 오디오 인터페이스의 아웃풋으로 다시 출력해서 다시 기타 앰프로 입력시키고, 앰프를 다시 마이킹 하여 소리를 녹음하는것을 말한다.

일단 첫번째로 기타를 녹음할 때에, 앰프 마이킹 톤을 녹음 받는것에 추가로 instrument DI 등을 사용하여, 앰프를 거치지 않은 생톤을 따로 녹음 해 놓아야 한다.

guitar di recording에 대한 이미지 검색결과
DI 를 통하여, 생톤을 녹음 받아 놓는다.

이 “생톤”은 앰프도 거치지 않았고, 마이킹도 거치지 않은 순수한 소스 이기 때문에 소리가 많이 어색하겠지만, 보통 이 상태의 소스에 앰프 시뮬레이터 플러그인등을 사용하여, 다양한 앰프의 톤을 얻는것으로 많이 사용한다.

하지만 아무래도, 앰프 시뮬레이터가 발전을 많이 하고 있지만, 실제 앰프의 늬앙스가 그리울 때가 있거나, 특별한 앰프의 톤을 사용하고 싶을 때가 있다.특히 앰프 시뮬레이터들이 IR 방식을 사용해서 캐비넷의 질감을 재현하고 있지만 Speaker의 Excursion 에 따른 부하 변동의 Nonlinear 한 반응을 재현하지는 못하고 있는게 사실이다.

그래서 녹음 받아놓은 이 기타의 생톤을 다시 출력시켜서 앰프로 넣어서 재생시켜서 , 다시 마이킹등을 통해 녹음 받는것을 Reamp 라고 한다.

DAW 에 녹음되서 오디오인터페이스를 통해 출력되는 신호는 Pro line level 이고, 기타에서 출력되서 기타 앰프에 들어가는 신호는 Inst level 이다.

단, 우리가 기타의 생톤을 녹음할때 DI 를 사용했듯이, 이 녹음받은 소스를 다시 출력시키면, Line level 이기 때문에 , 이것을 다시 instrument level 로 변경시켜서 앰프에 입력시켜야 할 필요가 있다. 그냥 출력시켜서 앰프에 입력시키면 앰프의 입력보다 너무 전압이 높은 시그널이 들어와서 제대로 사용하기가 힘들기 때문이다.

radial reamp에 대한 이미지 검색결과
Reamp 오리지널 회사를 Radial 이 인수하여 이제는 radial 에서 나오고 있다.

그럴때 그러한 Line level 시그널을 다시 앰프에 입력시키기에 적당한 instrument level 로 변경시켜주는 것이 바로 이 Reamp 라는 장비다.

Reamping

이 reamp 를 사용하여 위와 같이 이미 녹음된 기타의 생톤을 다시 앰프로 입력시켜서 마이킹을 다시 하여 녹음 받을수 있다.

앰프를 통해 마이킹을 하여 녹음된 소스가 맘에 들지 않아서 앰프의 셋팅을 변경한다던지, 마이크의 위치를 바꿔본다던지 , 다른 앰프로 교체해서 해본다던지 여러가지의 어플리케이션이 있을수 있고 , 많은 가능성을 열어줄 수 있다.

그러나,

이 Reamping 테크닉에는 넘어야할 산이 하나 존재한다. 바로 기타에서 출력된 기타의 오리지널 생톤과, 그것을 녹음한후, 다시 출력되어서 reamp 를 통해서 나오는 기타의 reamp 생톤이 일치 하지 않을 수 있기 때문이다.

실제로 Reamp 를 해보려고 이러한 reamp 장치를 구해서, 시도하면, 녹음할 당시의 기타앰프의 게인 값과, 다시 reamp 하여 입력시킨 소리의 앰프의 게인값이 달라서, (오리지널 생톤과, reamp 된 생톤의 시그널이 차이가 있어서) 앰프 자체의 오버드라이브가 더 걸린다던지, 아니면 반대로 , 앰프의 소리가 힘이 없게 들어온다던지 하는 문제가 생길 수 있다.

이 부분에서 많은 레코딩 엔지니어들이 당황한다.

사진 설명이 없습니다.
오디오 인터페이스 입력을 통해 DAW 로 녹음되고 있는 기타의 생톤

이것을 해결하는 방법은, Calibration 이다.

사진 설명이 없습니다.
오디오 인터페이스를 통해 DAW 에서 출력되고 있는 시그널

즉, 기타를 그냥 앰프에 연결했을때 앰프에 입력되는 시그널과, 그 연주를 그대로 녹음하여, Reamp 로 출력하여 앰프에 연결했을때 앰프에 입력되는 시그널, 이 두가지를 정확하기 일치시키는 작업이 필요하다.

사진 설명이 없습니다.
앰프에 입력되고 있는 시그널

Calibration 하지 않으면, Reamping 해도 아무의미가 없다.

사진 설명이 없습니다.
리버사이드 재즈 스튜디오의 Reamp

이렇게 Calibration 을 해놓으면, 최초 DI 를 통해서, 앰프로 마이킹 되어 나오는 소리와, 나중에 DAW 에 녹음된 생톤을 reamp 로 다시 앰프로 마이킹해서 나오는 소리가 99% 일치 하게 만들 수 있다.

추가로

요즘 나오는 위와 같은 제품은 Reamp output 을 지원하기도 하는데, 이 output 으로 나오는 신호는 입력으로 들어오는 신호과 100% 동일한 신호를 내보내도록, Calibration 이 되어있다고 광고하고 있다. 실제로 동일한지는 사용해 보지 않아서, 사용해보시는 분들께서 알려주셨으면 좋겠다.