IC(intergrated circuit) 와 descrete circuit 의 차이

자동 대체 텍스트를 사용할 수 없습니다.

 

Ic (intergrated circuit) 으로 만들어진 op-amp의 모습

아날로그 하드웨어나 프리앰프에서 말하는 discrete 라는것은
이런 집적회로를 쓴게 아니고 개별(discrete) 아날로그 부품들을 써서
회로를 구성하는것을 말합니다.

Ic를 쓰는경우는 ic의 규모가 미세공정(작음) 이기때문에 , 구동하는데
전기가 소규모여도 되므로, 최종 출력 임피던스를 맞추기 위한 변압 트랜스가 필요 없다는 장점이 있습니다.

discrete로 구성하는 경우는 거의 대부분 출력 임피던스를 낮추기 위한 트랜스포머가 회로에 포함되어야 합니다. (근데 트랜스가 없는 경우도 있더군요)

단 IC 의 단점이 있는데 그것은 Gain-bandwidth 가 신호의 크기에 의해서 영향받는 비율이, 진공관이나, 다른 트랜지스터 류 보다 크다는 단점이 있습니다.(전기 규모가 작아서 발생하는 현상) 따라서, IC 칩의 스팩을 보면 nominal level 에서는 100khz 등의 스팩이 적혀있지만, 신호의 크기에 의해서 10khz 쯤으로 얼마든지 줄어들수 있는 단점이 있습니다.

나이퀴스트 이론의 허상 – 192KHz 를 써야만 하는 이유 -2

우리는 1편에서 아날로그 필터와 A/D 컨버팅에 대해서 살짝 알아보았습니다.

하지만 아날로그 필터는 필터의 기울기가 급격하게 됨에 따라서 수많은 위상 변화와 노이즈 문제점 을 수반하게 되어 있습니다.

그러면 Lineat phase 필터를 쓰면 되지 않느냐? 하지만 아날로그 상황에서의 리니어 패이즈 필터는 없는걸로 알고 있습니다. 디지털 도메인에서만 가능합니다.

그래서 과학자들은 머리를 쥐어짜내어서 오버 샘플링 이란 기술을 만들어 냈습니다.

우리는 전에 알리에스 에러가 어느정도의 Amplitude 로 존재 하는지에 대한 그래프를 본적이 있습니다.

아래와 같습니다.

 만약에 Fs=40kHz 이라고 한다면 0.5fs =20kHz 가 되겠구요, 아무런 아날로그 필터(안티 앨리어스 필터)를 사용하지 않았을경우, 20-40kHz 사이의 쓸데 없는 성분이 만들어내는 앨리어스 선분은 가장 왼쪽의 부분이 될것입니다. (검정색 선으로 표기)

 그렇다면 만약 오버샘플링을 아주 높게 해서 128배 정도의 오버 샘플링을 한다면 어떻게 될까요?

그렇다면 Fs=40kHz x 128 = 5120kHz  약 5MHz 라는 높은 주파수가 되겠죠 그렇다면 위의 앨리어스 패턴은 다음과 같이 변합니다. (그림판으로 그림을 그려서 죄송합니다…누가 그림좀 그려주시면 merefox@naver.com 으로…좀…)

 이렇게 128배 오버 샘플링을 하면, 앨리어스 에러의 AMplitude 가 이런 그래프가 되구요,

 이 그래프로는 0-20kHz 사이의 앨리어스 에러는 아주 눈꼽만큼으로 변합니다.

그리고 실제로 이 앨리어스 에러는 “Noise” 로써 들리게 됩니다.

사실 기기 자체의 노이즈 플로어에 뭍힐수도 있습니다. 제가 정확하게 기기 제작자가 아니라서 거기까지는 추측일 뿐입니다.

오버샘플링 배율을 높힐수록 우리가 얻을수 있는 이득은, 노이즈 플로어가 점점 내려가겠죠? 낮은 배율에 비해서? 그래서 다이내믹레인지가 증가하고 노이즈가 적어집니다.

하지만, 기본적으로 눈꼽만큼의 엘리어스 에러를 안고 가는것이기 떄문에, 기본적인 다이내믹 레인지의 하향이 있습니다.

우리가 사용하고 있는 24비트 비트댑쓰의 이론적인 다이내믹 레인지가 144dB 나 되는데도 불구하고 실제적인 아날로그 A/D 컨버터들의 다이내믹 레인지가 거기에 크게 못미치는것은 이런것들의 작용도 포함되기 때문이죠. (기계의 실제적인 노이즈 플로어+앨리어스 노이즈 =노이즈의 증가)

여튼,

오버샘플링된 이후에는 디지털로 변환된 신호이기 떄문에 “디지털 리니어 패이즈 +아주 높은 기울기의 필터” 가 사용이 가능해입니다.

그래서 이 이후에 컨버터칩에 내장된 디지털 필터 기술을 이용해서 가청주파수 이상의 부분을 전부 잘라내 버리게 됩니다. 아래 그리처럼 말이죠. 0-20kHz 까지만 사용해버리는거죠, 그 이상의 데이터는 아예 삭제 ^^

이것도 이론적으로는 완벽해 보입니다.

하지만 문제점 몇가지가 있는데요

1. 클럭이 완벽해야 합니다. 하지만 클럭은 그렇게 완벽하지 않습니다. 5MHZ 클럭은 정확하지 않습니다…

일부 외부 하이엔드 클럭을 써서 음질이 좋아졌다고 하는부분은 이것을 개선하는 부분이죠..

내장 클럭 회로에 쓸대없이 고비용이 들어가게 되고, 전원이 흔들려서 클럭이 흔들리게 되면 음질에 끼치는 영향을 무시할 수가 없습니다.

2. 필연적인 노이즈 플로어의 증가 및 다이내믹 레인지의 하강

가만보면 음질이 꺠끗하고 좋은데 다이내믹 레인지가 좀 낮은 컨버터들이 있습니다. 이런 오버샘플링 기술을 적절히 채용하고 있단 뜻이죠..하지만 다이내믹 레인지가 너무 낮아집니다.

3. 이모든것은 A/D 컨터버 칩 내부에서 전부 해결하는 기술입니다.따라서 최신식 A/D 컨버터 칩을 쓰느냐 마느냐에 따라 성능이 전부 결정되버립니다.

따라서 결론적으로, 오버샘플링 기술+리니어 페이즈 디지털 필터 만으로도 사실상 부족한 점은 있기 떄문에,

하이엔드 컨버터 업체들은 아날로그 안티앨리어싱 필터+ 최고사양의 컨버터칩(오버샘플링+디지털 필터) 를 조합해서 설계하고 있는것입니다.

만약 오버샘플링 기술만 너무 믿고 컨버터를 설계 하면 기기의 다이내믹 레인지가 너무 낮아지고 클럭에 따른 영향을 너무 많이 받아버리게 됩니다. 클럭이 만약 흔들린다면 음질도 흔들리게 되겠죠.

따라서 아날로그 필터가 낮은 기울기을 가져야 페이즈 왜곡이 덜하기 떄문에 낮은 기울기의 노이즈 적고 꺠끗한 필터를 쓰면서 192khz 사양의 컨버팅을 통해 당연히 “적은 비용” 으로 “높은 음질” 을 얻을 수 있는 분야가

바로 192khz 분야입니다.

나이퀴스트 이론의 허상-192khz 를 써야만 하는이유,-1

 

아날로그 디지털 샘플링에서 나이퀴스트 이론이라는것이 있습니다.

나이퀴스트 이론에 의하면

어떤 특정 블로거가 요악한바에 의하면 아래와 같음

나이퀴스트 이론이 말하는 바를 한 문장으로 줄이면 이렇습니다.

“우리가 샘플 (sample) 하려는 소리의 가장 높은 주파수보다 (Highest frequency)

2배 이상의 샘플링 속도 (Sampling Rate)를 사용하면 정확하게 소리를 다시 만들어 낼 수 있다.

(아날로그에서 디지털로, 디지털에서 아날로그로)”

다시말해서 25hz 의 사인파형을 디지털 샘플링하려면 최소한 50hz 로는 샘플링 레이트를 잡아야 한다는 이야기입니다.

아래 그림을 보시면 됩니다.

 샘플링 주파수가 2배인 경우 B 인데요. 원래의 사인파형을 삼각파로 재생하고 있습니다. 하지만 이것을 재생할떄는 D/A 컨버터에서 다시 로우패스 필터를 걸어서 사인파형으로 나타나게 합니다. 완벽한 재생이 가능한것이죠.

만 A 의 경우와 C 의 경우처럼 샘플링 레이트가 원래 사인파형의 2배가 안되는경우 하나는 같은 주파수의 레이트(A) 이고 또하나느느 4/3 배(C) 입니다. 이럴경우

정확히는 c 의 경우처럼 샘플링 레이트가 2배가 안될때는 전혀 엉뚱한 파형이 나타납니다. 이것을 Alias error 라고 합니다.

알리어스 의 주파수는 다음과 같은 그래프에 따라 생긴다고 하네요

 예를들면 샘플링 레이트가 Fs 일때, 만약 0.5fs 의 사인파라면 원래 파형이 나타나겠지만, 0.6fs 의 사인파라면 0.4fs 와  1.4fs 1.6fs 의 앨리어스 에러 파형이 생겨남을 보여주고 있습니다.

그래프에 따라서 그 엘리어스 파형의 소리 크기가 정해지는것이구요

샘플링 레이트가 50hz 일떄 25hz 의 경우 FOlding 이 없기 때문에 앨리어싱이 생겨나지 않겠죠.

샘플링 레이트가 50hz 일떄 0.6*50=30hz 의 경우는 20hz 의 엘리어싱 에러 파형이 생겨나게 됩니다.

샘플링 레이트가 만약 40khz 일경우에 20khz 의 경우는 앨리어싱에러파형없지만요

40Khz 일경우에 30khz 의 경우는 0.75fs 의 경우인데, 그렇다면 0.5 기준으로 folding 하여, 0.25fs 의 앨리어스 에러

즉 다시 말해서 샘플링 레이트 40khz 의 경우에 30khz 사인파형은  7.5 Khz 의 알리어스 에러 파형으로 다시 재 탄생 하게 됩니다.

우리가 스튜디오에서 가장 많이 쓰고 있는 샘플링 레이트는 48kHz 쯤 되겠죠.

근데 48khz 의 샘플링 레이트로 24khz 정도까지의 주파수 영역까진 문제가 없습니다.

사람의 가청주파수 영역은 20hz-20kHz 정도 되기 때문이기도 하기 떄문에 그보다 높은 주파수는 들리지 않을꺼라고 생각했습니다.

하지만 A/D 컨버터가 48Khz 로 샘플링 레이트를 잡아서 디지털화(양자화) 하는 동안 사실 가청주파수 영역까지의 소리 외에도 데이터가 들어가서 이러한 알리어스 에러로 재탄생 하게 됩니다.

예를들면 48khz 로 샘플링 하고 있는 A/D 컨버터에 30Khz 를 넣는다면

30/48=0.625 이고 folding 에 의해 앨리어스 파형비율을 환산하면 Falias(n)=1-0.625(n)  따라서 Falias=0.375 이고 해당하는 앨리어스 파형은 30*0.375 =11.25 Khz 의 사인파형입니다.

이말은

샘플링 레이트가 48Khz 인 A/D 컨버터에 30Khz 의 주파수가 입력되면 11.25Khz 의 엉뚱한 파형으로 나온다. 그리고 11.25Khz 는 가청주파수 내의 소리이고 충분히 귀에 들립니다.

라는거죠

이 파형만 이럴까요? 48Khz 의 절반 1/2Fs =24Khz ~~무한대, 자연계에 존재하는 모든 아날로그 신호는

전부 엉뚱한 알리어스 파형으로 재탄생한다는겁니다.

비슷한 계산으로 40khz 를 넣으면 약 6.8KHZ 의 앨리어스 파형이 나오구요…

60hz = 15Khz

샘플링 레이트랑 근접한 50Khz = 2Khz 쯤..

(그림으로 그렸을떄와 비슷하게 샘플링 레이트와 원래 사인파형의 주파수가 비슷하면 아주 낮은 톤으로 생성이 되네요…)

다시말해서, 나이퀴스트이론은 너무나도 옳습니다. 하지만 너무 옳기 떄문에 생겨나는 알리어스 에러(가청주파수 이상의 주파수를 샘플링 했을때 생겨나는 앨리어스 -> 가청 주파수 영역내로 들어옴)

에 대해선 많은 사람들이 간과 하고 있다는겁니다.

그러면 하이엔드 컨버터 업체들은 이에 대해 어떻게 대응하고 있을까요?

로우패스 필터입니다.

 A/D 컨버터가 48Khz 로 컨버팅 하고 있을때, 이놈이 알리어스 애러를 만들지 않을 최소 주파수는 Fs/2 다 시말해서 24Khz 인샘이죠.

거기 까지 로우패스 필터를 걸고 그 이상의 주파수가 A/D 컨버터로 들어가지 않게 하면됩니다.

말로는 쉽죠? 해결된거 같죠?

절대 그렇지 않습니다.

위의 그림을 보면 아시겠지만 매우 뛰어난 아날로그 필터인 8pole 필터를 1 에서 걸었을때 적어도 4.0 배의 주파수 까지는 포함하고 있습니다. 필터의 기울기가 급격하게 직각으로 떨어지는게 아니라서 그렇죠.

제가 기술에 대해서 자세히 그쪽에 몸담고 있어서 지금 어느 수준의 필터까지 있는지 모르겠지만, 8pole 도 아주 우수한 상업용 필터인듯싶습니다. 물론 디지털 필터로는 아주 급격한 직각으로 떨어지는 것들도 있습니다.

우리가 자주쓰는 fabfilter -q 만해도, 96db 필터가 됩니다. 근데 이건 디지털로 소리신호가 변환된 후에나 쓸수 있는 제품이고 ㅎ….A/D 컨버터 전에 필터링을 해야하는경우는 아직 신호는 디지털화 되지 않았기 때문에 아날로그 필터를 쓸수 밖에 없습니다.

그러면 8pole 로우패스 필터를 쓴다고 가정했을때, 48Khz 의 샘플레이트를 가진 A/D 컨버팅에 대해서 생각해보겠습니다.

48Khz 샘플링 레이트로 알리어스 에러가 생겨나지 않을 유효 프리퀀시 범위는 24khz 이겠죠,

그렇다면 8pole 필터로 24Khz 이상의 소리가 안들어오게 하려면, 24/4=6Khz 부터 걸어야 겠네요.

안타깝습니다. 그러면 너무 고역대 손실이 높으니까….

그래프를 잘 보니까 -60 dB 정도면 사람의 귀에 좀 안들릴꺼 같고 다이내믹 레인지도 살릴수 있을것 같네요.

그러면 -60dB 쯤에서 2.5 배쯤 되니까 24/2.5=9.6Khz 흠.

여기서부터 8pole 필터를 걸면….고역대도 좀 살리고, 필터를 통해 들어오는 주파수의 bandlimt =38khz 쯤 되겠습니다.

하지만 고역대가 좀 답답해지는건 사실이고, 38Khz 의 주파수에서 생겨나는 알리어스 주파수는  8Hz 쯤으로, 8Hz~그보다 높은 주파수 영역대에 아주 작게~~~알리어스 에러 파형들이 섞여 있어서 고역대 해상도에도 영향을 미치겠죠, 고역대가 답답하고 쏘기도 하고, 고역대가 거칠고 ㅎ…

이게 바로 우리가 알고 있는 디지털의 차가움일수도 있구요 ^^….또 저가형 오디오 인터페이스등에서 볼수 있는 고역대의 답답함 , 거칠음, 

필터의 주파수가 너무 낮으면 고역대가 답답하고 저역대가 풍성한것처럼 들리는 A/D 컨버터(오디오인터페이스) 가 되는거구요

필터의 주파수를 좀 높게 잡으면 고역대가 화사하긴 하지만 뭔가 거칠은것처럼 들리는 제품이 되는거구요….

하지만 제품 생산 단가 비용떄문에 높은 Pole 의 필터를 쉽게 쓰진 못할겁니다.

하지만 하이엔드 컨버터 회사라서 높은가격의 컨버터를 생산하는 회사라면 높은 POLE 의 필터를 쓰겠죠….

로우패스 필터의 설계와 그 해당 주파수에 따라 고역대가 답답한 제품도, 고역대가 거칠은 제품도…충분히 존재할수 있는겁니다.

Favorited waves plug-ins.

1.waves TG12345

애비로드 스튜디오의 EMI TG 콘솔을 모델링한 채널 스트립입니다.

괜찮은 컴프레서(드럼이나 보컬에 쓸수 있는)와 뮤지컬 이퀄라이져

그리고 MS 프로세싱 가능한 스테레오 페이드가 있습니다.

음색이 빈티지하게 변하게 되기 때문에, 특정한 “빈티지한 느낌”을 주는데 좋습니다.

2. SSL buss comp

드럼의 버스 그룹에 주로 사용하게 됩니다.

어택타임을 10이나 30 그리고 릴리즈를 적당히 주어서, 타이트하고 펀치감 있는 드럼 그룹 트랙을 만들어 낼수 있습니다.

다른 소리를 먹지 않도록 적당히 정리된 다이내믹을 가지면서 다른 트랙에 뭍히지 않고 존재할수 있는 드럼 사운드를 만들어내줍니다.

다만  make up gain 은 아웃풋의 한계가 없이 올라가는데 그 비밀이 궁금하네요.다른 플러그인 같으면 내부에서 0dbfs 를 초과해서 클리핑이 생길탠데…아무래도 +15 까지 다 올렸을때 0dbfs 를 넘지 않도록 만들어진게 아닐까 생각중입니다.

 3. SSL channel strip

고전적인 채널스트립들의 3밴드 이퀄라이저에서 보다 진보한 4밴드 이퀄라이저가 있어서, 더 세밀한 뮤지컬 이퀄라이징이 가능한것 + 괜찮은 퀄리티의 컴프레서와 게이트/인헨서가 내장되어 있어, 리얼 악기 채널들에 쓰기 좋은 채널 스트립이라고 생각이 됩니다.

 4. SSL-EQ

ssl 채널 스트립에서 EQ 부분만 쓸수 있는 EQ 입니다. 드럼을 제외한 악기는 이쪽으로 많이 만지게 되는것 같습니다. 역시 4밴드 이퀄라이저라, 톤 조정이 아주 좋습니다. 기존의 풀택이나 1073 스타일의 이퀄라이저에서 아쉬웠던 대역들에 대한 세밀한 조정이 가능해서 자주 손이 갑니다.

 5. Reel ADT

아티피션 더블링 테크닉을 태잎머신으로 재현해주는 플러그인입니다.

코러스라던지 특수한 효과가 필요한 보컬에 괜찮은 더블링 색을 입힐수 있습니다.

 6. Puigteq EQP1

개인적으로 저역대를 증폭할때는 거의 이 플러그인을 쓰는것 같습니다. 저역대의 톤을 보강할떄 마치 그 악기가 원래 저역이 많았던 악기였던것처럼 좋은 저역대를 얻을수 있어서 자주 손이 갑니다.

고역대의 거친감을 줄여주는대도 많이 사용합니다.

 7. Manny-marroguin delay

다른 waves 딜레이들과는 달리 딜레이음색의 특성이 매우 빈티지한 음색이고, 리버브, 더블러, 페이저등

사이드 이팩트를 추가하기가 매우 편하게 되어 있어, 메인 딜레이로 사용하고 있습니다.

마치 롤랜드의 태잎에코와 비슷한 느낌의 빈티지 음색을 가진 딜레이 입니다.

 8. CLA-2A

LA-2A 를 재현한 플러그인입니다.

hifreq 를 잘쓰면 , 답답하고 빈티지한 음색에서부터, 샤하고 밝고 컴프감이 느껴지지 않는 자연스러운 음색까지 두루두루 얻을수 있습니다. 초기 셋팅에서 hifreq가 50으로 설정되어 있기 떄문에, 100%로 설정되어 있는 UAD 의 LA-2a 와 비교할때 주위해야 합니다. hifreq 를 0 으로 설정하면 고역대에 좀더 컴프레션을 먹일 수 있어서 CL-1b 같은 빈티지하고 아날로그 스러운 음색도 얻을수 있습니다.

 9. H-reverb

항상 리버브는 디지털 플러그인으로 쓰면서 답답한 부분이 있습니다.

너무 리버브가 어지럽고, 지저분하다던지, 리얼하지 않다던지, 또는 너무 차갑다던지 하는 성향이 플러그인 리버브에 많이 존재하는편입니다.

특히 IR 방식의 리버브는 리얼하긴 하지만, IR 데이터로 생성되는 파형에 대한 모듈레이션이 적용되지 않아서, 리얼함 속에서 뻣뻣하고 차가움이 많이 존재하는데,

H-reverb 는 기존의 랙시콘이나 브리카스티 같은 알고리즘 리버브에존재하는 모듈레이션이나 엔빌롭 조정, 얼리 리플렉션 프리딜레이등의 조정이 가능하여, IR 방식의 뻣뻣함과 차가움 그리고 획일화된 잔향에 대한것을 어느정도 극복한것 같습니다. 다시말해서 잔향에 대한 랜덤성향이 알고리즘 리버브 처럼 나타나게 되어 뻣뻣하지 않고 차가움을 많이 극복해내었다고 볼수 있습니다. 비슷한 방식은 리퀴드 소닉의 리버브레이터와 같은 플러그인이 있지만, 이쪽이 좀더 사용하기 편한것 같습니다.

 10 .center

스테레오 트랙에 대한, M/S 조절을 가능하게 해줍니다.

 11. butch-VIG vocal

조금은 따스하면서 빈티지한 식의 컴프레서와,

대역이 정해져있는 이퀄라이저, 그리고 디에서가 통합되어 있습니다.

또한 부치빅이 프로듀스 했던 가비지 의 앨범에서 들을수 있는 그런지한 오버드라이브 톤의 보컬을

쉽게 만들수 있도록 좌하단의 세츄레이션 섹션이 있습니다.

과도한 롹킹한 음색부터 부드러운 네츄럴 톤까지 얻을수 있지만 음색자체는 부치빅의 취향인것 같습니다.

저음이 튼실하고 부드러운 음색입니다.자주쓰게 되네요

샤방하고 샤한 톤과는 거리가 멀수도..

 12. Scheps 73

니브의 1073 을 모델링한 채널 스트립입니다.

프리앰프 부분의 게인은 증폭하면 볼륨은 거의 그대로인체 프리앰프를 주어서 받은듯한 음색을 얻을수 있도록 배음을 첨가해 주는 쪽으로 설계 되어있습니다.

또한 페이더의 Input ouput 을 link 건채로 조절해서 색을 얼마나 입힐것인지를 조절가능합니다.

주로 색깔 첨가에 최적화 되어 있습니다.

더불어 1073 스타일의 EQ 가 있어서 톤조절에도 쓸수 있지만, 이퀄라이저는 puigteq 의 저음이나, SSL 의 4밴드 이퀄라이저에 더 손이가게 되는것 같습니다.

역시 주로 배음 첨가용으로 더 많이 쓰게 됩니다.

 

마이크의 거리와 위상 문제 & comb filter 효과.

 

  • 마이킹에서의 위상문제에 대한 글입니다.

     

    어떠한 마이크를 2개 이상을 하나의 소스에 대었을때 가장 고려해야 되는 상황은 소스에 대한 각기 마이크의 거리 문제가 가장

    기본적인 문제라고 봅니다.

     

    소리의 속도는 1초에, 340m 를 갑니다.

    따라서, 100으로 양번을 나눠주면

     

    0.01 초에 3.4 m를 가게 되고

     

    마이크의 거리가 3.4m 차이가 나게 되면, 당연히 소스의 시작은 0.01. 10ms 차이가 나게 됩니다.

     

    또다시 10으로 나눠보면, 거리가 34cm 미터차이나게 되면, 1ms 의 차이가 나게 된단 이야기입니다.

     

    그러면 같은 음원인데 이렇게 거리(속도,위상) 차이가 나게되면 어떤 현상이 벌어지게 될까요? 전에 포스팅에도 말했듯이

     

    “””근데, 오버헤드마이크의 거리와, 다른 마이크들의 거리 (예를들면 킥) 킥이라고 한다면, 킥은 소스에 가깝고, 오버헤드는 킥에서 거리가 멀어지게 됩니다. 

    약 2미터 까지 멀어지겠져? 주로 높게들 셋팅하시니까… 

    그러면 소리의 속도가 1초에 330미터를 가니까…거꾸로 계산하면. 330m/s 나누기 165hz = 2m 가 되겠죠죠 

    그러니까 다시말해서 165hz 대역의 소리가 phase 가 거꾸로 되겠죠….오버헤드에 들어온소리 와 킥 마이크로 들어간소리가 

    믹스되서 합해지면 165hz 대역 부근의 소리는 페이스 캔슬레이션되서 없어지게 됩니다. 프리퀀시 그래프로 보면 

    노치 필터로 제거한거마냥 쑤욱 들어가겠죠. 근데 또 이런것도 배음처럼 작용해서 330, 660 등등 배로 증가하는 주파수 

    대역들도 또 노치 필터처럼 들어갑니다. 이게 comb filter 효과 입니다…. “”””””

    이런 현상이 벌어지게 된다고 예측할수 있습니다 수학적으로 계산만 해도 이렇죠

    .

    맨 위 사진은 화이트 노이즈(전대역에 걸쳐서 평탄한 주파수 반응) 인 파형입니다.

    이 파형을 트랙 2개에 올려놓고 하나는 제시간에 틀고, 또하나는 1ms 늦게 재생해서 두 파형을 보려고 합니다. 어떤 현상이 벌어지는지

     

    그러면 아래와 같은 현상이 벌어지네요.

    이번엔 2ms 늦게 해봅니다.

    이번엔 3.4ms 해봅니다.(위 제가 굵은 글씨로 수학적 계산을 통해 유추해낸 결과 입니다. 165hz 정확하네요 🙂

    여기서 알수 있는건 마이크간 거리가 차이가 나면 날수록, 악기의 원래 기음역대 부근을 손상시킬 가능성이 크다는겁니다.

    하지만 마이크의 거리는 일단 34cm 정도만 차이가 나도 1ms 차이가 나기 떄문에, 이 현상을 피할수는 없으나

    최대한 악기의 원래 성질을 죽이지 않도록 피해갈 수는 있고 이 모든건 귀로 들어보고 좋은 소리인지 문제가 생긴 소리인지를 파악해내는게 중요하다고 생각 됩니다.

    의견있으신분들은 의견 부탁드립니다

프리앰프의 캐릭

우리가 악기를 녹음해보면 그 악기의 프리퀀시가 아주 막 20hz 부터 20khz 까지 평탄하게 있고 그렇지는 않다

언덕처럼 중음만 있고 고음 저음은 중음에 비하면 작다
근데 악기의 이 저음과 고음이 작기때문에 노이즈에 마스킹되는것이라고 본다 그래서 고역 과 저역이 안들리게 되고 그러면 아예 더 중역대 소리만 들리는 거구 그래서 결론적으로 안좋은 소리가 되는것
몇일 연구해본결과 이 노이즈 플로어의 양상은 일반적인 설계의 프리앰프라면 저역대와 고역대가 트랜스 험유입과 CMRR(동상신호 제거비) 때문에 중역보단 저역과 고역이 특출나게 높다
OPamp 를 쓴 회로들은 저역대의 잡음이 적어서 저역이 마스킹 되지 않아 저역이 더 살고 (SSL류)
결국 보컬이나 기타 같은 악기처럼 크게 중 고역을 신경 안써도 되는 경우 크게 문제는 없겠지만
만약 드럼이나 피아노 같은 악기 라면 이부분이 녹음시 문제가 될수 있다는걸 알아냈다.
사실 마이크와 프리앰프의 험잡음 유입을 막기 위해서 트랜스 실딩을 두차례 해본결과 저역대의 의미 있는 개선을 이뤄냈다
보통 예전 EV다이내믹 마이크가 저역이 좋다고 알려져있는데 아마 이런 부분이 적용되어있지 않나 생각이든다
마이크의 주파수 응답 반응이나, 프리앰프의 주파수 응답 반응은 아무리 봐도 그 소리의 캐릭터를 알수 없었다
오히려 노이즈 플로어나,CMRR ,트랜스포머리스인지 아닌지
이런것들을 더 유심히 봐야되는것 같다는 결론이다
OPAMP 내용 추가.
하지만 opamp 방식의 프리앰프는 하나같이 고역대가 harsh 한데
이것은 아마 디스토션,왜곡율이 고역대에 몰려있기때문인것 같다.또한 OPAMP 의 경우 CMRR 도 고역이 갈수록 높아지는 경향이 있는데, 이 동상신호 제거비가 바로 왜곡에 관여한다는점이다.
즉 opamp 는 저전력화 ic화 하면서 고역대 반응이 안좋아진것이라고 볼수 있을것 같다
그래서 대체적으로 OPAMP 방식의 프리앰프 스팩을 보면 프리퀀시가 말도 안되게 높은 경우를 볼수 있는데, 다 이것을 상정하고 그렇게 만든것 같다.
만약 20hz-20khz 의 스팩의 OPAMP 라면 10khz 정도까지 기대해볼수 있을듯.

노이즈 플로어

http://www.hearforever.org/tools-to…

기기 스팩에 나오는 노이즈 플로어는 화이트 노이즈 처럼 전 주파수 평탄한 노이즈가 아닐겁니다. 아래처럼 가중치 a 나 c를 준 노이즈 플로어 측정이죠 다시말해서 거꾸로 생각해보면 기기의 노이즈는 초저역대와 초고역대에서 더 높다는것이고 그 렇게 노이즈 플로어가 초 고역대와 초저역대을 마스킹하게 됩니다.
살제로 가지고 계신 프리앰프 입력측을 flux analyzer 처럼 -150dB 정도 보여줄수 있는 아날라이져로 살펴보시면 이해가 가실겁니다 .
노이즈 플로어가 높은 만큼 소리의 고역과 저역을 마스킹하는 영역이 점점 커질태고 그렇게 소리는 중역대만 남게 됩니다(뼈만 남죠)
노이즈 플로어가 낮을수록 점점 소리는 고역과 저역이 풍부해지구요
노이즈 플로어와 다이내믹 레인지가 그렇게 소리가 풍부하게 들리느냐 아니냐를 결정하게 되는 것 같네요
전 사실 왜 게인을 낮게 받는것이 소리가 안좋게 들리고 게인이 적정할때 소리가 좋은지 몰랐는데 이러한 이유 들도 포함되는것 같네요
또 다시 그래서 확인해보는건데 프리앰프의 max input level 그리고 a/d 컨버터의 다이내믹 레인지 스팩
이 두가지가 다시 소중하게 느껴지네요

DSP 시스탬에 대하여

waves dsp 는 램타입 같은건 아닙니다..전 사실 램타입이라는게 무슨뜻으로 말씀하신건지 잘 모르겠습니다 ㅠ
그냥 x86아키택처(CPU) 를 오디오 dsp로 쓰는것 라고 생각하심 됩니다.(뒤에 이야기 하지만 사실상 돈낭비죠)
계산기 기능을 하는 칩에는 몇가지 종류가 있는데요
그래픽 계산을 위한 GPU . 범용으로 쓰이는 CPU , 그리고 오디오 로 쓰이는 DSP 입니다.
셋은 구분이 매우 애매한데요
일단 GPU 는 좌표계산, 색표현 그리고 픽셀곗수(해상도)만큼의 동시 계산 능력이 중요하기 떄문에 단순 한 계산기유닛을 수천계를 병렬로 연결해놓은 구조입니다. 화면에 있는 점 하나하나 마다 좌표, 색 등의 간단 계산을 한번에 처리하는게 중요하죠
그리고 CPU는 원래는 그냥 계산기에, 여러가지 컴퓨터의 하드웨어및 주변기기 컨트롤 명령어 라인을 추가한놈입니다.그래서 범용 컴퓨터 용도로 쓰는것이구요
DSP 는 CPU 처럼 그냥 계산기에 여러가지 오디오 신호 처리 명령어 라인을 추가한 놈입니다.
(여기서 미리 밝혀두자면, 현제의 컴퓨터는 멀티미디어 성능이 매우 중요하기 때문에 CPU 가 GPU 와 DSP 를 흡수한 형태로 발전해서…. 요즘 CPU 는 왠만한 GPU 나 DSP 보다도 더 ….좋습니다…라고 미리 서두에 밝혀둡니다.)
GPU, CPU , DSP 에 공통으로 들어있는 계산 능력은 한번에 얼마나 큰 수를 덧샘 뺼샘 곱샘 나눗샘 등 계산을 할수 있느냐가 중요한 스팩인데요 자리수 표현을 위해서 16비트, 24비트 32비트 등의 스팩이 있습니다. 우리가 흔히 말하는 32비트 컴퓨터가 32비트 부동소수 연산 능력을 말하는거구요 지금은 64비트 CPU 가 나오고 있죠, GPU들은 128비트 더블 프레시젼 등을 계산하는걸로 알고 있습니다.
DSP 도 이런 비트가 있습니다. 예전 UAD1 이 24비트 스팩이었구요, 지금 UAD2 는 32비트 부동소수 스팩입니다.프로툴의 경우 예전 TDM 유닛이 48비트 더블프레시젼 유닛이었구요. AAX 는 32비트 부동수스 스팩입니다.
여담이지만 TDM 시절 플러그인을 CPU 로 돌리는 RTAS 는 32비트 부동소수라 TDM 48비트해상도와 RTAS 32비트 부동소수해상도가 서로 사운드가 달랐습니다. 당연히 해상도만 보자면 RTAS 가 더 좋은데도 딜레이 컴펜세이션 지원등의 미비로 뭐가 더 낫다 그렇다 는 유저들의 판단에……
해상도는 24비트 <48비트 <32비트 부동소수 순서로 32비트 부동소수가 제일 높습니다.
여튼 기본 숫자 계산 능력만 보자면 GPU 가 압도적으로 높은걸로 알고 있습니다. 그담은 매우 단가가 비싼 칩인 CPU …
그리고 계산기 기능외에 나머지 오디오 신호 처리 명령어 라인인데요
요즘 인텔 이나 AMD CPU 들은 DSP 만큼의 오디오 신호처리 명령어 라인이 내장되어 잇습니다… (GPU 명령어 라인들도 GPU 만큼 내장하고 있죠..)
요즘은 사실상 모든 CPU 들은 DSP 고 DSP 들은 CPU 에서 오디오 기능과 계산기기능만 가진것과 같다고 보시면 됩니다.
다만 CPU 가 그렇게 막강한데도 불구하고, 큐베이스 등의 CPU 사용 DAW 들이 오디오 처리 신호속도가 늦는것은……기본으로 OS 가 그 CPU 상에서 돌고 있고 다른 소프트웨어들도 돌고 있기 떄문입니다. (윈도우 나 맥OS 의 멀티테스킹 떄문입니다…멀티테스킹이란게 실제로 동시에 여러가지가 한번에 되는게 아니고 각각 소프트웨어와 명령어들이 톱니처럼 하나하나 매우빠르게 반복되고 있기 떄문에 매우 빠르게 돌리면 동시에 돌아가는것처럼 느껴지는 것뿐입니다. 여튼 이 톱니바퀴 사이클 만큼 레이턴시가 추가 됩니다….)
만약 CPU 를 오디오 전용으로만 따로 DSP 로 쓴다면 (피라믹스의 masscore 시스탬이 그와 같은 경우) 레이턴시를 극적으로 줄일수 있습니다.
예를들면 피라믹스의 매쓰코어는 CPU 가 시스탬상에서 코어 몇개가 사라집니다. 쿼드코어 CPU 를 쓰는데 매쓰코어를 2코어를 활성화 하면 아마 CPU 코어가 2개 윈도우 상에서 사라지고 그 CPU 는 피라믹스 전용의 DSP 처럼 동작하게 되서 피라믹스에서 돌리는 VST 플러그인들을 dSP 플러그인처럼 거의 제로레이턴시로 돌릴수 있게 되는걸로 알고 있습니다..
waves 의 dsp 는 그런 비슷한 제품입니다. 제가 dsp 서버가 있는데 뜯어보면 그냥 컴퓨터입니다. I5 cpu 에 메모리 2기가 있고 부팅용 스몰 ssd 박혀 있습니다. 그 ssd 에 전용 OS 가 깔려있는데 이 OS 가 사운드그리드 네트ㅇ워크로 들어오는 모든신호를 CPU 로 연결해서 DSP 처리를 해주는 중간 계층일뿐입니다.(랜 입력 ->CPU 직결) 레이턴시는 0.8ms 로 프로툴 aax dsp 나 UAD dsp 보다 훨씬 짧습니다.
근데 사실상 이런 시스탬은 등장할수 없어야 정상입니다/.
왜냐면 CPU 가격은 몇십만원씩 하지만 DSP 칩은 하나당 몇만원 도 안합니다….. 그래서 CPU 로 DSP 처럼 쓰느니 그냥 DSP 를 사서 전용 프로그래밍을 해서 쓰는게 훨씬 이익인데요
근데 더 따지고 들어가보면, 그런 DSP 전용의 명령어 라이브러리를 써서 새로 프로그램을 짜서 만드는것은 노력의 비용이 또 들어가기 떄문이죠….
waves 의 경우는 그냥 CPU 용으로 돌리던 플러그인에 조금만 개조해주면 사운드그리드 DSP 용으로 돌아가는 모양입니다 . 왜냐면 똑같은 명령어라이브러리를 쓰기 떄문이죠…..
하지만 프로툴이나 UAD 의 경우에는 다른 명령어라이브러리를 쓰는(칩이 인텔이 아닌다른회사꺼라) 다시 제 프로그래밍 해야 하겠죠?
다시말해서 프로그래머에게 줄돈 100, DSP 가격 10 해서 110 이고 웨이브스의 경우는 프로그래머에게 줄돈10 CPU 가격 100 해서 110 이라 (왜냐하면 모든 플러그인이 이미 기존에 다 만들어져있는 상태이기 떄문이죠..새로 만들 필요가 없기 떄문이죠..)
가격경쟁력이 비슷해진 케이스입니다…….
제가 분명 말하는건 칩의 스팩으로 보면 인탤 CPU 는 다른 칩들에 비해서 넘사벽의 스팩과 능력이 있는 칩입니다…이걸 오디오 전용의 DSP 만으로 쓰는건 엄청 낭비인데,…..
타회사 제품들이 소프트웨어 개발비 명목으로 원가가 저렴한 DSP 제품을 비싸게 파니..
그런일이 벌어지고 있는것 뿐입니다/
제 생각은 64비트 해상도 칩이나 뭐 128비트 해상도 계산등의 새로운 스팩의 dsp 가 나타나지 않는한 같은 해상도와 같은 샘플레이트 상에서는 CPU 나 DSP 나 다를게 없습니다. 프로그램 명령어라이브러리가 다르기 떄문에, 각기 전용으로 플러그인을 제작해야 할뿐이죠
뭔가 여러가지 상황에 대해서 장황하게 썼는데 이해가 되셨으면 좋겠습니다.

bit depth 에 대한 썰

여기서 표현된 dB 는 소리 크기라기보단 디지털 파형의 해상도(세밀함)라고 보시면 될듯합니다..
24비트 정수의 해상도는 …. 20log(2^24)=144dB
48비트 정수의 해상도는….(프로툴 HD 등..) 20Log(2^48)=288dB
128비트 정수의 해상도는.. 20log(2^128)=770dB
입니다…
그리고….DSP 나 CPU 설계상…48비트까진 어캐 해봐도… 128비트까진 아직 한참 무리죠………..인텔 CPU 들도.. 거진 64비트라고 하지 않습니까…?
근데 만약 32비트를 부동소수 형식으로 쓰게 되면 32비트 Floating point 의 해상도는 1541dB 입니다…48비트 더블 프레시젼에 비하면 거의 5배 넘는 해상도입니다….
이 값은… 256비트 CPU 와 맞먹는 해상도와 숫자 범위 입니다.
왜 DAW 와 DSP 엔진들이 32bit floating 으로 흐르냐면 바로 이떄문입니다.
그래서 아비드도 32비트 DSP 인 AAX DSP 인 HDX 로 하드웨어를 바꾼거구요….
한번에 32비트의 처리를 할수있는 CPU 나 DSP 를 가지고 마치 한번이 256 비트를 처리할수 있는 능력을 가지기 떄문입니다.

LUFS? LKFS? 라우드니스 미터링 ebu-r128

LUFS LKFS LU 라우드니스 미터링이란?

라우드니스 미터는 RMs 래밸을 다시금 라우드니스 커브에 맞게 K-filter 를 사용하여 측정하는 새로운 라우드니스 측정 방식입니다.
기존의 VU 미터는 그냥 일반적인 사운드의 RMS 를 측정하지만
LU 미터는 더 진보하여, 인간의 귀의 청감각적 라우드니스 커브를 고려한 RMS 를 측정하는 방식입니다.
Loudness unit 을 줄여서 Lu 라고하고, 0Lu 는 디지털 해드룸을 고려하여 -23Lufs 로 정해놓았다고 하네요
이것은 유럽 표준인 EBU-R128 유럽 브로드케스트 유니언에서 정해진 수치입니다.
그래서 라우드니스의 기준은 절대적 수치로는 -23 Lufs를 0Lu 로 정해서 사용하는게 Ebu-R128의 내용입니다.
한국은 -24Lufs 를 0Lu 로 정해서 하라고 방송 통신 위원회에서 권고 한다고 하네요.
당연히 기준이 여기에 따르면 0LU 입니다. 각 나라에서 정해놓은 수치대로 0LU(상대적수치) 가 몇Lufs(절대적수치) 인지 정해놓고
음악이나 방송을 제작할시에 0Lu 로 방송해라…하고 강요하거나 추천하는것입니다.
하지만 대부분의 음악 마스터링은 훨씬 큰소리로 마스터링 되고 있는것은 사실입니다.

사실 LU 미터링이 적용된 라우드니스 미터를 보면, 우리가 제작한 사운드의 소리크기가 얼마나 되는지 쉽게 체크가 가능합니다.
특히 이 안에는 True peak 를 검출 할수 있는 내용도 포함되어 있어 마스터링시에 매우 유용하죠,
우리가 만들어낸 사운드가 얼마나 Flat 하고 크게 만들어져있는지 쉽게 알수 있습니다.

그래서 foobar2000등의 플레이어에서 Vst 플러그인을 설치하여 쓸수 있는것을 고려하여, VST 로 나와있는 라우드니스 미터를
사용하여 일반적인 음악들의 마스터링 래밸을 체크할 수 있습니다.
물론 제가 만든것들두요, 그리고 서로 비교 가능하구요,

가장 중요한건 역시 LRA 가 되겠습니다,. 기존에는 PRA (peak ratio range ) 가 중요했지만
지금은 라우드니스 기준으로 Loudness range 가 중요하게 되었습니다.

당연히 마스터링을 피크 기준으로 하는게 아닌 트루 피크와 라우드니스 기준으로 하게 되면, 소리가 큰 정도를 쉽게 체크 할수 있게 되는것이지요. 피크기준으로만 체크하면, 피크는 꽉채웠지만 소리가 얼마나 큰지 알수가 없는 상황이 되기도 하니까요,.
왜 내가 만든곡은 피크치는데, 소리가 다른 것보다 작은지 의문이면 라우드니스 미터를 체크 하면됩니다.

일반 기존 상업 재즈 음반들의 라우드니스는 8-10LU 사이를 기록하는 경우가 많은것 같네요LRA(레인지) 는 4-8LRA정도
저도 그부분에 맞춰서 믹스/마스터링을 하고 있습니다.
하지만 마스터링시 과도한 리미팅과, 컴프레서 사용은 라우드니스레인지가 줄어들게 되는결과가 되어 쉽게 라우드니스를 10LU 까지 끌어올릴경우, 라우드니스레인지는 폭이 좁아지게 되겠죠.
반대로 라우드니스레인지를 넓힐려고, 리미팅과 컴프레서를 좀 들사용하면 라우드니스 자체를 올리기가 힘들겁니다.
이 부분이 사실 일반인들은 하기 힘든 부분이겠지요. ^^
p.s 아참 모바일용음원의 경우 -16Lufs 의 라우드니스를 가지는게 표준안이라고 하더군요 유럽연합에서는 ^^…
이경우 -23Lufs 가 0Lu 이므로 -16Lufs 는 7Lu 입니다.
다시말해서, 위에 말씀드린 상업 재즈 음반의 라우드니스가 8LU 인것은 사실 , 어느정도 표준에 가깝다고 볼수 있겠군요

-추가글

LUFS LKFS LU 라우드니스 미터링이란?

라우드니스 미터는 RMs 래밸을 다시금 라우드니스 커브에 맞게 K-filter 를 사용하여 측정하는 새로운 라우드니스 측정 방식입니다.
기존의 VU 미터는 그냥 일반적인 사운드의 RMS 를 측정하지만
LU 미터는 더 진보하여, 인간의 귀의 청감각적 라우드니스 커브를 고려한 RMS 를 측정하는 방식입니다.
Loudness unit 을 줄여서 Lu 라고하고, 0Lu 는 디지털 해드룸을 고려하여 -23Lufs 로 정해놓았다고 하네요
이것은 유럽 표준인 EBU-R128 유럽 브로드케스트 유니언에서 정해진 수치입니다.
그래서 라우드니스의 기준은 절대적 수치로는 -23 Lufs를 0Lu 로 정해서 사용하는게 Ebu-R128의 내용입니다.
한국은 -24Lufs 를 0Lu 로 정해서 하라고 방송 통신 위원회에서 권고 한다고 하네요.
당연히 기준이 여기에 따르면 0LU 입니다. 각 나라에서 정해놓은 수치대로 0LU(상대적수치) 가 몇Lufs(절대적수치) 인지 정해놓고
음악이나 방송을 제작할시에 0Lu 로 방송해라…하고 강요하거나 추천하는것입니다.
하지만 대부분의 음악 마스터링은 훨씬 큰소리로 마스터링 되고 있는것은 사실입니다.

사실 LU 미터링이 적용된 라우드니스 미터를 보면, 우리가 제작한 사운드의 소리크기가 얼마나 되는지 쉽게 체크가 가능합니다.
특히 이 안에는 True peak 를 검출 할수 있는 내용도 포함되어 있어 마스터링시에 매우 유용하죠,
우리가 만들어낸 사운드가 얼마나 Flat 하고 크게 만들어져있는지 쉽게 알수 있습니다.

그래서 foobar2000등의 플레이어에서 Vst 플러그인을 설치하여 쓸수 있는것을 고려하여, VST 로 나와있는 라우드니스 미터를
사용하여 일반적인 음악들의 마스터링 래밸을 체크할 수 있습니다.
물론 제가 만든것들두요, 그리고 서로 비교 가능하구요,

가장 중요한건 역시 LRA 가 되겠습니다,. 기존에는 PRA (peak ratio range ) 가 중요했지만
지금은 라우드니스 기준으로 Loudness range 가 중요하게 되었습니다.

당연히 마스터링을 피크 기준으로 하는게 아닌 트루 피크와 라우드니스 기준으로 하게 되면, 소리가 큰 정도를 쉽게 체크 할수 있게 되는것이지요. 피크기준으로만 체크하면, 피크는 꽉채웠지만 소리가 얼마나 큰지 알수가 없는 상황이 되기도 하니까요,.
왜 내가 만든곡은 피크치는데, 소리가 다른 것보다 작은지 의문이면 라우드니스 미터를 체크 하면됩니다.

일반 기존 상업 재즈 음반들의 라우드니스는 8-10LU 사이를 기록하는 경우가 많은것 같네요LRA(레인지) 는 4-8LRA정도
저도 그부분에 맞춰서 믹스/마스터링을 하고 있습니다.
하지만 마스터링시 과도한 리미팅과, 컴프레서 사용은 라우드니스레인지가 줄어들게 되는결과가 되어 쉽게 라우드니스를 10LU 까지 끌어올릴경우, 라우드니스레인지는 폭이 좁아지게 되겠죠.
반대로 라우드니스레인지를 넓힐려고, 리미팅과 컴프레서를 좀 들사용하면 라우드니스 자체를 올리기가 힘들겁니다.
이 부분이 사실 일반인들은 하기 힘든 부분이겠지요. ^^
p.s 아참 모바일용음원의 경우 -16Lufs 의 라우드니스를 가지는게 표준안이라고 하더군요 유럽연합에서는 ^^…
이경우 -23Lufs 가 0Lu 이므로 -16Lufs 는 7Lu 입니다.
다시말해서, 위에 말씀드린 상업 재즈 음반의 라우드니스가 8LU 인것은 사실 , 어느정도 표준에 가깝다고 볼수 있겠군요