USB 메모리나 USB 외장 장치를 통한 녹음 성능에 대한 소고.

USB 메모리나 USB 외장 장치를 통한 녹음 성능에 대한 소고.

usb 2.0 만 되도 충분한 녹음 성능을 낼수있는 버스 스피드는 된다라고 본다.
왜냐면 usb 2.0 만 되도 최대 100MB/s 최소 20-30MB/s 정도의 속도는 나오기 떄문이다.

근데 문제는 USB 로 만들어진 저장 장치 USB 메모리등은 내부 저장 칩의 성능으로 인하여 USB 버스의 스피드가 나오진 않는다.(사실 이부분은 HDD 도 마찮가지.그래서 다수의 멀티트랙 동시 녹음을 해야하는 스튜디오면 반드시 SSD 를 쓰는것이 좋다…아니면 예전 랩터 같은 빠른 HDD)

보통
녹음/재생 성능은 순차(seq) 읽기/쓰기 성능을 보면 안된다.
녹음/재생 성능은 조각(512k) 읽기/쓰기 성능과 관련이 있다.

하지만 물건을 팔떄 대부분 속도 표기는 순차 읽기/쓰기 성능을 표기한다…
그것을 믿고 녹음에 사용하면 안된다.

왜냐면 어느 DSP 엔진이던 buffer 단위로 사운드를 처리하게 되고 그 Buffer 가 메모리에서 프로세스가 진행된후 그 buffer 단위로 저장장치에 읽기/쓰기 를 하기 떄문이다.

그 buffer 의 크기는 매우 작고 그것이 바로 “조각” 읽기/쓰기 성능과 관련이 있게 되는이유이다.

보통 ssd 는 이 조각(512k) 읽기/쓰기 능력이 좋다.
하지만 대부분의 usb 메모리들은 512k 읽기/쓰기 능력이 매우 많이 떨어진다. (내부에 사용되는 메모리 칩의 방식의 차이로 인하여)
HDD 들도 이 조각 읽기/쓰기 능력이 매우 떨어진다.

잘 선택을 해야한다.

harrison mixbus 4 의 라이센스 관리.

harrison mixbus4에 대한 이미지 검색결과

처음에 해리슨 mixbus4 를 구입하고 나면 URL 을 통해서 라이센스 활성화를 할수 있다.

그리고 그 URL을 통해서 다운로드된 라이센스 는 txt 문서로 되어 있는데 다음 경로에 저장되어 있다.

내PC> C:>  사용자:> 사용자 이름

license_key_harrison_mixbus4.txt

파일로 저장되어 있는데 이 라이센스 txt 문서를 잃어버리면 안된다. 백업을 꼭 해두자.

(물론 잃어버려도 해리슨 홈페이지 측에 이메일 문의를 하면 다시 다운로드 받을수 있도록 해준다.하지만 번거롭다)

컴퓨터를 포맷한다던지 그런일 후에, 해리슨 믹스버스4를 다시 설치하면, 라이센스 URL 을 다시 물어보는데 , 그것은 저위의 저 경로 “사용자 이름” 경로에 해당 txt 파일이 없기 때문이다.

그래서 그땐 backup 해둔 txt 파일을 다시 저 경로에 넣어두면 라이센스를 복구 할 수 있다.

 

FPGA 와 오디오 인터페이스 의 발전.

예전 pci나 pcie 방식의 오디오 인터페이스는 레이턴시가 매우 짧은 장점이 있었지만 (피지컬 연결)
드라이버 제작이 힘들고 안정성의 문제가 있어서
통합으로 기기표준이 만들어진 usb 방식의 오디오 인터페이스로 많이 바뀌었고 또 dsp칩을 내장해서 다이렉트 모니터링 믹서를 제공하여 긴 레이턴시 부분도 많이 해결하는걸로 변해왔다

하지만 usb 는 cpu 의존도가 높고 cpu클럭의 대기시간을 기다려야 하는등의 여러가지 문제 (음질,클럭) 가 아직 잔존하여 제조사들은 오디오 인터페이스에 따로 클럭을 내장시키거나 하는 방법을 쓰기도 했었다
(이런것을 비동기 전송 방식이라고 합니다 다른 클럭이 따로 있어서 컴퓨터의 대기시간에 얽매이지 않고 자체 클럭으로 해서 바로바로 전송해서 레이턴시를 줄임)
지금도 pcie방식의 오디오 인터페이스는 거기에 맞는 소프트웨어의 제작이 힘들고 매우 많은 비용과 시간이 들기때문에 비싸거나 그분야에 아주 실력이 뛰어난 제조사들밖에 못건들고 있다 .하지만 usb 는 쉽게 여러 제조사들에서 제작을 하고 있다

usb audio interface에 대한 이미지 검색결과

그러면서 pcie의 인터페이스를 외장형으로 바꾸면서 어느정도 기기 표준도 마련한 썬더볼트가 나오게 되어 레이턴시나 클럭등도 해결하는것으로 보였는데 인텔의 독점욕심의
개발비용 라이센스 크리티컬,그리고 썬더볼트 기기와 호스트기기 모두에 들어가야하는 썬더볼트 칩의 가격문제 때문에 (fpga보다 비용이 더 많이 들수 있는;;미친;;)
또 생각보다 레이턴시도 그다지 현실적이지 못한 문제로 인해
다이렉트 모니터링을 위한 dsp mix는 계속 포함하면서 쓸대없이 썬더볼트로 제작하는 오디오 인터페이스도 몇가지 나왔었으나 입출력음질에 비해 가격경쟁력이 전혀 없다고 판단되는 제품들도 나왔다.하지만 이런 것들을 제조사들도 잘알고 있기게 썬더볼트 대역폭이 꼭 필요한 기기 말고는 (dsp프로세싱 때문에 필요한 ) 몇 없다

thunderbolt audio interface에 대한 이미지 검색결과

근데 그동안의 다채널 오디오 전송 에서 획기적인 방식이 하나 탄생했는데
그동안 다채널 오디오에서 대기시간을 기다리는등의 레이턴시가 문제였던것을
fpga라는 칩이 나타나면서 한방에 해결이 되었는데 이것은 마치 택배 주소 분류 센터처럼 들어오는 신호를 실시간으로 주소를 붙여서 하나의
신호로 통합해서 바로 보내거나 , 하나로 합쳐서들어온 신호를 실시간으로 주소별로 분리해주는 능력을 가졌다
if it is “1” than _~~이런식의 명령어를 처리해주는 프로그래밍 가능한 기계 논리 게이트가 집적된 프로세서라고 보면된다

그래서 멀티채널로 들어오는 신호를 실시간으로 하나의 신호로 통합하여 전송하고, 실시간으로 그것을 다시 멀티채널로 분리해내는 작업을 통해 레이턴시를 획기적으로 줄일수 있다.


기존에는 소프트웨어 버퍼(asio buffer나 dvs) 가 이작업을 해주었다면 fpga는 실시간으로 이것을 프로그래밍 되어있는데로 처리해준다

fpga에 대한 이미지 검색결과

그렇게 해서 나타난게 내기억으로는 avid사의 hd native카드.이 제품은 써보진 않았지만 내가 알기론 프로툴의 믹서의 컨트롤대로 바로바로 모니터링 뽑아줄수 있게끔 레이턴시가 매우 짧은 수준이라고 알고 있다 ( buffer 64samples 에서 1.7ms 정도 라고 합니다.)

fpga chip avid native에 대한 이미지 검색결과

또 비슷한 제품으로 스타인버그 누엔도와 같이 쓰게끔 만들어진 dante 시스탬인 누아쥬 시스탬 fpga칩이 들어있는 단테 카드를 같이 사용하면 내부 레이턴시 가 1ms정도로 운용가능 버퍼 설정에 따라 0.5ms도 가능하다고 함 믹스때는 5ms정도로 쓰고

nuage dante card에 대한 이미지 검색결과

또 비슷한 제품으로 나온게 포커스라이트 레드넷 이것도 그냥 외장 입출력을 네트워크에 연결해서 사용허면 5ms정도의 레이턴시로 쓰지만 (단테나 사운드 그리드 같은 네트워크 인터페이스는 fpga카드 없이 입출력 기기들만으로도 이미 썬더볼트를 능가하는 수준임)
역시 누아쥬나 아비드 처럼 fpga칩이 있는 카드(네이티브카드나 단테카드) 를 같이 사용하면 0.5ms나 1ms라는 놀라운 레이턴시를 볼수 있다

이렇게 되년 더이상 dsp mixer가 필요없는 상황이되어서 레드넷이나 누아쥬,avid native는 dsp mixer를 이용한 다이렉트 모니터링이 없고 그냥 daw 를 통해 native모니터링을 쓰게끔 된다.(하지만 어느정도 믹스시의 상황을 고려해서 다이렉트 모니터링 기능도 들어있긴하다 -누아쥬,아비드 네이티브)
결국 daw가 리얼 믹서처럼 동작하게 된다는 말

아비드나 야마하의 이러한 fpga 기술은 daw자체를 매우 낮은 레이턴시의 믹서로 쓸수 있는 해결방안을 마련해주었고
이걸 토대로 디지털 믹서를 제작하여 두 회사는 그쪽 분야의 기술이 급성장하게 된다
야마하는 daw회사였던 스타인버그를 인수하여 그 daw믹서 소프트웨어제작 기술과 그 vst이팩터 제작 기술을 자사의 디지털 믹서 기술과 융합하여 dm2000이후의 디지털 믹서들은 fgpa +daw소프트웨어&플러그인+입출력의 형태가 내부 구조의 핵심

yamaha cl에 대한 이미지 검색결과

아비드도 daw회사였던 디지디자인 프로툴을 인수하여 fpga기술에 그 daw 믹서 구조를 그대로 갖다박은듯한 베뉴 씨리즈 믹서를 만들기 시작

최근의 그런 fgpa기술이 슬슬 등장하면서 디지털 콘솔 제작이 쉬워졌도 업계도 포화되어서 가격대도 낮아지고 그러면서 이더넷 케이블을 이용한 디지털 오디오 전송(장점이 아주 많음) 의 시대가 오고 있다고 해도 과언이 아닌것같다.

사실 먼저 뛰어들었다가 개피보고 망해가는 회사도 있음 echoaudio

Streamware NIC-1

이회사의 경우 자사의 칩셋을 이용한 (역시 fpga라 생각됨) 아주 극 저 레이턴시의 avb 이더넷 오디오 전송 카드를 아주 일찍이 자사의 레코딩 솔류션을 모두 접으면서 까지 투자해서 만들었지만 avb쪽 이 주춤 거리면서 호환되는 기기나 입출력기기들이 생각보다 늦게 나와버리는 바람에 지금도 그냥 세월에 묻혀있는 경우도 있음

soundgrid,dante,ravenna,avb
지금 현재 이중에서
컴퓨터에 fgpa칩셋 카드를 설치해서
초 저래이턴시로 돌아가게끔하는 시스탬은 dante 쪽이고
이쪽은 dsp 와의 연결 방향을 모색하는 중이고 (dante 기반의 rack mixer나 ssl 디지털 콘솔등)

dante.focusrite yamaha에 대한 이미지 검색결과

soundgrid 쪽은 dsp server를 이용한 dsp mixer쪽으로 먼저 시작을 하고서
이제 fpga기반의 pcie카드 로의
발전가능성이 보인다

soundgrid network에 대한 이미지 검색결과

앞으로 레코딩 시스탬은 이러한
이더넷 오디오 기반이 가장 강세를 이룰것이며,
프리앰프,헤드폰 앰프,등의 오디오 입출력기기들은 모두 이더넷 단자를
지니게끔 발전할것이다

Waves 플러그인 버전

Waves 플러그인은 ,
처음 발표되었던 시점과,
나중에 버전업이 되어 업그레이드된
시점이 서로 소리가 다름

나중에 더 좋음..

예를들면 버전 8에 있는
CLA-2A 보다
버전 9에 있는 CLA-2A 가
소리가 더 좋을수 있다는 말임

왜냐하면

버전이 업되면서
Double precision 같은 기법이 추가되거나 하는 경우가 있음

지금 업그레이드된 Q10 이나 audiotrak 이 그 예인데
이전까지는 더블 프레시젼 옵션이 없다가
추가 되어있음

Q10 Equalizer

(사실 거의 대부분의 Waves 플러그인은 더블 프레시젼 이라고 waves 에서 밝히고 잇습니다.)

더블 프레시젼 =32bit float X2 해서 64Bit float 으로 내부 연산
이것이 가능한 이유는 CPU 라는 chip 의 구조가 64Bit float 이기 떄문임.

외부 프리앰프를 좋은 사운드로..만들기 위한

오디오 인터페이스에 붙어있는 내장형 프리앰프 제품들은, 컨버터와 매칭된

게인스트럭쳐를 가지고 있지만,

만약에 외장프리앰프를 또 써야 한다면, 좋은 소리를 받기 힘들다.

예를들면 Audio interface 의 max input level=26dBu 이고

프리앰프의 ouput level 를 모를때,  어느정도의 Output 를 프리앰프에서

설정해야 하는지( 외장 프리앰프들은 대체적으로 Ouput 노브를 가지고 있어서, 출력되는 신호를 변동할수 있다.)

이번에도 외장 프리앰프를 오디오 인터페이스(A/D 컨버터) 에 연결하는데, 래밸 미터와 주파수 반응이 하나도 맞지 않게 들려서,,..체크해보느라 꺼내보았다..

이걸로 4dBu 의 출력톤을 프리앰프에 입력시켜서 0Vu 로 맞추고 , 그 출력을 다시 오디오 인터페이스의 예상 라인 래밸 26dBu 니까..-22dBfs..

 

일반 오디오 인터페이스와 Soundgrid DSP Server 를 같이 사용하기.

(어떠한 지원도 없이 제가 직접 구매사용한 제품입니다.)

TASCAM 의 16X08 오디오 인터페이스에 Waves Soundgrid DSP server 를 붙여서

waves 의 플러그인들을 DSP 로 돌려보려고 합니다.

  1. SG connect 로 사운드 그리드에 Tascam 16X08 을 붙여봅니다.

사운드 그리드 드라이버 컨트롤 패널에서 SG connect 를 활성화 시켜줍니다.

2.사운드 그리드 스튜디오에서 하드웨어 I/O 디바이스에 이제 Local device 로 Sg connect 에서 활성화한 Tascam 16X08 을 등록하여 사용할 수 있습니다.

입출력 Patch 도 자유자재로 됩니다. 마치 Soundgrid 의 I/O 인것 처럼 패치 할수 있습니다.

3. 사용하는 DAW 의 오디오 인터페이스 드라이버를 Soundgrid 를 잡아줍니다.

Sg connect 에서 오디오 인터페이스를 활성화 하면, OS 나 DAW 가 사용할수 없기 떄문에, Soundgrid Studio 에서 해당 오디오인터페이스를 가지고 간후, 그 Soundgrid studio 를DAW 나 OS 에서 잡아서 쓴다고 이해하면 될것 같습니다.

6. Studio rack (DSP) 를 이용하여, Soundgrid DSP 로 Waves 플러그인을 사용한다.

일반 ASIO 를 지원하는 아무 오디오 인터페이스와 Soundgrid DSP server 를 같이 사용할수 있는 SG connect 의 기능으로, CPU 자원을 안쓰고 DSP 로 waves 플러그인을 돌릴 수 있습니다.

또한 오히려 Soundgrid emotion st 의 Patch 시스탬이나 mixer 시스탬을 활용할수 있어서,

기존의 오디오인터페이스를 더 확장하여 사용할 수도 있습니다.

하지만 헤당 오디오 인터페이스의 ASIO latecny 만큼이 추가되어, 실시간 으로 이팩터를 걸고 처리하는것은 무리가 있고, 믹싱/마스터링 정도에 사용할 수 있을것 같습니다.

(실시간으로 이팩팅을 하고 소리를 모니터링하려면 Digigrid 같은 soundgrid 전용 I/O 를 사용하면 됩니다.)

기존의 Soundgrid 호환 I/O 와  일반 ASIO 오디오 인터페이스를 혼용하는 다음과 같은 셋팅도 됩니다.

(이렇게 하이브리드 셋팅을 하는경우, TASCAM 16X08 의 input latency :2ms, ouput latency :8ms 라고 할때, tascam 의 input 을 digigrid output 으로 출력하는 Route 의 경우, Input latency 인 2ms 만 추가 되게 됩니다.왜냐하면, 디지그리드 아웃풋은 Soundgrid 호환이라 zero latency 이기 때문에, input 에 해당하는 latency 만 추가 되게 되는것 같습니다.   어떤 루우팅,패치 도, 해당 input, 또는 output 에 해당하는 latency”만” 추가 되네요)

P.s 많은 분들이 UAD 와 비교를 하시는것 같아 장단점을 말씀드리자면, UAD 에 비해서 레이턴시가 현저하게 짧습니다. 그리고 64bit float 프로세싱(waves 플러그인이 원래 CPU 기반이기 때문이죠) 이기 때문에, 트랜지언트나 다이내믹 계열, 그리고 EQ 계열이 정말 좋습니다. UAD 는 32bit float 기반이고 몇몇 플러그인에서 192khz 강제 오버 샘플링을 지원해서 , 그런부분에 장점이 있는 반면 waves 의 경우에는 플러그인 프로세싱은 거의 대부분 96khz 까지 지원이라서 살짝 아쉬운 부분은 있습니다. 하지만 오디오 가청 주파수 대역폭을 생각해보면 96khz 도 차고 넘치는 실정이라 크게 단점은 아닌것 같습니다. 높은 샘플링 레이트로 이득을 볼수있는 플러그인 계열은 시간에 관계된, 리버브 , 나 딜레이 계열입니다. 하지만, waves 의 abbeyroad plate 리버브 나 IR 리버브도 정말 좋은 리버브이기 때문에, 크게 걱정은 없을것 같네요.

waves e-motion st 에서의 태잎머신 스타일 모니터링 방법.

Emotion -sT (studio) 는 녹음용으로 개발된 inline 스타일의 콘솔입니다.

기본적으로 제공되는 멀티퍼포즈 채널 8개를 제외하고

Studio rack channel 이라고 하는 64개의 DAW 와의 연동 채널을 쓸수가 있습니다.

위 믹서 사진을 보시면 좌측 하단 Layer 부분에 Mixer, 와 Studio racks 라는 두개의 선택 셀렉터가 있는데요, 바로 이부분에서 Mixer 가 기본 멀티채널이고, 하단의 Studio racks 라는 체널이 바로 DAW 와 연동되는 Studio rack 채널입니다.

스튜디오 랙 채널은 평상시에는 나타나지 않는데요, DAW 에서 트랙에 Studio rack 을 걸면 생겨납니다.

바로 이와 같은 Studio rack 인데요, 스튜디오 랙의 모니터링을 활성화 하는 곳인, Emotion monitoring 에서 모니터 인풋 을 하고싶은 ASIO 인풋 숫자(여기서는1,2 번)를 선택하면, 우측과 같은 채널뷰가 생겨나구요, Emotion st 믹서에도 채널이 생겨납니다.

그러면 ASIO 1,2 번에 대한 모니터링과 플레이백 전환이 가능한 Studio rack 이 생겨납니다.

이 스튜디오 채널은 녹음시에는 들어오는 소리 신호인 INPUT(선택된 1,2번) 을 모니터링하고, 플레이시에는 해당 트랙에 녹음된 소리 신호인 PLAYBACK 을 모니터링 할수 있습니다.

따라서 TAPE MACHINE 스타일(녹음시에는 인풋, 재생시에는 트랙 모니터링) 모니터링을 할수 있게 해주는데 , 디바이스 설정에서 다음과 같은 설정이 필요합니다(DAW 마다 조금씩 다름)

이러면 STUDIO RACK 에서 AUTO 버튼이 눌린 상태일때, DAW 의 녹음 버튼과 연동이 되어서, 녹음시에는 자동으로 인풋 모니터링이 되고, 재생시에는 해당 트랙이 재생되도록 자동 전환이 됩니다.

 

인풋 모니터링 상태인 스튜디오 랙 채널입니다.

또한 이 스튜디오 랙채널은 각각의 AUX (모니터 믹스) 로 보내주는 역할도 하게되는데요 우측의 SEND 로 결정하게됩니다. 각각의 연주자또는 각각의 모니터 쪽으로 소리를 보내주는 양을 결정하게되고 PRE, POST , INPUT, 설정 및 개별 ON/OFF 도 됩니다.

이러한 설정들은 DAW 의 프로젝트 파일과 같이 돌아가게 되구요,

또한 스튜디오 랙에서 플러그인을 걸고 모니터링이 가능하기 때문에 , 컴프레서나, 이퀄라이저를 걸고 녹음해도 , 녹음되는 소스는 이팩터가 빠진 원소스가 녹음되며, 모니터링만 이팩팅이 된 상태로 갈 수 있는 장점이 있어, 나중에 이팩팅을 수정도 가능합니다.

 

컴프레서의 히스토리

1. 처음에는 작은소리를 키우고 큰소리를 줄여서 방송에 적합한
평탄한 래밸로 만들어 내보내기 위해 개발됨.(RCA등)
2. 그러다가 음악적인 용도로 사용되기 시작함.
3. 음악적인 용도로 쓰다보니, 컴프레서를 걸면 컴프레서를 걸었기 떄문에 생기는 릴리즈가 갑자기 커진다던지 어택이 죽는다던지 하는
답답한 현상등이 생기기 시작.
4.컴프레서를 많이 걸면서도, 컴프레서를 “안건듯한” 느낌이 필요해서, 그런쪽으로 개발을 많이 함.(옵토, 페어차일드)
5.하지만 음악의 그루브나 파형이 제각각이라, 항상 안건듯한 느낌을 만들어내기가 힘들기 떄문에, 어택과 릴리즈를 조절하는기능을 넣기 시작함.
어택과 릴리즈를 조절해서 어떤 소리던지 컴프레서를 많이 걸면서
안건듯한 느낌을 만들어내려고 노력함
(SSL Quad-comp)
-나중엔 떄론 그 반대도(심하게 건듯한 음악적인 목적으로?)
6.그러다가 나중엔 오히려 어택과 릴리즈를 이용해서 드럼의 어택감이나 타격감, 베이스의 풍성함등을 만들어내는쪽으로적극적으로 활용중..
(DBX, BSS .)
7 현재- 지옥불반도의 카오스 . 요즘은 리미터들도 많이 걸어도 안건듯하게 느끼게 하는 기술들까지 나옴.(fabfilter, waves, mcdps, flux)
히스토리를 참고한 개인적인 소고임.
난 여전히 컴프를 많이 걸었으면서도 소리가 안건듯 자연스러운 것들이 좋음….
p/s 1990년대 부터 2000년대 초반의 SSL-bus comp 를 이길자가 없었음…..마스터에 걸어서 래밸을 확 높히고 자연스럽고..ㅋ
근데 지금은 훨 좋은 플러그인 많음..

ssl console comp에 대한 이미지 검색결과

플러그인의 게인 스트럭쳐

플러그인의 게인 스트럭쳐.

wave 플러그인들 VU 미터 보면 1자도라이버처럼 돌리는곳 있는데
여기서 VU 미터 칼리브레이션 가능.
자신의 오디오 인터페이스에 4dBU 신호 쏴보고,
-18dBfs 들어오면
이거 18로 맞춰야 하는것같음….일단 디폴트가 18임.
-실시간으로 모니터링할때만, 만약 녹음된 톤이면, 뭐 그렇게 크게 상관은 없음.-
그래야..제대로 사용가능.하고 원래의 소리를 들을수 있는것같음.
나는 사실 예전부터 내가 써본 하드웨어랑 waves 랑 사실 크게 차이 안난다고 생각했는데, 만약 오디오 인터페이스가 -12dBfs 로 떨어지는 제품인데 플러그인 VU 가 -18dBfs 라면?
실시간 들어오는데다가 그상태로 플러그인 박으면,
미터엔 소리가 엄청 쌔개 들어오는걸로 보이기 때문에
일단 플러그인에서 그거 VU 미터 맞출라고 소리들을 줄여가게됨.
.그러면 일다 청감상 라우드니스부터 작아짐..플러그인은…
특히 저음역대…가 비는것처럼 들리게 되고

플러그인과 하드웨어의 비교는 벌써 여기부터 함정이 있음.

그래서 다들 플러그인이 하드웨어보다 못하다느니 그런말 하게 되는게 아닐지….

그냥 내 추측이지만, 나도 한번 -12dBfs 로 떨어지는
오디오 인터페이스로 한번 비교해보든가 해야지…
내가 이제껏 써온 오디오인터페이스들은-0- 희안하게도..
-18dBfs 로 떨어지는 애들만 써와서,…

하여간 이 부분을 잘 살펴봐야 합니다.

 

USB, 썬더볼트, IEEE1394 의 대역폭의 이면

USB 나 썬더볼트 오디오인터페이스의 최고의 단점은..

각각의 단자마다 독립된 USB 대역폭이 적용되는것이 아니고
컨트롤러 1개당 USB 대역폭이 적용된다는것입니다.

만약 메인보드에 USB 컨트롤러가 1개 뿐이라면
(사실 저저형형 대부분)
여기에 그리고 여러개의 USB 장치들이 달려있다면,
사실상 USB 대역폭은 그 장치들이 나눠가지게 됩니다.
실제로 USB 장치가 많아지면 많아질수록 각 장치들이
사용할수 있는 대역폭은 매우 줄어들게 됩니다.

오디오 인터페이스의 사용에 안정성이 매우 떨어지게 됩니다.

사실 이 단점은 썬더볼트, IEEE1394 방식도 똑같습니다.
하지만 이 장비들은 따로 사용하게 되므로, USB 와 같은 문제가
크게 불거지진 않죠..

이미지: 텍스트