測定デバイスの入力信号の変化の最小検出単位 (コード幅) は、分解能とデバイス範囲によって決まります。コード幅が狭いほど、正確な測定結果が得られます。

コード幅は、次の式で計算します。

  • コード幅 = デバイスレンジ/2分解能

たとえば、12ビットの測定デバイスでは、入力レンジが0~10 Vの場合は2.4 mVの変化を検出できますが、レンジが-10~10 Vの場合は4.8 mVの変化しか検出できません。

  • デバイスレンジ/ 2分解能 = 10/212 = 2.4 mV
  • デバイスレンジ/ 2分解能 = 20/212 = 4.8 mV

高分解能のA/D変換器 (ADC) を使用すると、前述のデバイス電圧レンジでより狭いコード幅を得られます。

  • デバイスレンジ/ 2分解能 = 10/216 = 0.15 mV
  • デバイスレンジ/ 2分解能 = 20/216 = 0.3 mV

以下の表は、12ビットの測定デバイスのコード幅がデバイスレンジによって変化する様子を示します。デバイスは、仮想チャンネル作成時に設定された入力レンジに最も適したレンジを選択します。測定する信号を正確に反映する入力レンジを選択し、出来るだけ小さいコード幅に設定します。NI-DAQmxでは、選択されたデバイスレンジに該当するよう入力レンジを強制的に設定します。

全体のデバイスレンジ ゲイン調整されたデバイスレンジ 精度[1]1 12ビットADCの最下位ビット (LSB) の値です。すなわち、ADCの12ビットカウントの1カウントの変化に相当する電圧の増分値です。
0~10 V
  • 0~10 V
  • 0~5 V
  • 0~2.5 V
  • 0~1.25 V
  • 0~1 V
  • 0~0.1 V
  • 0~20 mV
  • 2.44 mV
  • 1.22 mV
  • 610 µV
  • 305 µV
  • 244 µV
  • 24.4 µV
  • 4.88 µV
-5~5 V
  • -5~5 V
  • -2.5~2.5 V
  • -1.25~1.25 V
  • -0.625~0.625 V
  • -0.5~0.5 V
  • -50~50 mV
  • -10~10 mV
  • 2.44 mV
  • 1.22 mV
  • 610 µV
  • 305 µV
  • 244 µV
  • 24.4 µV
  • 4.88 µV
-10~10 V
  • -10~10 V
  • -5~5 V
  • -2.5~2.5 V
  • -1.25~1.25 V
  • -1~1 V
  • -0.1~0.1 V
  • -20~20 mV
  • 4.88 mV
  • 2.44 mV
  • 1.22 mV
  • 610 µV
  • 488 µV
  • 48.8 µV
  • 9.76 µV
メモ NI 4472は、-10~10 Vレンジの24ビットデバイスです。ただし、1ビットは予約されているため、有効な分解能は23ビットです。したがって、コード幅は20/223 = 2.38 µVとなります。

1 12ビットADCの最下位ビット (LSB) の値です。すなわち、ADCの12ビットカウントの1カウントの変化に相当する電圧の増分値です。