TensorFlowの日本語まとめ

TensorFlowの公式サイトに書かれている英文を英語ど素人が翻訳(日本語訳/和訳)します。 間違いがありましたら、優しく教えていただけますと幸いです。 内容を理解したら、使ってみたい。

GPUsを使う

Supported devices

典型的なシステムでは、複数のコンピューティングデバイスがありますTensorFlowでは、サポートされているデバイス・タイプは、CPUGPUです。それらは、 stringsとして表現されています。 例えば:

  • "/cpu:0": あなたのマシンのCPU。
  • "/gpu:0": あなたのマシンのGPU、あなたが持っている場合。
  • "/gpu:1": あなたのマシンの第二のGPUなど。

TensorFlowオペレーションは、CPUGPUの実装の両方を有する場合、動作は、デバイス割り当てられている場合GPUデバイスが優先されます例えば、matmulにCPUとGPUカーネルの両方を有します。デバイスのcpu:0 and gpu:0, gpu:0を持つシステム上でmatmul実行するように選択されます。

f:id:TensorFlow:20160111204304j:plain

スポンサーリンク

 

ロギングデバイスの配置

あなたの操作とテンソルが割り当てされているデバイスを調べるにはTrueに設定log_device_placementの設定オプションを使用してセッションを作成します

# Creates a graph.
a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
c = tf.matmul(a, b)
# Creates a session with log_device_placement set to True.
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
# Runs the op.
print sess.run(c)

あなたは、次の出力が表示されます。

Device mapping:
/job:localhost/replica:0/task:0/gpu:0 -> device: 0, name: Tesla K40c, pci bus
id: 0000:05:00.0
b: /job:localhost/replica:0/task:0/gpu:0
a: /job:localhost/replica:0/task:0/gpu:0
MatMul: /job:localhost/replica:0/task:0/gpu:0
[[ 22.  28.]
 [ 49.  64.]]

 

マニュアルデバイスの配置

 あなたが代わりに自動的に選択されているものお好みのデバイス上で実行する特定の操作をご希望の場合は、そのコンテキスト内のすべての操作が同じデバイスの割り当てを有するようにデバイスコンテキスト作成するためにtf.deviceで使用することができます

# Creates a graph.
with tf.device('/cpu:0'):
  a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
  b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
c = tf.matmul(a, b)
# Creates a session with log_device_placement set to True.
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
# Runs the op.
print sess.run(c)

あなたはそれが今、abcpu:0に割り当てられている表示されます。

Device mapping:
/job:localhost/replica:0/task:0/gpu:0 -> device: 0, name: Tesla K40c, pci bus
id: 0000:05:00.0
b: /job:localhost/replica:0/task:0/cpu:0
a: /job:localhost/replica:0/task:0/cpu:0
MatMul: /job:localhost/replica:0/task:0/gpu:0
[[ 22.  28.]
 [ 49.  64.]

 

マルチGPUシステムでのシングルGPUを使用する

お使いのシステムに複数のGPUを持っている場合は、最も小さいIDを持つGPUデフォルトで選択されますあなたが別のGPU上で実行したい場合は、明示的に優先順位を指定する必要があります。

# Creates a graph.
with tf.device('/gpu:2'):
  a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
  b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
  c = tf.matmul(a, b)
# Creates a session with log_device_placement set to True.
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
# Runs the op.
print sess.run(c)

指定したデバイスが存在しない場合は、InvalidArgumentErrorを取得します。

InvalidArgumentError: Invalid argument: Cannot assign a device to node 'b':
Could not satisfy explicit device specification '/gpu:2'
   [[Node: b = Const[dtype=DT_FLOAT, value=Tensor<type: float shape: [3,2]
   values: 1 2 3...>, _device="/gpu:2"]()]]

あなたは自動的に指定されたものが存在しない場合の動作実行するための既存およびサポートされているデバイスを選択するTensorFlowをご希望の場合は、セッションを作成するときには、コンフィギュレーションオプションでallow_soft_placementTrueを設定することができます。

# Creates a graph.
with tf.device('/gpu:2'):
  a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
  b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
  c = tf.matmul(a, b)
# Creates a session with allow_soft_placement and log_device_placement set
# to True.
sess = tf.Session(config=tf.ConfigProto(
      allow_soft_placement=True, log_device_placement=True))
# Runs the op.
print sess.run(c)

複数のGPUを使用します

あなたが複数のGPU上でTensorFlow実行したい場合は、各タワー異なるGPUに割り当てられているマルチタワーファッションであなたのモデルを構築することができます 例えば:

# Creates a graph.
c = []
for d in ['/gpu:2', '/gpu:3']:
  with tf.device(d):
    a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3])
    b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2])
    c.append(tf.matmul(a, b))
with tf.device('/cpu:0'):
  sum = tf.add_n(c)
# Creates a session with log_device_placement set to True.
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
# Runs the op.
print sess.run(sum)

次の出力が表示されます。

Device mapping:
/job:localhost/replica:0/task:0/gpu:0 -> device: 0, name: Tesla K20m, pci bus
id: 0000:02:00.0
/job:localhost/replica:0/task:0/gpu:1 -> device: 1, name: Tesla K20m, pci bus
id: 0000:03:00.0
/job:localhost/replica:0/task:0/gpu:2 -> device: 2, name: Tesla K20m, pci bus
id: 0000:83:00.0
/job:localhost/replica:0/task:0/gpu:3 -> device: 3, name: Tesla K20m, pci bus
id: 0000:84:00.0
Const_3: /job:localhost/replica:0/task:0/gpu:3
Const_2: /job:localhost/replica:0/task:0/gpu:3
MatMul_1: /job:localhost/replica:0/task:0/gpu:3
Const_1: /job:localhost/replica:0/task:0/gpu:2
Const: /job:localhost/replica:0/task:0/gpu:2
MatMul: /job:localhost/replica:0/task:0/gpu:2
AddN: /job:localhost/replica:0/task:0/cpu:0
[[  44.   56.]
 [  98.  128.]]

cifar10 tutorial は、複数のGPUを搭載した訓練を行う方法を示す良い例です

 

 

(原文)

Using GPUs