2番目の回答を使用して、Ubuntu 16.04にTensorflowをインストールしましたここUbuntu に組み込まれた apt cuda インストールを使用します。
さて、私の質問は、Tensorflowが本当にGPUを使用しているかどうかをどうやってテストするかということです。私はGTX 960MのGPUを持っています。import tensorflow
これが出力です
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcublas.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcudnn.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcufft.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcuda.so.1 locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcurand.so locally
この出力は、Tensorflow が GPU を使用しているかどうかを確認するのに十分ですか?
ベストアンサー1
いいえ、グラフの異なるノードが異なるデバイス上にある可能性があるため、「CUDA ライブラリを開く」だけでは十分ではないと思います。
tensorflow2を使用する場合:
print("Num GPUs Available: ", len(tf.config.list_physical_devices('GPU')))
tensorflow1 の場合、どのデバイスが使用されているかを確認するには、次のようにログ デバイスの配置を有効にします。
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
このタイプの出力についてはコンソールを確認してください。