Je comprends que ce n'est en aucun cas une configuration recommandée pour l'apprentissage automatique, mais j'aimerais travailler avec ce que j'ai.
N'étant pas un expert, on m'a dit que tf-gpu devrait fonctionner avec n'importe quel appareil pris en charge par cuda.
Quand je lance:
WARNING:tensorflow:There are non-GPU devices in `tf.distribute.Strategy`, not using nccl allreduce. INFO:tensorflow:Using MirroredStrategy with devices ('/job:localhost/replica:0/task:0/device:CPU:0',) Number of devices: 1
J'obtiens:
strategy = tf.distribute.MirroredStrategy() print("Number of devices: {}".format(strategy.num_replicas_in_sync))
Et je peut faire fonctionner le GPU avec certaines tâches «vectorisées» de base.
En outre, l'exécution de:
Num GPUs Available: 0
renverra True
Cependant, l'exécution de
print("Num GPUs Available: ", len(tf.config.experimental.list_physical_devices('GPU')))
renverra une liste vide.
En cours d'exécution:
tf.config.experimental.list_physical_devices('gpu')
Reviendra :
import tensorflow as tf tf.test.is_built_with_cuda()
En cours d'exécution:
Found 1 CUDA devices id 0 b'GeForce MX130' [SUPPORTED] compute capability: 5.0 pci device id: 0 pci bus id: 1 Summary: 1/1 devices are supported
retournera:
from numba import cuda cuda.detect()
J'ai formé quelques modèles de base avec la version non-gpu de tensorflow mais je n'ai aucune idée de la manière de gérer tf-gpu. J'ai pu adapter un modèle avec des couches CuDNNLSTM, mais le script n'a pas utilisé le GPU, selon le gestionnaire de tâches.
J'apprécierai tout conseil sur la façon de le faire utiliser mon 'gpu' ou une confirmation que ce n'est pas possible. Merci!
MODIFIE:
J'ai désinstallé keras et les deux versions de tensorflow et installé uniquement tensorflow-gpu. Rien n'a changé.
3 Réponses :
Installez Cuda et CuDNN tous les deux. Définissez les chemins pour eux. Pour vérifier si TensorFlow utilise le GPU, utilisez ceci:
sess = tf.Session (config = tf.ConfigProto (log_device_placement = True))
Il devrait afficher le nom de votre GPU dans sa sortie.
merci pour votre réponse, cette fonction ne fonctionnait pas avec ma version de tf (2.2.0)
Malheureusement non.
Même si les spécifications officielles indiquaient «Oui», la liste des GPU CUDA ne mentionnait pas le MX130 dans sa liste.
(J'utilise également MX130 sur mon notebook)
référence:
Absolument OUI!
Je suppose que la capacité de calcul: 5.0 est suffisante.
J'ai testé ma Geforce MX130 avec tensorflow-gpu installé par conda (qui gère le cuda, la compatibilité des versions, etc. ) en Python 3.7
tensorflow-gpu: 2.1.0 cudatoolkit: 10.1.243 cudnn: 7.6.5
C'est tout! aucune autre action n'était requise. Les versions suivantes ont été installées:
conda install tensorflow-gpu
... et cela a fonctionné!
Pourriez-vous utiliser la NVIDIA GeForce MX130 pour Tensorflow? J'ai les mêmes fenêtres en cours d'exécution 10.