1
votes

Comment utiliser le GPU d'une machine distante dans un notebook Jupyter

J'essaie d'exécuter tensorflow sur le GPU d'une machine distante via le notebook Jupyter. Cependant, si j'imprime les périphériques disponibles en utilisant tf, je ne reçois que des processeurs. Je n'ai jamais utilisé de GPU auparavant et je suis relativement nouveau dans l'utilisation à distance du notebook conda / jupyter, donc je ne sais pas comment configurer l'utilisation du GPU dans le notebook jupyter.

J'utilise un environnement mis en place par quelqu'un d'autre qui a déjà exécuté le même code sur le même GPU, mais ils l'ont fait via un script python, pas dans un notebook jupyter.

c'est le seul code dans le fichier de l'autre personne qui avait à voir avec le GPU

config = tf.ConfigProto ()

config.gpu_options.allow_growth = Vrai

set_session (tf.Session (config = config))


0 commentaires

3 Réponses :


0
votes

Je pense que le problème était que j'avais tensorflow dans mon environnement au lieu de tensorflow-gpu. Mais maintenant j'obtiens ce message "échec de cudaGetDevice (). Statut: la version du pilote CUDA est insuffisante pour la version d'exécution CUDA" et je ne sais pas comment mettre à jour le pilote via le terminal


0 commentaires

0
votes

Comment votre environnement est-il configuré? Plus précisément, quel est votre environnement distant et quel est votre environnement local? On dirait que vos pilotes CUDA sont obsolètes, mais cela pourrait être plus que cela. Si vous ne faites que commencer, je recommanderais de trouver un environnement qui ne nécessite que peu ou pas de travail de configuration de votre part, afin que vous puissiez commencer plus facilement / rapidement.

Par exemple, vous pouvez exécuter des GPU sur le cloud et vous y connecter via un terminal local. Vous avez également votre frontend "local" être Colab en le connectant à un runtime local. ( Cette vidéo explique cette configuration particulière , mais il existe de nombreuses autres options )

Vous pouvez également essayer d'exécuter nvidia-smi sur la machine distante pour voir si les GPU sont visibles.


1 commentaires

Les GPU sont visibles sur nvidia-smi. Je pense que le pilote a juste besoin d'être mis à jour à partir de la machine réelle, j'ai donc contacté l'administrateur en charge. Merci!



0
votes

Voici une autre solution, qui décrit comment configurer une instance GPU-Jupyterlab avec Docker.

Pour mettre à jour vos pilotes via le terminal, exécutez:

export PATH=/usr/local/cuda/bin${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}

Vos chemins CUDA sont-ils correctement définis? Comme ça?

ubuntu-drivers devices
sudo ubuntu-drivers autoinstall
sudo reboot


0 commentaires