0
votes

Control GPU Machine pour démarrer et arrêter d'une seule fonction?

Merci à Google Cloud, nous obtenons des crédits gratuits pour la gestion de GPU sur le cloud, mais nous vous retrouvons coincés au tout début.

Nous utilisons pour obtenir des images quotidiennement pour le traitement via un modèle d'apprentissage de la machine, mais un système GPU d'une manière ou d'une autre ne s'habitue pas à la journée est là que nous pouvons contrôler ce système pour démarrer et arrêter une fois que toutes les images sont traitées via une seule fonction ? Que nous pouvons appeler à travers cron à la journée et à la timing spécifique.

J'ai entendu parler de AWS Lambda mais je ne suis pas sûr de ce que Google Cloud peut fournir ce problème.

Merci d'avance.


4 commentaires

Oui, Google a des fonctions de cloud. Très similaire à Lambda. Pourquoi ne pas utiliser le clou de Google Cli CLI depuis votre bureau pour allumer et éteindre vos instances? Windows a planificateur de tâches, Linux a cron.


Merci de répondre à la réponse @johnhanley, mais les fonctions du cloud sont très limitées de 2048 Mo de mémoire que nous consommons environ 25 Go et qu'il n'y a pas d'options pour GPU


mais bien sûr essayer de google cloud cli


Vous avez posé une question sur l'équivalent d'AWS Lambda pour contrôler le démarrage / arrêt des instances VM. AWS Lambda ne prend pas en charge 25 Go non plus.


3 Réponses :


0
votes

Vous pouvez essayer d'optimiser l'utilisation GPU des instances en suivant le guide sur Ici , cependant, vous auriez besoin de la gérer à travers un cron ou quelque chose dans l'instance.

Aussi, faites attention à votre utilisation de votre crédit lors de l'utilisation de GPU lors d'un essai gratuit. L'essai gratuit vous donne seulement 300 USD en crédits, cependant, comme on le voit sur ici L'utilisation du GPU coûte cher et vous pouvez dépenser tous vos crédits dans 1 ou 2 semaines si vous ne faites pas attention.

J'espère que vous trouverez cela utile!


0 commentaires

0
votes

Vous pouvez utiliser le planificateur de cloud pour ces cas d'utilisation ou vous pouvez déclencher une fonction de cloud lorsque des images sont disponibles et le traitent.

Cependant, le quota gratuit de 300 $ est destiné à la formation et à l'innovation des objectifs non destinés à la demande de production réelle.


2 commentaires

Le planificateur de nuages ​​est beaucoup cher, de toute façon, merci de répondre


La fonction de nuage ne supporte pas GPU AFAIK?



0
votes

Si vous êtes prêt à passer des efforts, vous pouvez y parvenir avec Google Kubettes Moteur. Depuis loin, je sais que c'est le seul moyen de disposer maintenant d'auto-démarrer et d'arrêter les instances GPU sur le GCP. Pour y parvenir, vous devez ajouter une piscine de nœud GPU avec une mise à l'échelle automatique à votre cluster Kubettes.

apiVersion: batch/v1
kind: Job
metadata:
  name: some-job
spec:
  parallelism: 1
  template:
    metadata:
      name: some-job
      labels:
        app: some-app
    spec:
      containers:
        - name: some-image
          image: gcr.io/<project-id>/some-image:latest
          resources:
            limits:
              cpu: 3500m
              nvidia.com/gpu: 1
      affinity:
        podAntiAffinity:
          requiredDuringSchedulingIgnoredDuringExecution:
            - labelSelector:
                matchExpressions:
                  - key: app
                    operator: In
                    values:
                      - some-app
              topologyKey: "kubernetes.io/hostname"
      tolerations:
        - key: reserved-pool
          operator: Equal
          value: "true"
          effect: NoSchedule
        - key: nvidia.com/gpu
          operator: Equal
          value: "present"
          effect: NoSchedule
      restartPolicy: OnFailure


0 commentaires