Merci à Google Cloud, nous obtenons des crédits gratuits pour la gestion de GPU sur le cloud, mais nous vous retrouvons coincés au tout début. P>
Nous utilisons pour obtenir des images quotidiennement pour le traitement via un modèle d'apprentissage de la machine, mais un système GPU d'une manière ou d'une autre ne s'habitue pas à la journée est là que nous pouvons contrôler ce système pour démarrer et arrêter une fois que toutes les images sont traitées via une seule fonction ? Que nous pouvons appeler à travers cron à la journée et à la timing spécifique. P>
J'ai entendu parler de AWS Lambda mais je ne suis pas sûr de ce que Google Cloud peut fournir ce problème. P>
Merci d'avance. P>
3 Réponses :
Vous pouvez essayer d'optimiser l'utilisation GPU des instances en suivant le guide sur Ici , cependant, vous auriez besoin de la gérer à travers un cron ou quelque chose dans l'instance. p>
Aussi, faites attention à votre utilisation de votre crédit lors de l'utilisation de GPU lors d'un essai gratuit. L'essai gratuit vous donne seulement 300 USD en crédits, cependant, comme on le voit sur ici L'utilisation du GPU coûte cher et vous pouvez dépenser tous vos crédits dans 1 ou 2 semaines si vous ne faites pas attention. P>
J'espère que vous trouverez cela utile! p>
Vous pouvez utiliser le planificateur de cloud pour ces cas d'utilisation ou vous pouvez déclencher une fonction de cloud lorsque des images sont disponibles et le traitent. p>
Cependant, le quota gratuit de 300 $ est destiné à la formation et à l'innovation des objectifs non destinés à la demande de production réelle. P>
Le planificateur de nuages est beaucoup cher, de toute façon, merci de répondre
La fonction de nuage ne supporte pas GPU AFAIK?
Si vous êtes prêt à passer des efforts, vous pouvez y parvenir avec Google Kubettes Moteur. Depuis loin, je sais que c'est le seul moyen de disposer maintenant d'auto-démarrer et d'arrêter les instances GPU sur le GCP. Pour y parvenir, vous devez ajouter une piscine de nœud GPU avec une mise à l'échelle automatique à votre cluster Kubettes.
apiVersion: batch/v1 kind: Job metadata: name: some-job spec: parallelism: 1 template: metadata: name: some-job labels: app: some-app spec: containers: - name: some-image image: gcr.io/<project-id>/some-image:latest resources: limits: cpu: 3500m nvidia.com/gpu: 1 affinity: podAntiAffinity: requiredDuringSchedulingIgnoredDuringExecution: - labelSelector: matchExpressions: - key: app operator: In values: - some-app topologyKey: "kubernetes.io/hostname" tolerations: - key: reserved-pool operator: Equal value: "true" effect: NoSchedule - key: nvidia.com/gpu operator: Equal value: "present" effect: NoSchedule restartPolicy: OnFailure
Oui, Google a des fonctions de cloud. Très similaire à Lambda. Pourquoi ne pas utiliser le clou de Google Cli CLI depuis votre bureau pour allumer et éteindre vos instances? Windows a planificateur de tâches, Linux a cron.
Merci de répondre à la réponse @johnhanley, mais les fonctions du cloud sont très limitées de 2048 Mo de mémoire que nous consommons environ 25 Go et qu'il n'y a pas d'options pour GPU
mais bien sûr essayer de google cloud cli
Vous avez posé une question sur l'équivalent d'AWS Lambda pour contrôler le démarrage / arrêt des instances VM. AWS Lambda ne prend pas en charge 25 Go non plus.