Quelle est l'utilisation de la fonction tf.train.get_global_step () code> dans tensorflow?
Dans les concepts d'apprentissage de la machine Qu'est-ce que c'est équivalent à? P>
3 Réponses :
Pendant que vous avez défini l'opérateur d'étape globale, vous pouvez en obtenir une valeur par SESES.RUN (global_step_op) p>
Vous pouvez l'utiliser pour redémarrer la formation où vous vous êtes arrêté lorsque la procédure de formation a été arrêtée pour une raison quelconque. Bien sûr, vous pouvez toujours redémarrer une formation sans connaître le global_step code> (si vous économisez régulièrement des points de contrôle dans votre code, c'est-à-dire), mais à moins que vous n'ayez une trace de combien d'itérations que vous avez déjà effectuées, vous ne saurez pas Combien d'itérations sont laissées après le redémarrage. Parfois, vous voulez vraiment que votre modèle soit formé exactement
n code> itérations et non
n code> plus
montant inconnu avant le crash code>. Ainsi, à mon avis, c'est plus pratique qu'un concept d'apprentissage théorique de la machine. P>
Step globale est largement utilisé dans la décrétion de taux d'apprentissage (comme Vous pouvez passer une étape globale à optimzer apply_gradients ou minimiser la méthode pour incrémenter par un. p> tf.train.get_global_step () code> retour global étape (variable, tenseur de nœud variable ou aucun) via
get_collection (tf.graphkeys.global_step) code> ou
ou
ou
ou
get_tensor_by_name ('global_step: 0') code> p>
tf.train.exponential_decay code>, voir
Je pense que la réponse de Kaufmanu devrait être acceptée!