Questions et réponses pour le cross-entropy :

Dans l'apprentissage automatique et la théorie de l'information, l'entropie croisée est une mesure de la distance (similitude inverse) entre deux distributions de probabilité sur le même ensemble d'événements sous-jacent. L'entropie croisée est le choix courant de la fonction de perte dans les réseaux de neurones pour les tâches de classification.

2
votes
J'utilise une liste de tests et une liste de prédiction qui contient 4000 éléments comme dans cet exemple log_loss(test_list,prediction_list) Comment puis-je tr ...