Dans l'apprentissage automatique et la théorie de l'information, l'entropie croisée est une mesure de la distance (similitude inverse) entre deux distributions de probabilité sur le même ensemble d'événements sous-jacent.
L'entropie croisée est le choix courant de la fonction de perte dans les réseaux de neurones pour les tâches de classification.
J'utilise une liste de tests et une liste de prédiction qui contient 4000 éléments comme dans cet exemple log_loss(test_list,prediction_list)
Comment puis-je tr ...