-1
votes

Pourquoi plus de couches est-elle meilleure dans l'apprentissage profond?

Je comprends mathématiquement que l'apprentissage profond a plus d'une couche cachée, alors que l'apprentissage régulier de la machine n'en a qu'un. Est-ce correct? Si oui, pourquoi, et comment est-il préférable d'avoir plus d'une couche, qui donne un apprentissage profond le bord sur l'apprentissage de la machine? Je demande un cas d'utilisation spécifique de classification multi-étiquettes des textes. Pensez-vous qu'il est préférable d'utiliser dl ou ml? J'utilise ML maintenant et obtenez des résultats d'environ 99% pour certaines catégories, mais 30% pour d'autres. DL sera-t-il une modification viable?


4 commentaires

Quelqu'un peut-il me dire comment je devrais changer cette question afin qu'il ne sort pas voté? Merci!


Le débordement de la pile n'est généralement pas l'endroit idéal pour poser de telles questions, sa plus pour des questions de programmation spécifiques.


Essayez de la publier sur la communauté croisée croisée statists.stackexchange.com


Oui, ce n'est pas une question de programmation, il est donc hors de sujet ici.


3 Réponses :


1
votes

Votre compréhension n'est pas correcte, l'apprentissage régulier de la machine n'est généralement pas associé à des réseaux de neurones (qui ont des couches), une formation profonde n'est qu'une branche de ml qui traite des réseaux de neurones.

Problème avec les réseaux à une seule couche (également appelés Perceptrons) est qu'ils ne sont pas en mesure de classer correctement les tâches qui ne sont pas séparables linéairement (comme Xor Problème ) De même, des problèmes plus complexes nécessitent des réseaux plus profonds pour obtenir de meilleurs résultats.


0 commentaires

0
votes

L'algorithme d'apprentissage de la machine orthodoxe fonctionne sur des modèles mathématiques plus simples tels que SVM utilise une ligne pour séparer les classes, Knn utilise la distance du quartier. Celles-ci n'ont pas besoin de beaucoup de calcul.

mais les filets neurones ou l'apprentissage de l'âne sont un réseau de petits percepteurs. Cela commence par des poids aléatoires et une sortie correspondante avec des sorties attendues et lors de chaque poids rond est mis à jour pour régler le modèle.

Avoir une seule couche, il est plus enclin à mémoriser des poids et à ne pas penser. Donc, à la place de plusieurs couches sont utilisées avec des décrocheurs, donc quel que soit le chemin qu'il faut, cela donne une sortie cohérente. Donc, le modèle apprendrait réellement au lieu de mémoriser.

Cependant, trop de couches dégraderaient aussi des performances. Objectif est d'atteindre un optimum.


0 commentaires

0
votes

Premièrement, comme les autres ont souligné, ML classique ne se limite pas à un réseau de neurones peu profonds et à la sélection de ML classique ou d'apprentissage profond dépend de nombreuses choses: le problème, l'échelle du jeu de données à des mains, la puissance de traitement disponible ...

En ce qui concerne la question sur le nombre de couches: Le filet neural peu profond (MLP) est censé être un approximateur universel et on peut donc légitimement se demander pourquoi on a besoin de plus d'une couche cachée pour cibler tout problème. La question est que la recherche du bon ensemble de poids permettant de se rapprocher d'une fonction spécifique sur un problème spécifique est des méthodes super dures et les méthodes actuelles ne l'atteindront pas sur NN peu profond. Les filets de meurtriers profonds sont livrés avec de nombreux types de couches et astuces spécifiques pour améliorer la formation (et qui ne fonctionne que pour la profondeur du modèle). L'utilisation de ces techniques permet de trouver des poids qui se rapprochent de la cible que d'utiliser des NN classiques peu profonds.

Pour plus de détails, comme suggéré par @ A.Maman, essayez d'aller instance de validation croisée .


0 commentaires