J'essaie de travailler sur le jeu de données Kaggle (10_monkey_dataset) et je ne reçois pas une bonne précision sur mon modèle.
Voici le modèle complet est écrit à Karas. P>
model.add(Conv2D(32, (3, 3), input_shape=(224, 224, 3))) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Conv2D(32, (3, 3))) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Conv2D(64, (3, 3), padding='same')) model.add(Activation('relu')) model.add(Conv2D(64, (3, 3))) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Dropout(0.25)) model.add(Flatten()) model.add(Dense(512)) model.add(Activation('relu')) model.add(Dropout(0.5)) model.add(Dense(10)) model.add(Activation('softmax'))
3 Réponses :
On dirait que votre modèle est survistatif car votre précision du train est bien supérieure à la précision de votre test. Je suggérerais d'appliquer l'une des techniques suivantes: p>
Vous voudrez peut-être aussi essayer la fonction d'activation relie fuite que cela donne parfois de meilleurs résultats. P>
Également checkout Cet ordinateur portable , Ce mec semble avoir une meilleure précision avec un modèle plus simple. P>
Ce n'est pas un modèle plus simple, il utilise la xception comme extracteur de caractéristiques
Il y a vraiment beaucoup de choses que vous pouvez faire pour améliorer votre précision:
Exemple de modèle Architecture: P>
x = Conv2D(64, (3, 3) , padding='SAME')(model_input) x = Activation('relu')(x) x = BatchNormalization()(x) x = Conv2D(64, (3, 3) , padding='SAME')(x) x = Activation('relu')(x) x = BatchNormalization()(x) x = Conv2D(64, (3, 3) , padding='SAME')(x) x = Activation('relu')(x) x = BatchNormalization()(x) x = MaxPooling2D(pool_size=(2, 2))(x)
Avec d'autres grandes réponses, vous pouvez également essayer différentes fonctions d'activation code> pour obtenir une précision de 1% plus. J'ai vu https://github.com/digantamisra98/mish P>
HTTPS : //forums.fast.ai/t/meet-mish-New-Activation-function-possible-successor-a-relu/53299/76 P> Mish code> Fonction d'activation donnant de bons résultats. P>