J'essaie de travailler sur le jeu de données Kaggle (10_monkey_dataset) et je ne reçois pas une bonne précision sur mon modèle.
Voici le modèle complet est écrit à Karas. P>
model.add(Conv2D(32, (3, 3), input_shape=(224, 224, 3)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Conv2D(32, (3, 3)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Conv2D(64, (3, 3), padding='same'))
model.add(Activation('relu'))
model.add(Conv2D(64, (3, 3)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))
model.add(Flatten())
model.add(Dense(512))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(10))
model.add(Activation('softmax'))
3 Réponses :
On dirait que votre modèle est survistatif car votre précision du train est bien supérieure à la précision de votre test. Je suggérerais d'appliquer l'une des techniques suivantes: p>
Vous voudrez peut-être aussi essayer la fonction d'activation relie fuite que cela donne parfois de meilleurs résultats. P>
Également checkout Cet ordinateur portable , Ce mec semble avoir une meilleure précision avec un modèle plus simple. P>
Ce n'est pas un modèle plus simple, il utilise la xception comme extracteur de caractéristiques
Il y a vraiment beaucoup de choses que vous pouvez faire pour améliorer votre précision:
Exemple de modèle Architecture: P>
x = Conv2D(64, (3, 3) , padding='SAME')(model_input)
x = Activation('relu')(x)
x = BatchNormalization()(x)
x = Conv2D(64, (3, 3) , padding='SAME')(x)
x = Activation('relu')(x)
x = BatchNormalization()(x)
x = Conv2D(64, (3, 3) , padding='SAME')(x)
x = Activation('relu')(x)
x = BatchNormalization()(x)
x = MaxPooling2D(pool_size=(2, 2))(x)
Avec d'autres grandes réponses, vous pouvez également essayer différentes fonctions d'activation code> pour obtenir une précision de 1% plus. J'ai vu https://github.com/digantamisra98/mish P>
HTTPS : //forums.fast.ai/t/meet-mish-New-Activation-function-possible-successor-a-relu/53299/76 P> Mish code> Fonction d'activation donnant de bons résultats. P>