|
|
4 years ago | |
|---|---|---|
| biblio | 4 years ago | |
| code | 4 years ago | |
| rapport | 4 years ago | |
| .gitignore | 4 years ago | |
| README.md | 4 years ago | |
.
├── biblio # Liste des pdf utilisé à la rédaction du rapport
├── code # Code demandé pour le projet
└── rapport # Dossier du rapport
├── images # Dossier des images du rapport
├── makefile # MakeFile pour générer le pdf
├── rapport.bib # Bibliographie du rapport
├── rapport.pdf # Rapport
└── rapport.tex # Fichier source du rapport
Cette partie s’intéresse à l’efficacité de la fonction d’activation snake sur une tâche complexe de machine learning non-périodique. En effet pour que snake soit intéressant il faut qu’elle fasse aussi bien dans la plupart des tâches de ML comme la classification. C’est pourquoi conformément à l’article un réseau de CNN ResNet18 est appliqué sur la base de données ciphar-10.
Pour utiliser :
Aller dans code/resnet18/
---> le fichier ResNet18.py est le script POO implémentant le réseau, les classes crées sont :
-- ResnetBlock une superclasse dont hérite la classe ResNet18, créant les resblock faisant apportant l'info résiduelle via la fonction call
-- ResNet18 qui implémente la structure de couches de convolution, elle prend comme argument le nombre de classe possible. Soit 10 dans le cas de CIPHAR-10
Pour faire varier la fonction d’activation --> juste décommenter #tf.nn.relu(x) lignes 44, 54, 84 et commenter x + tf.sin(x)**2
--> le fichier resnet_snake.ipynb est le notebook main python a exectuer faisant l’appel de toutes les fonctions ainsi que de la classe Resnet18