Résumé
Prochaine session : du 20 au 21 mai 2021
Objectifs
- Comprendre les enjeux du machine learning et de l’intelligence artificielle
- Connaître les différentes approches d’un problème en machine learning : supervisé/non-supervisé/semisupervisé, régression/classification etc.
- Comprendre les avantages et inconvénients des réseaux de neurones profonds ou larges
- Savoir chiffrer l’empreinte mémoire et la complexité de calcul d’un réseau en phase d’apprentissage ou d’évaluation
Les plus de la formation
- La formation se déroule avec une alternance entre apports théoriques et travaux pratiques.
- Le nombre réduit des participants permet une réelle aide personnalisée dans l’apprentissage.
- Chaque participant reçoit une clé USB comprenant les supports de cours, lui permettant de reprendre les cours et exercices ensuite en autonomie.
Nos atouts pédagogiques
L’équipe pédagogique est constituée d’enseignants-chercheurs de l’école
Grenoble INP - Phelma et de chercheurs du laboratoire
Grenoble Images Parole Signal Automatique (GIPSA Lab). Cette formation s’appuie sur les moyens techniques de l’école
Grenoble INP - Phelma.
A+Augmenter la taille du texteA-Réduire la taille du texteImprimer le documentEnvoyer cette page par mail
- Ville : GRENOBLE
- Tarif : 1 200 € / personne
Conditions d'admission
Pour qui ?
Cette formation s’adresse à des ingénieurs, chercheurs et techniciens souhaitant connaître les notions essentielles du machine learning et de l’intelligence artificielle et appréhender les différents enjeux associés.
Pré-requis : Connaissances de base en programmation, statistiques (régression, estimateur etc.), ainsi qu’en optimisation mathématique (calcul d’une dérivée, notion de convergence etc.)
Effectif : 4 à 12 personnes
Contacts
A+Augmenter la taille du texteA-Réduire la taille du texteImprimer le documentEnvoyer cette page par mail
- Durée des études : 2 jours
Programme
1- Apprentissage automatique/statistique (machine learning)
• Astuce du noyau : dualité espace des échantillons/espace des caractéristiques
• Dualité des échantillons par rapport aux caractéristiques (kNN vs SVM)
• Réseaux de neurones : la propagation de l’information, la rétro-propagation de l’erreur
2- Apprentissage au Deep Learning
• Les différents types de réseaux : CNN, RNN, LSTM, ResNet... Les avantages et inconvénients,
les cas typiques d’utilisation...
• Implémentation d’un réseau avec des API haut niveau (Tensorflow, MXNet, Keras, …) : limites d’utilisation
• Chiffrer la complexité de calcul / mémoire
A+Augmenter la taille du texteA-Réduire la taille du texteImprimer le documentEnvoyer cette page par mail
A+Augmenter la taille du texteA-Réduire la taille du texteImprimer le documentEnvoyer cette page par mail
A+Augmenter la taille du texteA-Réduire la taille du texteImprimer le documentEnvoyer cette page par mail