• Prochaine session : nous contacter.
  • Formation accessible aux personnes en situation de handicap.
  • 70% de pratique et 30% de théorie en moyenne.
  • Nombreuses activités pratiques pour une évaluation constante.
  • Supports, exercices et corrections à disposition en ligne pendant et après la formation.
  • Délai d'accès minimum moyen : deux mois.
  • Formation en distanciel ou en présentiel au sein de votre entreprise.
  • Evaluation par le formateur à travers les activités pratiques.

  • Public : Développeurs, architectes, analystes
  • Prérequis : Développement, python

  • Durée : 3 jours (7 heures/jour).
  • Tarif inter * : 1920 € - intra * : nous contacter.

L’intelligence artificielle est aujourd'hui une part plus qu'importante de l'informatique. Néanmoins, sa présentation dans les grands media relève souvent du fantasme, très éloignée de ce que sont réellement les domaines du Machine Learning ou du Deep Learning. L’objet de cette formation est d’apporter à des ingénieurs ayant déjà une maîtrise des outils informatiques une introduction au Deep Learning ainsi qu’à ses différents domaines de spécialisation et donc aux principales architectures de réseau existant aujourd’hui.

  • Introduction IA, Machine Learning & Deep Learning
    • Historique, concepts fondamentaux et applications usuelles de l’intelligence artificielle loin des fantasmes portés par ce domaine
    • Intelligence collective : agréger une connaissance partagée par de nombreux agents virtuels
    • Algorithmes génétiques : faire évoluer une population d’agents virtuels par sélection
    • Machine Learning usuel : définition.
    • Types de tâches : supervised learning, unsupervised learning, reinforcement learning
    • Types d’actions : classification, régression, clustering, estimation de densité, réduction de dimensionalité
    • Exemples d’algorithmes Machine Learning : Régression linéaire, Naive Bayes, Random Tree
    • Machine learning VS Deep Learning : problèmes sur lesquels le Machine Learning reste aujourd’hui l’état de l’art (Random Forests & XGBoosts)
  • Concepts fondamentaux d’un réseau de neurones
    • Rappel de bases mathématiques.
    • Définition d’un réseau de neurones : architecture classique, fonctions d’activation et de pondération des activations précédentes, profondeur d’un réseau
    • Définition de l’apprentissage d’un réseau de neurones : fonctions de coût, back-propagation, stochastic gradient descent, maximum likelihood.
    • Modélisation d’un réseau de neurones : modélisation des données d’entrée et de sortie selon le type de problème (régression, classification...). Curse of dimensionality. Distinction entre donnée multi-features et signal. Choix d’une fonction de coût
    • Approximer une fonction par un réseau de neurones : présentation et exemples
    • Approximer une distribution par un réseau de neurones : présentation et exemples
    • Data Augmentation : comment équilibrer un dataset
    • Généralisation des résultats d’un réseau de neurones.
    • Initialisations et régularisations d’un réseau de neurones : L1/L2 régularization, Batch Normalization...
    • Optimisations et algorithmes de convergence.
  • Outils usuels ML / DL
    • Une simple présentation avec avantages, inconvénients, position dans l’écosystème et utilisation est prévue.
    • Outils de gestion de donnée : Apache Spark, Apache Hadoop
    • Outils Machine Learning usuel : Numpy, Scipy, Sci-kit
    • Frameworks DL haut niveau : PyTorch, Keras, Lasagne
    • Frameworks DL bas niveau : Theano, Torch, Caffe, Tensorflow
  • Convolutional Neural Networks (CNN).
    • Présentation des CNNs : principes fondamentaux et applications
    • Fonctionnement fondamental d’un CNN : couche convolutionnelle, utilisation d’un kernel, padding & stride, génération de feature maps, couches de type ‘pooling’. Extensions 1D, 2D et 3D.
    • Présentation des différentes architectures CNN ayant porté l’état de l’art en classification d’images : LeNet, VGG Networks, Network in Network, Inception, Resnet. Présentation des innovations apportées par chaque architecture et leurs applications p
    • Utilisation d’un modèle d’attention.
    • Application à un cas de figure de classification usuel (texte ou image)
    • CNNs pour la génération : super-résolution, segmentation pixel à pixel. Présentation des principales stratégies d’augmentation des feature maps pour la génération d’une image.
  • Recurrent Neural Networks (RNN).
    • Présentation des RNNs : principes fondamentaux et applications.
    • Fonctionnement fondamental du RNN : hidden activation, back propagation through time, unfolded version.
    • Evolutions vers les GRU (Gated Recurrent Units) et LSTM (Long Short Term Memory). Présentation des différents états et des évolutions apportées par ces architectures
    • Problèmes de convergence et vanising gradient
    • Types d’architectures classiques : Prédiction d’une série temporelle, classification...
    • Architecture de type RNN Encoder Decoder. Utilisation d’un modèle d’attention.
    • Applications NLP : word/character encoding, traduction.
    • Applications Vidéo : prédiction de la prochaine image générée d’une séquence vidéo.
  • Modèles générationnels : Variational AutoEncoder (VAE) et Generative Adversarial Networks (GAN).
    • Présentation des modèles générationnels, lien avec les CNNs
    • Auto-encoder : réduction de dimensionalité et génération limitée
    • Variational Auto-encoder : modèle générationnel et approximation de la distribution d’une donnée. Définition et utilisation de l’espace latent. Reparameterization trick. Applications et limites observées
    • Generative Adversarial Networks : principes fondamentaux. Architecture à deux réseaux (générateur et discriminateur) avec apprentissage alterné, fonctions de coût disponibles.
    • Convergence d’un GAN et difficultés rencontrées.
    • Convergence améliorée : Wasserstein GAN, BeGAN. Earth Moving Distance.
    • Applications de génération d’images ou de photographies, génération de texte, super-résolution.
  • Deep Reinforcement Learning.
    • Présentation du reinforcement learning : contrôle d’un agent dans un environnement défini par un état et des actions possibles
    • Utilisation d’un réseau de neurones pour approximer la fonction d’état
    • Deep Q Learning : experience replay, et application au contrôle d’un jeu vidéo.
    • Optimisations de la politique d’apprentissage. On-policy && off-policy. Actor critic architecture. A3C.
    • Applications : contrôle d’un jeu vidéo simple ou d’un système numérique.

  • Formation avec un formateur, qui peut être suivie selon l’une des 2 modalités suivantes : dans la salle de cours en présence du formateur en intra ou en téléprésence / distanciel depuis votre domicile ou votre entreprise. Vous rejoignez un environnement deformation en ligne, à l’aide de votre ordinateur, tout en étant éloigné physiquement du formateur et des autres participants. Vous êtes en totale immersion avec le groupe et le formateur.
  • Le nombre de stagiaires peut varier de de 1 à 8 personnes, ce qui facilite le suivi permanent et la proximité avec chaque stagiaire.
  • Chaque stagiaire dispose d’un support, d’exercices à disposition en ligne pendant et après la formation. Pour une meilleure assimilation, le formateur alterne tout au long de la journée les exposés théoriques, les démonstrations et la mise en pratique au travers d’exercices et de cas concrets réalisés seul ou en groupe (70% de pratique er 30% de théorie en moyenne).

  • Feuille de présence, émargée par demi-journée par chaque stagiaire et le formateur
  • Evaluation qualitative de fin de formation
  • Attestation de fin de formation
  • Evaluation par le formateur à travers les activités pratiques.
  • Auto-évaluation des participants à travers les activités pratiques.

La formation est animée par un professionnel de l'informatique et de la pédagogie, dont les compétences techniques, professionnelles et pédagogiques ont été validées par des certifications et/ou testées et approuvées par les éditeurs et/ou notre responsable technique et pédagogique. Il est en veille technologique permanente et possède plusieurs années d'expérience sur les produits, technologies et méthodes enseignés. Il est présent auprès des stagiaires pendant toute la durée de la formation.

* Types de formation

  • En inter (plusieurs entreprises) : session ouverte et maintenue à partir de 3 participants (tarif à la session par participant);
  • En intra (une seule entreprise) : cours individuel ou collectif, standard ou sur-mesure (tarif à la journée, 8 participants max.)