L'organisme de formation continue du CNRS
Accueil > Architectures du Deep Learning
RESPONSABLE

Kamel GUERDA

Ingénieur de recherche

UAR 851

LIEU

ORSAY (91)

ORGANISATION

2 jours
De 3 à 16 stagiaires

MÉTHODES PÉDAGOGIQUES

Alternance de cours et de travaux pratiques.
Tout au long de la formation, des exercices corrigés permettront au stagiaire d'évaluer son acquisition des connaissances.
Des supports de cours et des TP seront mis à disposition du stagiaire.

COÛT PÉDAGOGIQUE

1326 Euros

A L'ISSUE DE LA FORMATION

Evaluation de la formation par les stagiaires
Envoi d'une attestation de formation

DATES DES SESSIONS

Les informations indiquées pour cette page sont valables pour la première session à venir.
Avant de s'inscrire à une autre session, téléchargez son programme car des modifications mineures peuvent y avoir été apportées.

25024 : du mercredi 05/02/2025 au jeudi 06/02/2025 à ORSAY

25355 : du mercredi 05/11/2025 au jeudi 06/11/2025 à ORSAY

2025
Janvier Février
25024
Mars Avril
Mai Juin Juillet Août
Sept Oct Nov
25355
Déc
NOUVEAU
OBJECTIFS
-

Comprendre les principes et les fonctionnalités des architectures de réseaux de neurones avancées, tels que les CNN, RNN, Transformers, GNN et les modèles de diffusion


-

Acquérir des compétences pratiques en mettant en ?uvre ces architectures lors de travaux pratiques


-

Appliquer les techniques d'adaptation de ces architectures à différents types de données, en explorant leurs applications sur des données variées telles que les images, le son, le texte ou les graphes

PRÉREQUIS
Cette formation s'adresse aux personnes souhaitant développer leurs connaissances en deep learning et sur les réseaux de neurones.

N.B. La connaissance des concepts fondamentaux du deep learning (Multi-Layer Perceptron, descente de gradient, rétropropagation) est essentielle, que ce soit à travers une formation initiale équivalente, comme les premières séquences de FIDLE, ou en ayant suivi le stage "Introduction pratique au deep learning".

Prérequis : connaissances de base en algèbre et en statistiques. Une connaissance de Python (syntaxe) est nécessaire pour le bon déroulement des sessions pratiques.
PROGRAMME
Cette formation présente différentes architectures de modèles pour offrir une perspective étendue sur le deep learning. Les participants exploreront des architectures clés telles que les réseaux neuronaux convolutifs (CNN), les réseaux neuronaux récurrents (RNN), les Transformers et d'autres. Les architectures sont vues successivement. Le déroulé typique pour une architecture comporte une mise en contexte, les concepts fondamentaux permettant de comprendre le fonctionnement de l'architecture et comment celle-ci est entraînée. Des exercices pratiques en Python avec Pytorch, ainsi que des démonstrations sur le supercalculateur Jean Zay de l'IDRIS, permettront de mettre en application ces concepts.

- Réseau neuronal convolutif (CNN)
- Réseau neuronal récurrent (RNN)
- Transformers
- Graph neural network (GNN)
- Diffusion models
EQUIPEMENT
Pour une exécution efficace des parties pratiques, celles-ci se dérouleront sur le supercalculateur de l'IDRIS.
INTERVENANTS
N. Cassereau, P. Cornette, K. Guerda, T. Véry et M. Song (ingénieurs)