L'organisme de formation continue du CNRS
Accueil > Deep Learning : inférence, mise en production et déploiement de services

Formation - Deep Learning : inférence, mise en production et déploiement de services

RESPONSABLE

Bertrand CABOT

Ingénieur de recherche

UAR 851

LIEU

ORSAY (91)

ORGANISATION

14 h
de 7 à 16 stagiaires

MÉTHODES PÉDAGOGIQUES

Alternance de cours (7 h) et de TP (7 h)
Tout au long de la formation, des cas pratiques ou exercices corrigés permettront à l'apprenant d'évaluer l'acquisition des compétences.
Les supports de cours sous format PDF seront remis aux participants.

COÛT PÉDAGOGIQUE

1836 Euros

A L'ISSUE DE LA FORMATION

Evaluation de la formation par les stagiaires. Envoi d'une attestation de formation

DATE DU STAGE

Nous consulter

2025
Janvier Février
25020
Mars Avril
Mai Juin Juillet Août
Sept Oct Nov Déc
OBJECTIFS
-

Développer une expertise dans l'analyse des besoins et la mise en ?uvre des modèles


-

Développer une première expérience sur des cas concrets et pratiques


-

Proposer un panorama des outils et des solutions MLOps, DLOps, LLMOps


-

Acquérir les principales techniques actuelles et en constante évolution, d'optimisation de l'inférence de modèles en Deep Learning et notamment des LLM


-

Connaître les problématiques d'optimisation d'un serveur d'inférence, d'un point de vue système et algorithmique

PUBLIC
Ingénieurs, scientifiques ou développeurs souhaitant développer des compétences pratiques dans la compréhension et la mise en ?uvre de solutions basées sur le Deep Learning
PRÉREQUIS
Maîtriser Python et les notions de l'apprentissage en Deep Learning, et avoir de bonnes bases en Pytorch
PROGRAMME
Cette formation a pour objectif d'acquérir les fondamentaux, l'expertise et le savoir-faire nécessaires à la mise en production et au déploiement de solutions en intelligence artificielle. Elle s'adresse aux ingénieurs, développeurs et scientifiques.

1er jour
- Problématiques et méthodologie MLOps
- Fine-tuning de modèle
- Évaluation et benchmarking
- Nettoyage des données
- Optimisation de l'inférence : Quantization, Pruning…
- Inférence de modèles auto-régressifs (LLM, VLM...)

2ème jour
- Déploiement sur serveur, terminaux (Edge), orchestrateur
- Mini-projet reprenant tout ce qui a été abordé pendant la formation
EQUIPEMENT
Ressources (mini-cluster GPU) de l'IDRIS ; salle informatique avec mise à disposition d'un ordinateur par apprenant.
INTERVENANT
B. Cabot (ingénieur, IDRIS)