L'organisme de formation continue du CNRS
Accueil > Parallélisation OpenMP
RESPONSABLE

Rémi LACROIX

Ingénieur de recherche

UAR 851

LIEU

ORSAY (91)

ORGANISATION

21 h
De 3 à 20 stagiaires

MÉTHODES PÉDAGOGIQUES

Alternance de cours (50 % du temps) et de travaux pratiques (50 % du temps).
Le support de cours ainsi que les énoncés et les corrections des travaux pratiques sont mis à disposition du stagiaire.
Tout au long de la formation, des exercices pratiques corrigés permettront à l'apprenant d'évaluer l'acquisition des compétences.

COÛT PÉDAGOGIQUE

1122 Euros

A L'ISSUE DE LA FORMATION

Evaluation de la formation par les stagiaires
Envoi d'une attestation de formation

DATES DES SESSIONS

Les informations indiquées pour cette page sont valables pour la première session à venir.
Avant de s'inscrire à une autre session, téléchargez son programme car des modifications mineures peuvent y avoir été apportées.

25047 : du mercredi 26/03/2025 au vendredi 28/03/2025 à ORSAY

25302 : du mercredi 15/10/2025 au vendredi 17/10/2025 à ORSAY

2025
Janvier Février Mars
25047
Avril
Mai Juin Juillet Août
Sept Oct
25302
Nov Déc
OBJECTIFS
-

S'initier à la parallélisation mémoire partagée avec l'API OpenMP


-

Appréhender les concepts sous-jacents


-

Comprendre le modèle de programmation associé


-

Mettre en pratique ces notions en parallélisant de petits codes simples extraits d'applications réelles

PUBLIC
Toute personne souhaitant paralléliser une application préexistante ou en cours de conception pour une architecture multicoeurs à mémoire partagée
PRÉREQUIS
Connaissance et utilisation des langages Fortran ou C
PROGRAMME
Jour 1 :
- Introduction : présentation du parallélisme et des concepts généraux d'OpenMP
- Principes : syntaxe et compilation d'un code OpenMP, gestion des régions parallèles et du statut des variables
- Partage du travail : utilisation d'OpenMP pour paralléliser des boucles ou constructions Fortran 95, gestion des opérations de réduction, spécialisation d'un processus léger

Jour 2 :
- Synchronisation : mécanismes d'exclusion mutuelle et synchronisation fine entre processus légers
- Vectorisation SIMD : utilisation d'OpenMP pour exploiter les registres vectoriels des processeurs modernes

Jour 3 :
- Tâches : parallélisation de problèmes dynamiques ou exploitant la récursivité via l'utilisation de tâches avec gestion des dépendances
- Affinités mémoire/processeur et performances : impact des architectures matérielles sur les performances des codes parallélisées avec OpenMP et bonnes pratiques
EQUIPEMENT
Les stagiaires auront accès au supercalculateur de l'IDRIS pendant la formation pour les travaux pratiques.
INTERVENANTS
R. Lacroix et T. Very (ingénieurs de recherche)
Avis des stagiaires

"Très bonne formation. Les intervenants sont très pédagogues et à l'écoute des interrogations des stagiaires." Thomas M., Entreprise de consultance en ingénierie

"Bon équilibre entre théorie et pratique. Formation très dynamique." Paula K., Organisme de recherche