|
Accueil > Forum TERATEC > Ateliers > Atelier 3
|
|
Cet atelier regroupait 6 présentations montrant le lien étroit entre les évolutions matérielles, logicielles, outils, bibliothèques, codes de calcul et méthodologies d’études.
Les trois premières présentations sont axées sur les bibliothèques, compilateurs, outils et stratégie d’optimisation.
La suite logicielle OneAPI est un ensemble d’outils pour compiler, analyser, optimiser et débugger. OneAPI inclus une implémentation du SYCL permettant une exécution sur CPU, GPU, FPGA, … des différents fournisseurs de hardware. A noter la présentation de l’outil SYCLomatic permettant une migration de CUDA vers SYCL.
L’intergiciel MAESTRO a été développé dans le cadre d’un projet européen, ce middleware permet d’optimiser des workflows pour lesquels de très grands volumes de données sont à transférer entre applications en s’affranchissant de l’écriture disque. Cet intergiciel permet à des applications de mettre à disposition des données (producteurs) qui peuvent utilisées par d’autres (consommateurs) dès la mise à disposition. Il en résulte une optimisation des temps de calculs par la données pouvant être utilisées dès qu’elle est disponible.
La présentation suivante avait trait avec l’informatique computationnelle pour la biologie. L’orateur, informaticien, a présenté sa stratégie pour l’optimisation de codes de calculs utilisés en biologie : la connaissance du domaine scientifique (ici la biologie) et un travail collaboratif sont essentiels pour identifier les goulots d’étranglement et optimiser de manière fine les codes de calculs utilisés. Les besoins de portabilité et de durabilité dans les développements impliquent l’utilisation d’outil de type oneAPI ou kokkos.
Les trois présentations suivantes sont axées sur les codes de calcul et les stratégies d’études.
Le développement de ProLB repose sur la programmation par flux de données et une séparation entre les équipes cœur de calcul et modélisation physique. L’équipe cœur de calcul est dédiée aux aspects HPC, parallélisme, … tandis que les modélisateurs utilisent un langage dédié pour décrire les algorithmes. La tâche des modélisateurs est ainsi simplifiée, les aspects complexes d’optimisation, portage, … sont portés par l’équipe noyau.
La présentation HEXAGON s’intéresse d’une part à la modélisation en acoustique et d’autre part à la CFD. L’optimisation en acoustique s’appuie sur du maillage automatique selon la fréquence, l’optimisation des solveurs (utilisation de la simple précision, …) et parallélisme (MPI, multithreads, …). Selon le problème considéré une étude préalable permet des gains considérables sur le temps d’étude.
La dernière présentation de l’atelier présente la stratégie d’étude employée pour mener une étude CFD multiphasique sur un très grand nombre de maille (jusqu’à 512 milliards de cellules). Le temps de calcul nécessaire pour établir un stationnaire devenant prohibitif, une stratégie de poupées gigognes, avec découpage et interpolation, a été mise en place permettant de passer de 1 à 8 puis 64 milliards de cellules. Les limites des solveurs, des bibliothèques, du système de fichiers, … ont été atteintes à 512 milliards de cellules.
Avec la participation de :
|
|
|
|
|
|
|