Travail de recherche post-doctoral
Implication dans l'équipe IGG et dans le projet de recherche INRIA-CALVI
Lieu : LSIIT, équipe IGG, Strasbourg.
Période : Décembre 2003 - Août 2005.
Dirigé par : M. Jean-Michel Dischler (LSIIT-IGG).
Collaboration scientifique : Projet INRIA-CALVI, responsable : M. Eric Sonnendrücker (IRMA-ULP).
Résumé du travail post-doctoral :
- Implication dans le projet INRIA-CALVI
Une
grande partie de mon travail post-doctoral est
effectuée dans le cadre du projet INRIA-CALVI (CALcul
scientifique et VIsualisation) de l'INRIA Lorraine.
Ce projet regroupe les
laboratoires de l'Institut Elie
Cartan (IECN, UMR 7502,
Université Henri Poincarré-CNRS-INRIA,
Nancy), l'Institut de Recherche Mathématiques
Avancé (IRMA, UMR 7501, ULP-CNRS, Strasbourg) et le LSIIT. Il
est consacré à l'étude
mathématique et numérique
et à la visualisation de divers
problèmes liés à la physique des
plasmas.
Contexte scientifique
Les plasmas
sont obtenus en chauffant à très haute
température un gaz conduisant à
l'obtention d'un nouveau gaz composé
de particules chargées et de particules
neutres. Ces conditions sont obtenues à
l'intérieur d'un réacteur
appelé tokamak. Le
développement de nouveaux tokamaks requiert des
modèles numériques qui sont à la fois
capables de réduire les coûts et
les risques technologiques, mais aussi d'améliorer
l'efficacité et la performance des réacteurs.
Le
modèle généralement
utilisé pour étudier le
comportement des particules du plasma se base sur l'équation de Vlasov
couplée avec les équations de Maxwell ou
Poisson permettant de décrire les champs
électriques et magnétiques.
L'équation de Vlasov caractérise
l'évolution dans le temps et
l'espace de la distribution des particules d'un
plasma non collisionnel.
Le but d'une simulation d'un faisceau de particules
est de calculer la fonction
de distribution f(x, v, t) caractérisant, pour
chaque espèce de particules, leur
densité à un instant t donné, pour
un vecteur position x et un vecteur vitesse v
dans l'espace des phases (X, V). Ensuite, pour
la résolution numérique de
l'équation de Vlasov, il existe
notamment une approche utilisant
une discrétisation de l'équation de Vlasov.
Elle utilise des volumes finis et consiste à
approximer la fonction de distribution f(x,v, t) par ses moyennes sur
un ensemble de volumes discrets de l'espace des phases.
La fonction de distribution est
ainsi calculée en chacun des points d'une grille discrète de résolution N.
Remarquons qu'une simulation dans un espace
physique de dimension n (avec n=1,2,3) entraîne des
volume discrets dans l'espace des phases de dimension
2n. Ainsi, la résolution des
équations de Vlasov pour un instant t fournit
en sortie un champ scalaire à 4 (n=2) ou
à plus long terme à 6 dimensions (n=3), qui
sont les dimensions de l'espace Euclidien X =(x,y,z) et de l'espace
des vitesses V=(vx, vy, vz).
Notons que dans le cadre d'une simulation numérique d'un plasma,
les particules ne sont plus
représentées en coordonnées
cartésiennes, mais en coordonnées
gyrocinétiques (r, theta, phi) à
l'intérieur du tokamak. Chaque particule est alors
caractérisée à un instant t et pour un
moment de phase v_phi par sa fonction de distribution
f(r, theta, phi, t).
Objectifs scientifiques
Au
sein du projet INRIA-CALVI, de nombreuses avancées ont
ainsi été réalisées autour des
méthodes numériques permettant la résolution
des équations de Vlasov,
concrétisées par le
développement de logiciels de
simulations numériques de plasmas. Actuellement, deux des
objectifs de ce projet résident d'une part dans la conception d'une plate-forme de simulation numérique
permettant de capitaliser, au sein d'un même
environnement, l'ensemble des codes
de simulations numériques réalisés
dans ce projet ces dernières années, et
d'autre part dans l'analyse de l'ensemble des données issues de
ces simulations en effectuant une visualisation scientifique des résultats issus des simulations de faisceaux de particules et de plasmas.
Problématique
La
résolution numérique du système
Vlasov-Maxwell à trois dimensions fournit un ensemble
considérable de données. En effet, une simulation
sur une grille de résolution N=64
entraîne une masse de données égale
à 64 exposant 6 valeurs en double précision pour chaque
pas de temps t, soit 512 Go pour
seulement un pas de temps (la
précision double est nécessaire à la
réduction du bruit numérique et est
imposée par le simulateur). Il est par
ailleurs à noter qu'une telle résolution est
encore considérée comme faible par rapport à
un "vrai" problème physique et
qu'à terme il est nécessaire d'aborder
des grilles de plus grandes résolutions (128 ou plus).
Cette très grande quantité d'information induit deux problèmes qui sont l'exploitation rationnelle et assistée par ordinateur du flot de données, et la gestion des unités de stockage
afin de pouvoir exploiter et parcourir ce volume de
données. Concrètement, il s'agit
d'optimiser l'espace mémoire
occupé, d'accroître la
vitesse d'affichage ainsi que la vitesse de transfert
de l'information, par exemple du disque à la
mémoire centrale ou à la carte graphique.
Pour
répondre à l'ensemble des
contraintes engendrées par une
simulation à 6 dimensions, il est
alors nécessaire de combiner des méthodes de compression de données permettant la diminution des accès vers les unités de stockages, aux méthodes de simulations numériques et à celles de visualisations multi-dimensionnelles qui peuvent être à la fois parallèles et "out-of-core".
En terme de visualisation, la visualisation dite "scientifique" de données multi-dimensionnelles,
issues par exemple de simulations numériques ou de
mesures, constitue à elle seule un défi
important. Il est en effet difficile de
réussir à visualiser des champs multi-dimensionnels
dynamiques, par exemple définis sous forme d'ensembles
de particules en mouvement, tout en faisant ressortir les
informations les plus pertinentes. Il faut pour cela
définir une transformation fortement
réductrice pondérée par
l'information elle-même. En
d'autres termes, leproblème réside dans le passage d'un espace à 6 dimensions à un espace à 2 ou 3 dimensions
seulement, sans pour autant perdre de l'information, en
exploitant notamment les capacités
visuelles cognitives humaines.
Notons que les travaux
réalisés jusque-là en terme de visualisation de
faisceaux de particules affichent seulement une forme
intégrée de la simulation (des moyennes pour
certaines des dimensions), soit sous la forme d'un
affichage direct de particules, soit sous la
forme de volumes de densités de particules.
Dans les deux cas, on se heurte actuellement
à la grande masse de
données à traiter, limitant
considérablement le degré d'interactivité.
Et, dans les deux cas, la compréhension
du phénomène n'est que partielle
puisqu'une grande partie de l'information n'est pas
représentée.
Activités au sein du projet CALVI
Mon implication au sein de ce projet de recherche est active. D'une part, j'assure l'animation scientifique de son Groupe de Travail "Visualisation"
dont l'objectif principal est de suivre les différents travaux
de recherche effectués autour du thème de la
visualisation au sein du projet CALVI. Je fais de
plus intervenir des chercheurs d'autres
projets pour qu'ils présentent leurs travaux en
rapport avec ceux du projet.
D'autre part, je co-encadre plusieurs activités de recherche (1 TER, 2 stages de DEA, 1 thèse, 1 futur post-doc) que je vais détailler.
- Plate-forme de simulation de plasma (TER, M. David Vigier, février-juin 2004)
A l'heure actuelle, il existe, au sein du projet CALVI, 7 codes de simulations numériques distincts. Tous ces codes visent à résoudre l'équation de Vlasov qui caractérise l'évolution de plusieurs particules soumises à différents champs magnétiques et électriques. Ces simulations diffèrent soit par rapport à la modélisation et à la conservation de certaines grandeurs physiques, soit par rapport à la méthode numérique utilisée. Leur point commun réside par contre dans leur décomposition en deux parties : une première partie résout l'équation de Vlasov en partant d'une distribution de particules et d'un champ électrostatique/électromagnétique ; puis l'autre partie calcule ce champ grâce à la distribution de particules.
L'idée de
base de la plate-forme consiste à "diviser" l'ensemble de
ces simulations numériques en deux "solveurs" distincts,
nommés "solveur Vlasov" et "solveur champ", et de
les faire collaborer au sein d'une troisième
application que constituera la plate-forme.
Le premier
travail de recherche que j'ai co-encadré à
30% (TER de maîtrise) avec MM. Eric
Violard (LSIIT-ICPS) et Matthieu Haefele
(LSIIT-IGG), résidait donc dans
l'élaboration de cette plate-forme
nécessitant le découpage
des 7 codes numériques
ainsi que l'élaboration de leur liaison. Ce couplage
a été réalisé en utilisant le langage
interprété Python qui permet de
lier des routines de calculs intensifs
déjà écrites en Fortran et en
C++, ainsi que les modules de visualisation de la simulation de
plasma. Ce travail a fait l'objet d'une publication interne.
Par
ailleurs, afin d'améliorer cette première étude
nous envisageons d'utiliser la plate-forme Salomé qui
vient d'être développée par différents
acteurs dont EDF (http://mocad.cstb.fr/SALOME.htm).
2. Visualisation
interactive de données 4-D+t de faisceaux de particules (DEA, M.
Christophe Mion, février-juillet 2004)
L'objectif
du second travail de recherche
(co-encadrement à 50 % avec M. Jean-Michel Dischler d'un
étudiant de DEA) portait sur la conception
d'un nouvel outil informatique permettant la visualisation
interactive d'une simulation numérique
de faisceaux de particules par
projections 2-D. La solution implantée couple une approche "out-of-core" de compression des données avec une méthode de visualisation
combinant une méthode de visualisation
"Focus + Context" (en utilisant une loupe virtuelle) et la
technique "World Within Worlds" :
- Visualisation : En dehors d'une loupe virtuelle, les données 4-D sont affichées par simple intégration 2-D. Mais, au sein de la loupe, chaque case de projection 2-D contient l'ensemble du sous espace 2-D lui correspondant. Un monde 2-D est ainsi affiché dans un monde 2-D permettant la visualisation de l'ensemble des données scalaires 4-D dans la zone délimitée par la loupe. L'affichage se fait sous la forme d'une carte de hauteur en 3-D. Mais, selon la taille de la loupe, le nombre de triangles générés peut devenir important. C'est pourquoi, pour limiter les primitives graphiques à afficher, une approche multi-résolution de visualisation de cartes de hauteurs a été implantée en liaison avec une méthode de décompression. Ainsi, seule une partie des données est affichée et haute-résolution, tandis que le reste est affiché avec un niveau de détail inférieur mais toutefois suffisant pour analyser le phénomène physique. De plus, une représentation judicieuse de l'information permet de maintenir une performance temps réel, et ce malgré un chargement permanent à partir du disque.
Fig1 : Visualisation multi-résolution de l'espace
d'intégration (vx, vy) (à gauche), activation de la loupe
et d'un pointeur de valeurs (à droite).
- Compression : Le principal problème pour le développement d'un outil interactif traitant une masse de données de plusieurs Giga-Octets réside dans le goulet d'étranglement que constitue la transmission des données entre les unités de stockage et la mémoire centrale d'une machine. Les temps de transferts rendent en effet impossible la satisfaction des contraintes de temps réel. C'est pourquoi, un schéma de compression des données avec perte a été implanté, afin de palier le problème de la lenteur des transferts entre unités de stockage et mémoire centrale des machines. Ce schéma de compression présente deux niveaux de compression. Le premier niveau se base sur la technique classique de compression par ondelettes afin de compresser les différents sous-espaces d'un diagnostique donné, tandis que le second niveau effectue un compression globale des données.
Il est à noter que
cet outil réussit à maintenir une performance
de visualisation 3-D en temps réel sur une machine
standard malgré une quantité importante de
données à visualiser. Ce travail de recherche a fait
l'objet d'un rapport interne.
Je
poursuis actuellement le
développement de cet outil
de visualisation 4-D en effectuant
son portage sur une plate-forme de réalité virtuelle et en y associant un rendu volumique
stéréoscopique réalisé en juxtaposant
les données 4-D pour l'ensemble des pas de temps. De plus,
afin de compléter mes connaissances dans le domaine
de la visualisation scientifique, et plus
particulièrement dans le cadre de la
visualisation de données multi-dimensionnelles, j'ai pour
projet de réaliser un état de l'art relatif aux différentes méthodes de visualisations multi-dimensionnelles et volumiques.
3. Visualisation interactive de données 4-D+t de faisceaux de particules (thèse, M. Matthieu Haefele, 2004-2005)
Sur
cette même thématique, je participe également
à l'encadrement d'un autre travail de recherche
(thèse). L'idée de ce travail
réside dans la conception d'un nouvel outil de
visualisation qui ne fournirait non plus une
vision globale du phénomène
comme précédemment, mais des vues
distinctes, appelées hyper-tranches,
des différents sous-espaces correspondant à
un point P fixé dans l'espace des phases (X, V).
Dans
le cadre d'un espace à deux dimensions
physiques, ce point P aurait ainsi quatre
coordonnées physiques (P_x, P_y, P_vx,
P_vy). Par ailleurs, quatre hyper-tranches,
correspondant aux quatre sous-espaces
d'intégration, seraient alors
visualisées : (x,y), (vx, vy),
(x, vx) et (y,vy). La
première hyper-tranche correspondrait alors au
sous-espace (x,y) associé au point de
coordonnées (P_vx, P_vy), la seconde au sous-espace
(vx, vy) associé au point de
coordonnées (P_x, P_y), la troisième
au sous-espace (x, vx) associé au point de
coordonnées (P_y,P_vy) et la dernière
au sous-espace (y,vy) associé au point de
coordonnées (P_x, P_vx).
Ensuite dans chacune
de ces hyper-tranches, le point associé pourrait
être déplacé, modifiant ainsi ses
coordonnées dans le sous-espace
considéré, et donc les vues des
autres hyper-tranches. Cet outil permettrait
donc de visualiser au même instant les différents sous-espaces d'intégration,
à la différence du travail précédent
qui permet d'avoir seulement la vue d'un espace d'intégration
donné.
Par ailleurs,
nous aimerions associer
à ce concept la visualisation de la trajectoire de quelques particules tests
préalablement sélectionnées et pour lesquelles
l'équation du mouvement serait donc
intégrée. En effet, l'observation
de ces trajectoires permettraient aux physiciens d'observer
des cohérences de mouvement, l'apparition de chaos
ou encore de suivre l'évolution d'une particule
piégée par d'autres particules. Il
semble également intéressant de pouvoir
visualiser les trajectoires d'une même
particule mais ayant des vitesses initiales
différentes, ou encore de visualiser des
particules ayant les mêmes vitesses initiales mais
avec une position de départ différente.
Notons que la résolution de
l'équation du mouvement nécessite
la récupération d'informations
relatives aux champs auxquels sont
soumises les particules afin de
calculer l'ensemble des forces impliquées dans l'équation
de Newton.
De plus, comme pour le travail
précédent, il est nécessaire d'associer à
la visualisation une technique de compression afin de
réaliser un outil interactif.
Celle-ci devrait tirer partie
des différentes échelles de
valeurs présentes dans les données
en effectuant une compression sur la mantisse et non plus sur le
chiffre lui-même. En effet, les physiciens
impliqués dans le projet CALVI nous ont
signalé qu'il ne fallait
absolument pas négliger les
phénomènes de très petite taille
constituant une information aussi enrichissante que
celle relative à des
phénomènes de plus grande taille.
4. Visualisation
interactive de données 4-D+t issues de simulations de plasmas
(DEA, M. Jean-François El Hajjar, février-juillet 2005)
Depuis
le mois de février, je co-encadre
à 50% un nouveau travail de DEA avec M. Jean-Michel
Dischler, concernant la visualisation de données issues d'une simulation de plasmas
(CEA, Cadarache). Cette visualisation présente les
mêmes difficultés que celles relatives à la
visualisation des faisceaux de particules,
à savoir une masse considérable
de données à gérer et un
caractère multi-dimensionnel des
données à représenter.
La
différence avec le travail précédent réside
essentiellement dans la représentation des données.
En effet, pour un faisceau de particules la fonction de
distribution est donnée en fonction de la position de la
particule dans l'espace des phases (X, V), tandis que pour
un plasma, cette densité va dépendre de
la localisation (r, theta, phi) de la particule au sein
du tokamak par rapport à un moment cinétique
v_phi. C'est pourquoi, au lieu de réaliser une
visualisation 2-D + 2-D comme dans
le cadre des faisceaux de particules, une
visualisation 3-D va être
privilégiée pour analyser l'évolution
du plasma. Cette visualisation sera ainsi
relative à l'ensemble du tokamak pour un
instant t et un moment cinétique v_phi
donnés. Mais, comme dans le
travail précédent, cette
visualisation sera obligatoirement
associée à une
méthode de compression et de décompression efficace
des données afin de permettre une navigation en temps
réel au sein des données. Différentes
méthodes (ondelettes, analyse en composantes principales,
...) vont notamment être implantées afin
d'analyser leurs taux de compression et leurs
performances dans le cadre de nos données.
Le caractère innovant de cette visualisation volumique devrait résider dans la prise en compte de la géométrie particulière du tokamak
(un tore) dont le centre ne présente
aucune donnée à afficher. Par
ailleurs, cette méthode devrait
également exploiter au maximum l'ensemble des
ressources (mémoire et GPU) désormais disponibles
dans les cartes graphiques.
5. Visualisation
parallèle de simulations de plasmas et de faisceaux
de particules (futur post-doctorant, septembre 2005)
A l'heure
actuelle, les numériciens limitent la taille des grilles
sur lesquelles sont élaborées leurs simulations afin
d'obtenir des résultats analysables sur une
machine ordinaire. Mais, à terme, l'ensemble des
simulations vont être parallélisées et
donc exécutées sur des machines
haute-performance. La masse de données
à analyser, pour un pas de temps donné
d'une simulation, va ainsi s'accroître
considérablement, nécessitant obligatoirement
la parallélisation de la phase de visualisation.
C'est
pourquoi, dans le cadre du projet INRIA-CALVI, une
demande de financement de post-doc INRIA vient d'être
faite par M. Jean-Michel Dischler et moi-même. Le sujet de
ce travail post-doctoral porte sur la parallélisation de
nos différents outils de
visualisation. Si le financement est
accordé, ce co-encadrement débutera au mois de septembre.
II. Implication dans l'équipe LSIIT-IGG
En
plus de mon implication spécifique au sein du projet INRIA-CALVI
dont l'équipe LSIIT-IGG fait partie, je m'implique dans cette
équipe en prenant part aux travaux en cours de
réalisation et en apportant ceux que j'ai réalisés
durant mon doctorat.
Outil interactif de génération de textures
J'ai
notamment participé à la rédaction
d'un article, en cours de soumission dans
un congrès international,
concernant la réalisation d'un outil interactif de génération de textures.
Le
principe de cet outil élaboré par M.
Jean-Michel Dischler est le suivant : l'image originale de
la texture est tout d'abord décomposée en plusieurs
cellules polygonales inter-connectées, définissant
ainsi un maillage 2-D ; puis une segmentation de la texture est
réalisée en utilisant un banc de filtres
espace/fréquence faisant apparaître
différentes composants de l'image
initiale. Ensuite, l'utilisateur peut modifier en
temps réel différents aspects de la structure de la
texture initiale, tout en conservant une
cohérence visuelle de celle-ci.
Cet outil
va par la suite servir à générer
différentes textures qui seront intégrées au
sein de ma simulation de textiles. Ces textures seront
notamment élaborées à partir de mesures faites
à l'aide d'un goniomètre sur différentes
pièces de tissus.
Visualisation scientifique et réalité virtuelle
L'équipement
graphique employé par l'équipe IGG comporte
notamment un Workbench associé à
un dispositif d'interaction à 6
degrés de liberté, relié à deux
noeuds graphiques bi-pentium Xeon. Ce workbench est de plus
connecté à une grappe de $30$ bi-processeurs
Itanium-2. L'ensemble de ces ressources est
mis à la disposition par le Centre
d'Etudes du Calcul Parallèle et de la
Visualisation (CECPV) de Strasbourg.
Afin d'améliorer l'emploi de l'ensemble de ces ressources, j'ai notamment aidé à l'installation et à la configuration de nouvelles bibliothèques de réalité virtuelle (VR Juggler, Net Juggler) avec MM. Sylvain Brandel, Damien Touraine et Sylvère Besse.
J'ai également porté ma simulation interactive de textiles
sur cet équipement graphique, qui sert désormais
à présenter les activités de l'équipe IGG
et du CECPV.
Afin de tirer parti de
l'ensemble des possibilités de cet
équipement, j'ai pour projet
d'étudier l'ajout de nouvelles
interactions entre l'utilisateur et
la simulation. J'aimerais également
élaborer une scène plus complexe afin
de mettre plus en avant l'intérêt du
couplage entre la simulation parallèle
et sa visualisation interactive, en tirant parti du
fait que le workbench est connecté à une grappe
d'Itanium-2.
De plus, afin d'ajouter du
réalisme à la simulation de textiles, je
vais également étudier
l'ajout des phases de
détection et de traitement des collisions du
tissu avec lui-même ou avec des objet
extérieurs. Cet ajout va nécessiter l'implantation d'un
nouveau module parallèle relié au reste de la simulation.
L'équipe
IGG a
élaboré une
base bibliographique accessible
à l'ensemble de l'équipe, ayant pour but de regrouper les
articles les plus intéressants concernant ces thématiques
de recherche. J'ai pour ma part mis à jour la partie
"visualisation" de cette base bibliographique, permettant par exemple
aux nouveaux étudiants de DEA d'accéder directement aux
articles les plus pertinents pour appréhender leur stage de
recherche.