|
Accueil > Forum TERATEC > Sessions plénières Forum TERATEC 2017 Défis technologiques et diversité des usages de la simulation et du big dataBeau succès pour le Forum 2017 où des ténors de la R&D et de l’industrie sont venus expliquer à plus de 1 300 auditeurs comment les technologies du Big Data, de la simulation et du HPC pouvaient les aider à prendre le virage de la transformation numérique qui se présente à eux. Cela a aussi été l’occasion pour les pouvoir publics européens d’affirmer leur soutien au HPC avec l’annonce du financement de l’achat de deux machines exaflopiques accessibles aux chercheurs et industriels européens d’ici 2023. Une fois encore tout l’écosystème du calcul haute performance s’est donné rendez-vous pour la 12e édition du Forum Teratec, qui s’est tenu les 27 et 28 juin dans les prestigieux locaux de l’Ecole Polytechnique. « Avec plus de 1 300 participants, 90 conférenciers internationaux et plus de 70 exposants, le Forum Teratec s’impose comme la manifestation européenne de référence dans le domaine du HPC », s’est félicité d’entrée de jeu Gérard Roucairol, le président de Teratec, avant de montrer comment l’usage du HPC est entrain de bouleverser la façon dont on peut maintenant anticiper le comportement d’un système. « Si voici quelques années encore il fallait analyser les lois physiques qui régissaient un système pour en créer un modèle exact utilisable avec de multiples jeux de données pour en prédire le comportement à l’aide du HPC, aujourd’hui la collecte et l’analyse des ‘‘Big Datas’’ issues du système permet de créer des modèles prédictifs statistiques, auxquels pourront bientôt se substituer des réseaux de neurones entrainés par le HPC, qui créeront eux même le modèle et en déduiront le comportement à venir du système. Des voies qui seront utilisées conjointement pour accélérer le développement de produits et de services novateurs. Grâce au HPC, l’informatique va devenir prédictive et prescriptive dans tous les secteurs de la société ». Autre sujet d’avenir pour le HPC, le ‘‘Blockchain’’ dont l’objet est de faire des inter-médiateurs démocratiques matériels, pour lesquels il faudra valider, grâce au HPC, l’identité numérique de l’ensemble des interlocuteurs qui veulent se servir de ces inter-médiateurs. Le HPC réinvente les métiers des industriels Norbert Luetke-Entrup, responsable de la technologie et de la gestion de l’innovation chez Siemens, est venu ensuite montrer comment le numérique révolutionne les métiers d’un des leaders de l’industrie électrique. « Tout comme aujourd’hui l’on n’achète plus un CD mais on écoute de la musique en streaming, l’industrie ne programme plus manuellement des machines déjà installées, mais optimise leur fonctionnement dès la phase de conception à l’aide de modèles comportementaux numériques. De même, l’utilisation de jumeaux numériques des installations industrielles, nourris par les données issues de milliers de capteurs connectés placés sur les installations réelles, permet d’effectuer au mieux une maintenance prédictive ». La combinaison de l’Internet des Objets Industriels (Industrial IoT) avec l’analyse des ‘‘Big Data’’ va révolutionner de nombreux secteurs industriels, de la production énergétique jusqu’à l’optimisation des équipements de traitement et des process médicaux, en permettant aux multiples composants d’un système de dialoguer en temps réel pour optimiser leur comportement individuel, afin de maximiser leur efficacité et leur robustesse globale. « Nous avons déjà mis en place de tels systèmes novateurs sur les trains à grande vitesse de la Renfe en Espagne ou sur le Large Hadron Collider du Cern, pour en améliorer la disponibilité. Nous avons aussi équipé des turbines à gaz de centrales électriques de ‘‘systèmes apprenants’’ pour réduire leurs émissions de NOx de 15 à 20 % ». Une approche qui, a terme, pourrait déboucher sur la mise en place de nouvelles offres de services aux utilisateurs de la part des fournisseurs d’équipements. C’est aussi une évidence pour Alain de Rouvray, Président Directeur Général de ESI-Group, qui en tant que fournisseur de solutions de simulation, a montré comment les industriels vont passer de l’ingénierie virtuelle immersive, au jumeau hybride optimisant la performance du produit dans son cycle de vie total, ce qu’il exprime à travers le passage du PLM (Product Lifecycle Management) au PPL (Product Performance Lifecycle). Une évolution des machines Pour arriver à ces résultats, les machines vont aussi devoir s’adapter. C’est ce qu’est venu expliquer Toshiyuki Shimizu, Vice President of the System Development Division, Next Generation Technical Computing Unit de Fujitsu. Fournissant des supers-calculateurs depuis plus de 40 ans, le constructeur japonais a fait passer leur puissance de 33 MFlops à plus de 10 PFlops pour les K-Computers. Mais pour aller plus loin encore, Fujitsu poursuit ses développements avec l’institut Riken autour d’un calculateur Post-K. « Notre objectif est de fournir une machine ayant de hautes performances applicatives, une faible consommation énergétique, une compatibilité ascendante des applications, une simplicité d'accès et une grande facilité d'utilisation. Pour cela nous avons opté pour un CPU propriétaire compatible avec l’architecture de ARM et un nouveau type de données, FP16, moins gourmand en énergie ». L’accompagnement de l’Europe Des évolutions majeures dont les pouvoirs publics européens sont bien conscients, comme l’a expliqué Khalil Rouhana, Directeur-Général Adjoint de la DG Connect de la Commission Européenne. « La Commission a réaffirmé sa volonté de faire de l’Europe l’un des trois pôles mondiaux d’excellence en HPC d’ici 2020, lors du Digital Day qui s’est tenu à Rome en mars, en marge des cérémonies pour les 60 ans du Traité de Rome ». Les bienfaits du HPC pour la santé Afin d’illustrer les apports du HPC pour industriels, les intervenants de l’après-midi ont notamment illustré les avancées dans le domaine de la santé. Tout d’abord Frank Garnier, Président du Directoire de Bayer, a estimé que le HPC induisait quatre transformations majeures dans son groupe : Ouverture de nouveaux champs d’innovation dans les sciences de la vie via le ‘‘Big Data’’ ; Accélération du développement de combinaisons Produits-Services ; Développement de nouvelles approches (parcours de santé personnalisés ; économie de la fonctionnalité) ; Réconciliation de la société avec la chimie, la pharmacie et l’agriculture. « Il s’agit d’une véritable révolution pour nous car depuis que la Terre existe, 4,6 milliards d’années, nous disposons de la même boite à outils chimiques (ADN, ARN et protéines), mais depuis quelques années le numérique a changé la donne. Ainsi le séquençage de l’ADN, qui a demandé 15 ans d’efforts et 2,7 B$ en 1990, se fait aujourd’hui en 2 heures pour moins de 1 000 $ ! Un progrès considérable si l’on sait que les bactéries de notre intestin, qui régulent nombre de nos processus physiologiques, contiennent 150 fois plus de gènes que notre génome ». On peut ainsi espérer que les techniques de simulation numérique vont permettre de réduire les cycles et les coûts de développement de nouvelles molécules. C’est indispensable quand on sait qu’il faut de 10 à 12 ans de développement et près de 300 M€ pour mettre sur le marché une nouvelle molécule, après en avoir synthétisé et testé près de 160 000. De même, l’analyse des ‘‘Big Data’’ issues d’images de microscopie va accélérer le phénotypage des molécules. Idem pour l’analyse des images 3D en fluorescence du comportement des cellules. En agriculture, l’analyse des images satellitaires des parcelles permet de détecter les carences et les maladies des plantes et de leur apporter m² par m² le bon taux d’engrais et de produits phytosanitaires. Et il en ira de même pour la santé humaine avec une médecine personnalisée beaucoup plus efficace. C’est aussi ce qu’a démontré Jay D Humphrey, Professor of Biomedical Engineering à l’Université de Yale, pour qui les technologies numériques permettent de lutter de manière efficace contre l’une des principales causes de mortalité, les maladies cardio-vasculaires. « Dans le cas de la formation de thromboses pouvant conduire à des ruptures d’anévrisme, le traitement des images IRM nous permet de recréer le modèle numérique du réseau sanguin d’un individu sur lequel on simule le flot sanguin à l’aide des équations de la mécanique des fluides. Un véritable défi pour le HPC puisque la simulation de 5 battements cardiaques demande un maillage de 5x106 degrés de liberté, 104 pas de calcul et 5x103 heures de CPU, qui génèrent pas moins de 50 GB de données ! Mais cela nous permet de comprendre la progression de ces maladies cardio-vasculaires et d’évaluer les risques pour les patients ». Enfin, Francois Andry, Senior Director, Enterprise Architecture chez Philips Healthcare, a montré comment le Cloud a permis de créer une plate-forme facilitant le traitement performant des données de santé. Un problème d’envergure puisque ce ne sont pas moins de 190 millions de patients, dans plus de 100 pays, qui sont suivis tous les ans par des moniteurs Philips, ce qui génère 10 PB de données ! « Le traitement de ces données permet aux scientifiques de développer des traitements individualisés beaucoup plus efficaces, tenant compte de l’hétérogénéité génomique des individus ». Faciliter l’innovation Pour conclure cette journée de séances plénières, Hervé Mouren, directeur de Teratec, a tenu à mettre en avant les PME, pour montrer que le HPC n’était pas qu’une affaire de grands groupes industriels. Adeline Loison et Alassane Cisse, directeurs de HLi, un cabinet d’accompagnement des entreprises dans leur transformation numérique, ont ainsi montré comment ils utilisaient le Machine Learning pour aider leurs clients à piloter leur stratégie et prendre des décisions opérationnelles, à partir de données hétérogènes semblant à priori incohérentes. « Trois types d’algorithmes d’apprentissage (supervisé, non supervisé et par renforcement) sont envisageables en fonction du problème et des objectifs attendus. Un moteur spécifique est ainsi créé et industrialisé pour chaque cas-client ». Une technologie qui est utilisable dans de multiples secteurs (banque pour prévenir les fraudes, télécoms pour fidéliser les clients, industrie pour de la maintenance prédictive…). Catherine Lambert, en a présenté les activités de R&D, de développement de méthodes et d’applications dans les domaines de l’aéronautique, du spatial, du climat, de l’environnement et de l’énergie, ainsi que de formation. Pour conclure, Hervé Mouren a montré comment les start-up travaillant sur les technologies de simulation et le HPC pouvaient aider les grands groupes à prendre efficacement le virage de la transformation numérique, qui aura à la fois un impact sur leur fonctionnement, mais aussi sur leurs produits et services, voire sur leur business model. « C’est une solution très efficace car ces PME innovantes fournissent à la fois de la technologie, des compétences et facilitent la co-conception entre savoir-faire métier et savoir-faire technologique, afin d’accélérer l’innovation. L’illustration en est le challenge DataPoC ou 10 PME ont répondu à 10 défis proposés par des grands groupes industriels. Et c’est notre rôle à Teratec de fédérer et d’animer cet écosystème innovant ». Jean-François Prevéraud Pour retrouver les interventions des sessions plénières du Forum TERATEC 2016
Pour retrouver les interventions des sessions plénières du Forum TERATEC 2015
Pour retrouver les interventions des sessions plénières du Forum TERATEC 2014
Pour retrouver les interventions des sessions plénières du Forum TERATEC 2013
Pour retrouver les interventions des sessions plénières du Forum TERATEC 2012
Pour retrouver les interventions des sessions plénières du Forum TERATEC 2010
Pour retrouver les interventions des sessions plénières du Forum TERATEC 2009
Pour toute autre information concernant les sessions plénières, prière de contacter :
|
||||||||||
© Teratec - Tous droits réservés - Mentions légales |