BIO: Pr. Moustapha Cissé est chercheur en Intelligence artificielle à Google ou il est responsable du centre de Recherche en AI d' Accra, Le premier centre de recherche de Google en Afrique. Il est professeur d’intelligence artificielle à l'African Institute of Mathematical Sciences où il est Fondateur et Directeur du premier programme de master en IA en Afrique, AMMI. Pr Cissé est Directeur non-exécutif du centre pour la 4e révolution industrielle du Rwanda et est aussi membre du conseil international de l’école polytechnique de Zurich. Jusqu’en 2018, Moustapha était chercheur à Facebook en Artificial Intelligence Research. Il soutient sa thèse de Doctorat en machine learning à l'Université Pierre et Marie Curie en 2014.
Résumé: Improving the completeness and correctness of knowledge graphs is vital to further their use in academia and industry. In this keynote, we focus on the correctness of knowledge graphs. We begin by elucidating some of the fundamentals of fact checking based on the classical fact checking task on text. We then address the two main families of fact checking for knowledge graphs, i.e., approaches bases on textual resources and approaches focused on knowledge graphs alone. We then present possible applications of fact checking. The keynote is concluded by a short overview of challenges related to fact checking which are discussed in some of the current literature.
BIO: Pr. Dr. Axel-Cyrille Ngonga Ngomo est professeur titulaire de science des données à l'Université de Paderborn depuis 2017. Il a obtenu son doctorat en informatique à l'Université de Leipzig en 2009. Il a ensuite dirigé le groupe de recherche Agile Knowledge and Semantic Web Research, où il s'est concentré sur l'extraction de connaissances, le stockage de données, le traitement fédéré des requêtes et l'intégration de données pour les graphes de connaissances. Axel dirige maintenant le groupe de recherche DICE de l'Université de Paderborn, qui développe des algorithmes évolutifs à l'échelle du Web pour prendre en charge toutes les étapes du cycle de vie des graphes de connaissances. Ses recherches ont abouti à plus de 200 publications évaluées par des pairs et à plus de 25 prix de recherche internationaux, y compris les meilleurs articles de recherche lors de conférences de haut niveau et le prix du Next Einstein Forum en 2016.
Il dirige actuellement le réseau européen de formation KnowGraphs sur les graphes de connaissances à grande échelle. Il est également le responsable scientifique d'une demi-douzaine de projets sur des sujets allant de la vérification des faits à l'apprentissage automatique. Dans ses temps libres, il profite d'une bonne session de jam à la guitare, à la basse et parfois même à la batterie.
Résumé: Aujourd’hui, les données que nous générons ou collectons sont de diverses sources, couvrent plusieurs régions géographiques et sont devenues énormes que les mécanismes traditionnels de traitement ne peuvent être utilisés pour les analyser. Par exemple, les plateformes E-commerce, les IoT utilisées dans le cadre de smart city, les réseaux sociaux, etc, génèrent de tonnes de données par jour au point qu’il est devenu incommode de les transférer dans une même localité pour les traiter.
Aussi, en très peu de temps, le Cloud est devenu le paradigme de choix pour un modèle informatique basé sur le principe du “Payer à la consommation". Les ressources informatiques sont fournies sous la forme de services accessibles à distance. Les modèles de tarification des différents types de services varient en fonction de la performance de la ressource, du temps d’engagement de l’acquisition de la ressource et du modèle économique appliqué.
Bien que largement adopté et réussi dans le traitement des Big Data, le cloud présente également certains défis en raison de la variété des applications, de l’hétérogénéité des types de ressources avec des capacités en performance différentes et de la façon dont ces ressources sont orchestrées et facturées à l’utilisateur final.
L’un de ces défis est de faire le compromis entre le coût et la performance. Les applications exécutées dans le Cloud ont des exigences de performances différentes, ce qui en fait une tâche difficile lorsque les utilisateurs planifient l’acquisition de ressources et l’exécution des tâches sur ces ressources. Des questions fondamentales se posent dans les modèles Cloud pour Big Data, lorsque la performance et le coût sont les deux préoccupations essentielles:
Comment sélectionner une ressource parmi la variété du pool de ressources, pour chaque classe spécifique d’applications Big Data?
Comment planifier stratégiquement l’exécution des tâches sur un nombre limité de ressources Cloud?
Comment tirer profit des différents modèles de tarification du fait que certains sont à prix discount, mais font des compromis sur d’autres fonctionnalités qui affectent les performances?
BIO
Dr. Wendkuuni Moïse CONVOLBO est Manager du Département des Données de Treasure Data Inc. Il est titulaire d’un PhD en Informatique de l’Université National de Tsing Hua (National Tsing Hua University) à Taïwan, obtenu en 2017. Il a aussi obtenu son Master dans le même département et dans la même Université en 2011. Avant de rejoindre Treasure Data Inc., Dr CONVOLBO a successivement travaillé pour HOKANG-TEK en tant que Stratégiste Cloud, pour Rakuten en tant que Senior Data Scientist et Manager en charge des données client de l’entreprise.
Ses recherches couvrent un large éventail de sujets liés aux systèmes à grande échelle, y compris le cloud computing, les Datacenters géographiquement distribués, les HPC et l’Intelligence Artificielle. En particulier, il s’intéresse actuellement à l’utilisation de l’intelligence artificielle pour anticiper le comportement des clients.
Dr CONVOLBO est membre de IEEE, ACM et réviseur dans les journaux tels que IEEE Transaction on Cloud Computing; ACM Journal of Computing Surveys (CSUR); Elsevier Journal of Parallel and Distributed Computing; Springer, Journal of Telecommunication; Autosoft Journal, Intelligent Automation & Soft Computing; Springer, Journal of Cluster Computing. Pour plus d’info www.convolbo.org
Résumé: In November 2020, Honda announced the mass-production of Level 3 autonomous vehicle. Have you ever heard of autonomous vehicle? What makes a vehicle to be called autonomous? Is the level information important? More importantly, how can autonomous vehicle relate to you, engineers, entrepreneurs of tomorrow?
We will start this presentation by reviewing what is an autonomous car. We reveal some features of autonomous vehicle and how they are built. Throughout this presentation you will see that artificial intelligence and big data technologies are key in the automotive industry of today.
BIO: Dr. Yemdji is a software engineer at Groupe Renault where she works on chassis control. By using the adequate control laws, one can not only ensure the stability of a car, but one can also control the behavior and create different user feelings. Her research topics also include the usage of reinforcement learning for path planning. Before joining Groupe Renault, Christelle worked for Intel France on audio signal processing algorithms for mobile devices. She obtained her PhD degree in 2013 from Telecom ParisTech. She holds a MSc in signal processing from the University of Rennes 1 and of an engineering degree from ISEN Lille.
Résumé: Nous assistons présentement à l’émergence de données en grande quantité et de toutes sortes. Résumer et classifier ces masses de données dans le but d’extraire de nouvelles connaissances pour l’aide à la décision constituent une question cruciale dans plusieurs secteurs : banque, assurance, recherche pharmaceutique, télécommunications, etc. (tout domaine récoltant des données et désirant en extraire de nouvelles informations pour l’aide à la décision). Les entreprises réalisent de plus en plus qu’il est important de savoir traiter et analyser l’ensemble des données accumulées car elles représentent une mine exceptionnelle d'informations stratégiques.
Cette présentation se concentre essentiellement sur une méthodologie de conception d’un modèle statistique de prédiction. Cette méthodologie est appliquée sur une clientèle de cartes de crédit d’une institution financière.
BIO: Après une Maîtrise en mathématiques appliquées à l'université Gaston Berger de Saint-Louis (Sénégal), Chérif Mballo est parti à l’université Paris Dauphine en France : DEA (Diplôme d'Études Approfondies) en mathématiques appliquées en 2001, DEA en Informatique (Systèmes Intelligents) en 2002 et Doctorat en Informatique (méthodes et algorithmes d'apprentissage automatique) en 2005. Par la suite, il est parti à l'université du Québec à Montréal au Canada pour deux ans de Post-Doctorat en Bioinformatique / Biostatistique (2008-2010). Ses recherches ont fait l’objet de plusieurs publications dans des revues et conférences internationales. Depuis juin 2010, il pratique l'analyse des données dans le milieu des affaires (secteur bancaire de 2010 à 2016 et secteur de la fiscalité depuis juillet 2016). Ses principaux centres d'intérêts se concentrent sur les algorithmes d'apprentissage automatique pour résoudre diverses problématiques rencontrées en entreprise (modélisation du comportement).
Résumé: A l’heure où les entreprises ont pris conscience de la richesse que représentent les données, plusieurs challenges doivent encore être relevés (sourcer les données, les qualifier, les exposer, etc..); ceci afin de converger vers un socle de base qui permette la réalisation d’analyses pertinentes, au sens « Business » du terme. La collecte et la préparation représentent une part importante de cette phase d’analyse, qu’importe la volumétrie des données. Nous illustrerons dans cette présentation quelques cas d’usage d’analyse de données en entreprise, avec les grands défis à relever.
BIO: Christiane KAMDEM est Business Data Analyst à TOTAL Marketing & Services où elle accompagne les métiers dans la conception de solutions répondant aux objectifs business, en se basant sur les données.
Elle a rejoint le groupe Total en 2015 en tant que Senior Data Scientist, après une thèse en data mining & optimisation, obtenue conjointement à l'université de Grenoble et à l'université de Yaoundé I.
Résumé: La découverte de médicaments est un processus long et coûteux. Le repositionnement de médicaments constitue une bonne alternative aux méthodes traditionnelles de développement de médicaments. Il consiste à trouver de nouveaux usages à des médicaments déjà existants. Par exemple, dans le cadre de la recherche de traitements possibles contre la Covid-19, plusieurs travaux ont exploré l'approche par repositionnement. Parmi les différentes méthodes dans ce domaine, l'utilisation de graphes de connaissances connaît un certain succès ces dernières années. Les graphes de connaissances sont particulièrement adaptés dans le cadre de l'intégration de données hétérogènes et disparates, comme c'est souvent le cas pour faire du repositionnement. Une fois intégrée, grâce à des techniques d'apprentissage profond, il est possible d'apprendre de ces larges réseaux de connaissances et de prédire notamment des liens implicites ou manquants dans ces graphes. Ces liens peuvent notamment constituer de potentielles hypothèses - relations entre molécules et cibles thérapeutiques - à explorer.
Dans cette présentation, j'introduirai les travaux que nous menons dans le cadre du projet OREGANO, qui développe une approche holistique de repositionnement de médicaments basée sur un graphe de connaissances
BIO: HDR and PhD in Computer Sciences, is a member of the Bordeaux Laboratory of Computer Science and the Group Leader of the Computer Sciences Applied to Health research group (ERIAS) of the Bordeaux Population Health research center, INSERM 1219, a team dedicated to the design and development of methods and tools for the semantic integration of healthcare related data, in particular, for facilitating their secondary use in the context of Public Health issues. He joined University of Bordeaux, Bordeaux School of Public Health (ISPED), in 2009 after being a research assistant at City University of London (UK) and PostDoc researcher at the Laboratory of Applied Computer Sciences (LISI/ENSMA) Futuroscope Poitiers (France). He graduated from University of Grenoble Joseph Fourier in 2006 (PhD in Computer Science). His research interests include AI based approach for healthcare data and knowledge management and ICT for Development with a particular focus on the healthcare sector. He participated in various EU funded projects and authored or co-authored more than 50 peers reviewed papers. He is winner of the practical application prize of the 2015 edition of the Orange Data for Development Big Data Challenge (D4D) and the SAMPO France-Finland cooperation program in 2015 as well.
Résumé: Cette présentation introduira la notion d’ontologies dans le domaine de l’intelligence artificielle. Nous présenterons d’où vient le mot ontologie et ce qu’il signifie en informatique. En effet, plusieurs domaines de l’informatique sont concernés par la formalisation des connaissances sous forme d’ontologies. Nous nous focaliserons principalement sur cette formalisation des connaissances à l’aide des technologies web sémantique. Tout au long de la présentation, plusieurs projets informatiques issus de la recherche à l’INRAE seront utilisés pour illustrer les différentes fonctionnalités d’un système informatique utilisant ces technologies.
BIO: Catherine ROUSSEY is presently a researcher at the French National Research Institute for Agriculture, Food and Environment (INRAE). She belongs to the team COPAIN of the TSCF Laboratory. Her research topics are ontology design, knowledge representation, context representation, semantic web, semantic sensor network, spatial reasoning.
From 2011 to 2020, She was a researcher at the French National Research Institute for Sciences and Technologies in Environnement (IRSTEA)" formerly known as Cemagref. From 2002 to 2011 she was an Assistant Professor in the Claude Bernard University of Lyon 1. She used to teach database courses at the Computing Department of the Technical University Institute called IUTA located in Bourg en Bresse. At that time, Dr Catherine Roussey was a member of the Lyon Research Center for Images and Intelligent Information Systems (LIRIS). She used to work with Sylvie Calabretto in multilingual information retrieval and document management system. She also worked with Robert Laurini about urban ontology.
Résumé:
BIO: Mor Bakhoum est enseignant chercheur à l´Université Virtuelle du Sénégal (UVS). Il est le chef de division chargé de la recherche et de l´innovation au Pôle d´Innovation et d'Expertise pour le Développement (PIED). Mor Bakhoum est par ailleurs chercheur affilié au Max Planck Institute for Innovation and Competition de Munich où il a travaillé en tant que chercheur senior de 2009 à 2019. Mor Bakhoum enseigne au Munich Intellectuel Property Law Center (MIPIC) et à l'OAPI/OMPI/Université de Yaoundé II.
Les travaux de recherche de Mor Bakhoum se focalisent principalement sur la propriété intellectuelle, le droit de la concurrence, le droit au développement avec un accent particulier sur la situation des pays en voie de développement. Mor Bakhoum a beaucoup publié dans ces domaines de recherche. Son dernier ouvrage qu’il a co-écrit avec Professeur Eleanor Fox du New York University School of law est publié en 2019 par l´Oxford University Press (OUP) est intitulé : “Making Markets Work for Africa: Markets, Development, and Competition Law in Sub-Saharan Africa”.
Mor Bakhoum est titulaire d’un Doctorat en droit (Summa cum Laude) de l’Université de Lausanne en Suisse. Le prix 2008 de la ville de Lausanne lui a été décerné pour la meilleure thèse en sciences humaines. Mor Bakhoum est titulaire de spécialisations avec un Master en droit économique et des affaires de l´UGB, un LL.M en droit européen et en droit international économique de l’Université de Lausanne et un LL.M. in international intellectual property law de Chicago Kent College of Law.
Mor Bakhoum parle wolof, français, anglais et allemand.
Résumé: In today's world, our life depends too much on computers. Therefore, we are forced to look at every way to save the energy of our hardware components, system software, as well as applications. Data Management Systems (DMSYSs) are at the heart of the energy new world order. The query processor is one of the DMSYS components in charge of the efficient processing of data. Studying the Energy-Efficiency of this component has become an urgent necessity. Most query optimizers minimize inputs/outputs operations and try to exploit RAM as much as possible. Unfortunately, they generally ignore energy aspects. Furthermore, many researchers have the opinion that only the OS and firmware that should manage energy, leaving DMSYSs as a second priority. In our opinion, software and hardware solutions must be integrated to maximize energy savings. This integration seems natural since query optimizers use cost models to select the best query plans and use hardware and software parameters. As scientists, we first feel obliged to motivate researchers to embrace the Energy-Efficiency of DMSYSs through a survey. Secondly, to accompany them, we propose a road-map covering the recent hardware and software solutions impacting query processors. Finally, guidelines for developing green query optimizers are widely discussed.
BIO: Ladjel Bellatreche is a Full Professor at National Engineering School for Mechanics and Aerotechnics ENSMA) of Aerospace Engineering Group (ISAE), Poitiers, France, where he joined as a Faculty Member since September 2010. He leads the Data Engineering Group of the Laboratory of Computer Science & Automatic Control for Systems (LIAS). He was Director of the LISI laboratory from January 2011 till January 2012. Prior to that, he spent eight years as an Assistant and then an Associate Professor at the Poitiers University, France. Ladjel was a Visiting Professor at the Harbin Institute of Technology (HIT) - China (2018, 2019), the Québec en Outaouais - Canada (2009), a Visiting Researcher at the Purdue University - USA (2001) and the Hong Kong University of Science and Technology, China (1997-1999). His current research interests include the different phases of the life cycle of designing data management systems/applications: requirement engineering, conceptual modelling using ontologies and knowledge graphs, logical modelling, Extraction-Transformation-Loading, deployment, physical design, personalisation and recommendation. Ladjel (co)-supervised 30 Ph.D. students on different topics covering the above phases.
Ladjel covers several roles as a Steering Committee member of French and International conferences (EDA, BDA, ADBIS, DOLAP, MEDI). He served as a General and a Program (co)-Chair of French and International conferences (including EDA, BDA, JFO, ADBIS, Big Data Analytics, MEDES, DaWaK, DOLAP, IEEE SmartData). Ladjel is the co-founder of the International Conference on Model and Data Engineering (MEDI) and the International Workshop on Ontologies Meet Advanced Information Systems (OAIS). He managed several special Issues as a (co)-editor in high-indexed journals: Big Data Research, Data & Knowledge Engineering, Distributed and Parallel Databases, Computers in Industry, Computing, Concurrency and Computation: Practice and Experience, Future Generation of Computer Systems, Information Systems, Information Systems Frontiers and Journal on Data Semantics. Ladjel is an Associate Editor of the Data and Knowledge Engineering Journal and an Editorial Board Member of the International Journal of Reasoning-based Intelligent Systems and Computer Science and Information Systems. Ladjel serves as a Program Committee Member in top-quality international conferences. He is an author or a co-author of more than 270 papers in International Conferences and Journals. He has received more than 3245 citations (h-index=27). His research has been funded by several industrial contracts and 2 EU projects.
Résumé: Vous apprendrez à créer un traducteur de langue à partir de zéro en utilisant une architecture encodeur-décodeur seq2seq et 5 min de votre temps. Et pourquoi pas sauver environ 2500 langues qui sont en danger de disparition selon l’UNESCO.
Nous allons construire un modèle séquence à séquence pour traduire des phrases de l'anglais vers le Yemba, une langue minoritaire camerounaise. Le code peut être adapté à n'importe quelle autre paire de langues!
Téléchargez et jouez avec le code avant le séminaire sur ce site
BIO: Michel is a dynamic, accomplished, multidisciplinary Senior Data Scientist, highly regarded for guiding software engineering efforts and implementing machine learning techniques to solve complex problems within large distributed systems. Michel was previously head of Data Science @Socialbakers, Prague. He is an Out-of-the-box thinker with extensive knowledge of mathematical modeling, neural networks, deep learning and statistical concepts, combined with an extensive background in dealing with large datasets and deploying real-time algorithms for Fortune 500 companies. Known for ability to link neuroscience and machine learning through academic engagements, research experience, and lecturer experience in modeling/simulation of biological processes. As a Prince 2 Certified, recognized for effectively guiding and supporting critical projects, understanding stakeholder requirements and delivering on all goals. Accepted as a strong communicator who ensures continued coordination with diverse individuals. Michel is among the top 50 bloggers on AI at Towards Data Science, and member of the Alumni of Harvard University.
Résumé: La lutte contre la fraude apparaît aujourd’hui comme un réel enjeu pour les entreprises. Afin de détecter les comportements frauduleux, certaines entreprises utilisent des règles métiers établies par des experts qui ne s’adaptent pas toujours à l’ingéniosité et à la créativité des fraudeurs. Par la mise en place au moyen d'analyses avancées, de modèles prédictifs sophistiqués à associer aux règles métiers existantes, le data mining se présente comme un outil incontournable de lutte contre la fraude. Les entreprises ressentent également de plus en plus le besoin d’appliquer les modèles prédictifs sur des données en temps réel. La prédiction en temps réel trouve son utilité dans différents domaines (industriel, télécommunication, e-marketing, etc).
Ce travail a pour but de présenter la méthodologie de détection de la fraude à l’aide du datamining et d’illustrer l’application d’un modèle prédictif sur un flux de données en temps réel. Il s’articule donc en deux parties:
- Une première partie qui illustre la méthodologie de détection de la fraude à l’aide du datamining, en s’appuyant sur un jeu de données issu du domaine de l’assurance, et
- Une seconde partie qui illustre comment appliquer un modèle prédictif sur un flux de données en temps réel. Ce dernier cas s’appuie sur un flux de données monétiques bancaires (transactions par cartes bancaires).
BIO: Dieudonné DJOFANG est consultant sénior en BI. Après un diplôme de DEA en sciences informatiques obtenu à l’université de Yaoundé1 en 2005, Dieudonné DJOFANG a exercé dans un groupe bancaire sous-régional Africain ayant pour siège Yaoundé. En 2012, il a quitté son poste de coordonnateur des projets monétiques pour une spécialisation en Informatique Appliquée à la Décision Bancaire et Actuarielle à l'École Supérieure de Télécommunication de Bretagne (ENSTB) en France. Depuis 2013, après obtention du diplôme de mastère spécialisé IADBA, il exerce aujourd’hui en tant que consultant data (data Engineer) auprès des entreprises financières du CAC 40 (banques et assurances). Il justifie d’une forte expertise sur la solution décisionnelle SAS avec plusieurs certifications professionnelles à son actif.
Résumé: Les instituts nationaux de statistique ainsi que l’ensemble des producteurs de données statistiques doivent beaucoup à la qualité des données afin de permettre à leur tutelle de prendre de bonnes décisions mais également permettre aux utilisateurs (chercheurs, étudiants, …) de pouvoir bien travailler sur leurs projets de recherche afin de produire des résultats pertinents. Il apparaît ainsi que la survie des producteurs de données statistiques dépend en partie de la qualité de ces dernières.
Dans cette présentation, les différentes dimensions qui permettent de mesurer la qualité de données seront abordées et des cas pratiques avec des opérations d’enquêtes seront également montrés afin de permettre aux participants de mieux comprendre les différentes dimensions.
BIO: Ibrahima est ingénieur informaticien au sein de l’ANSD (Agence Nationale de la Statistique et de la Démographie) du Sénégal depuis 2012. Il a participé dans le cadre de ses missions à la mise en place de l’architecture informatique pour le Recensement Général de la Population, de l’Agriculture, de l’Habitat et de l’Elevage (RGPHAE 2013) au Sénégal faisant intervenir la collecte des données et la gestion des contrats numériques. Il a aussi participé au développement du portail MIRADOR (Management Intégré des Ressources Axé sur une Dotation Rationnelle et à l’interconnexion des bases de données du système de Gestion intégrée des Ressources, Administrations et Fonctionnaires de l’Etat du Sénégal (GIRAFE) et MIRADOR, du Ministère de l'Education Nationale (MEN) et de la Formation Professionnelle. Avant de rejoindre l’ANSD, il a travaillé comme consultant informatique dans plusieurs entreprises au Sénégal.
Résumé:
BIO: Formée au Sénégal et en France, Dr Diyé DIA est titulaire d’un Doctorat en Informatique, spécialisé en Machine Learning de l’Université d’Auvergne de Clermont-Ferrand. Elle dirige ARISTARC Conseils, une entreprise de services numériques installée au Sénégal et en Côte d’Ivoire, et partage son temps entre l’enseignement (Intelligence Artificielle et Analyse de données), la recherche dans le domaine de l’Intelligence Artificielle, la consultance et l’entreprenariat.
Résumé:
BIO: Abdoulaye Baniré Diallo est professeur et directeur du laboratoire de bioinformatique de l'Université du Québec à Montréal (UQÀM). Il est également cofondateur et scientifique en chef de My Intelligent Machines (MIMs). En Afrique, il codirige Acces Omic Sénégal avec l'Institut de Recherche en Santé, Surveillance Épidémiologique et de Formation du Sénégal. Cette initiative jette les bases de la santé de précision au Sénégal.
Il a obtenu un doctorat en informatique (option bioinformatique) à l'Université McGill, à Montréal, au Canada, en avril 2009, grâce à une bourse du Conseil de recherches en sciences naturelles et en génie du Canada. Il a reçu le prix Chikio Hayashi de la Fédération internationale des sociétés de classification (IFCS) en 2006 pour ses recherches doctorales. Il a également reçu le prix Springer pour la meilleure présentation en classification à SFC-Cladag en 2008. Après son doctorat, il a poursuivi ses études postdoctorales au laboratoire d'informatique et d'intelligence artificielle du Massachusetts Institute of Technology (MIT). Il a également été associé de recherche au Broad Institute du MIT et de Harvard.
En plus des prix énumérés ci-dessus, Abdoulaye a reçu le Prix d'excellence des professeurs de sciences de l'UQÀM en début de carrière en 2016. Il a reçu les prix du meilleur article lors de la conférence Machine Learning and Data Mining en 2016. Il a plus de 60 publications et plus de 30 conférences dans des institutions prestigieuses telles que le MIT, Harvard, Oxford, UCSF, Institut Pasteur de Dakar et autres. En 2018, il est devenu lauréat du Next Einstein Forum.